Día: 16 noviembre, 2016

Enfrentaremos la mayor ruptura de la industria del software

 

La historia de la industria del software inició hace unos 50 años y comenzó muy estrechamente con el hardware. En la década de 1960, las computadoras de las grandes empresas ya venían con un software integrado en su código fuente y fueron utilizadas por una parte muy pequeña de empresas e instituciones de gobierno. Con la creciente complejidad del hardware, el software se volvió más sofisticado y más caro, lo que impidió que los dos siguieran siendo comercializados conjuntamente.

La evolución continuó y surgieron en la década de 1980, los primeros microordenadores. La posibilidad de tener una computadora en cada hogar y para cada persona dentro de una empresa, trajo una nueva y gran oportunidad de negocio para el software, las interfaces a través de las cuales cada una de esas personas iba a interactuar con los ordenadores. Y esto por supuesto, fue la primera ruptura de la industria del software. Por primera vez se discutió sobre sistemas más fáciles, menos técnicos y menos restringidos, hasta el punto de ser utilizados por todo el mundo…por supuesto, en las proporciones que la tecnología de la época permitía.

Esta premisa se ha mantenido a lo largo de las últimas décadas. Los sistemas han conquistado un espacio en el día a día de las personas y de las organizaciones con el uso gradual de internet y han ido ganando más y más características, módulos y complejidad.

Ahora, de una manera arrebatadora llegaron los smartphones, la movilidad y la conectividad. La transformación en el día a día de la sociedad fue tan rápida que más que conectar personas, ya estamos conectando cosas. Para la industria del software, el presente/futuro es capturar la conectividad esparcida por todas partes y llevarla a los sistemas, conectando cosas a personas y negocios.

Tomando en cuenta que sólo en las soluciones de TOTVS existen millones de personas accediéndolas todos los días, ¿puede imaginar las proporciones de la revolución que esta cantidad de personas conectadas a miles de dispositivos causará en el mundo?

Bueno, todavía no tenemos las respuestas matemáticas a esta pregunta y las ramificaciones de eso merecen otro artículo. Pero ya es posible afirmar que conectar cosas a personas es la mayor y más impactante ruptura de la industria del software a lo largo de su historia…

¿Alguien tiene una idea de cuál será la siguiente?

Laércio Cosentino, CEO de TOTVS

 

Samsung Electronics adquiere Harman por 8 mil millones de dólares

 Samsung Electronics ha realizado el anuncio de una nueva compra, Harman International Industries se une a las filas de la coreana por 8 mil millones de dólares aproximadamente.

Esta transacción dará inmediatamente a Samsung una presencia significativa en el mercado y un rápido crecimiento para las tecnologías interconectadas y particularmente la electrónica automotriz, que ha sido una prioridad estratégica para Samsung y se espera que crezca más de 100 mil millones de dólares en el 2025.

Harman es el líder del mercado en soluciones de conectividad en automóviles, con más de 30 millones de vehículos equipados actualmente con sus sistemas de audio y conectividad. Aproximadamente, el 65% de las ventas reportadas de Harman son por 7.0 mil millones de dólares durante los 12 meses terminados el 30 de septiembre de 2016, y están relacionados con automotriz y la cartera de pedidos para este mercado al 30 de junio de 2016 que fue de aproximadamente 24 mil millones de dólares.

“Harman complementa perfectamente a Samsung en términos de tecnologías, productos y soluciones, y unir fuerzas es una extensión natural de la estrategia automotriz que llevamos persiguiendo durante algún tiempo”, dijo Oh-Hyun Kwon, Vicepresidente y Director Ejecutivo de Samsung Electronics.

Por su parte, Dinesh Paliwal, Presidente y CEO de Harman, declaró: “Esta transacción ofrecerá un valor significativo e inmediato a nuestros accionistas y abrirá nuevas oportunidades a nuestros empleados como parte de una compañía más grande y diversificada. El anuncio de hoy es un testimonio de lo que hemos logrado y del valor que hemos creado para los accionistas. Samsung es un socio ideal para Harman y esta unión proporcionará enormes beneficios a nuestros clientes automotrices y consumidores de todo el mundo. La combinación de Samsung en soluciones de visualización, conectividad y procesamiento de vanguardia, con el liderazgo tecnológico de Harman y las relaciones con los clientes permitirá a los OEM ofrecer nuevas ofertas a sus clientes.

Beneficios para el cliente y oportunidades de crecimiento significativo

Samsung espera que la combinación ofrezca oportunidades de crecimiento y beneficios significativos a los clientes mediante el aprovechamiento de las tecnologías complementarias de Samsung y Harman, lo que resultará en un mayor incremento en la penetración del mercado.

  • Automotriz: Combina el liderazgo de Harman en nuevas tecnologías de conectividad en automóviles, incluyendo sus principales posiciones en infotainment, seguridad cibernética, actualizaciones por aire y telemática, junto con la experiencia de Samsung en tecnologías de conectividad, incluyendo 5G, UX / UI, tecnología de pantalla y soluciones de seguridad, mejorarán los negocios de servicios automotrices para impulsar mayores ventas y proporcionar beneficios significativos a medida que los fabricantes de automóviles aceleran la adopción de la conectividad en los vehículos de próxima generación.
  • Audio: Las marcas líderes de Harman y los sistemas de audio de vanguardia incluyen JBL, Harman Kardon, Mark Levinson, AKG, Lexicon, Infinity y Revel. La compañía también licencia las marcas Bowers & Wilkins y Bang & Olufsen para automóviles. Todas estas marcas mejorarán en gran medida la competitividad de los productos móviles, de pantalla, de realidad virtual de Samsung para ofrecer una experiencia audiovisual completamente diferenciada e innovadora para los clientes
  • Profesional: También ampliará la plataforma business to business de la compañía a través de la capacidad de ofrecer soluciones profesionales integradas de audio y video a gran escala como en estadios, salas de conciertos y otros centros de entretenimiento como The John F. Kennedy Center for The Performing Arts y The STAPLES Center.
  • Servicios conectados: Samsung tendrá acceso a los 8,000 diseñadores e ingenieros de software que cuenta Harman especializados en el mercado de IoT. Esta colaboración brindará la próxima generación de experiencias de consumidores y empresas basadas en la nube, así como servicios para el mercado automotriz a través de la tendencia de diseño, datos y dispositivos.

 

N. de P. Harman

 

 

Informatica ofrece integración de datos en cloud y on premise

El Cloud Computing es una herramienta que ha logrado consolidarse en el mercado a nivel mundial, sin importar el tamaño de las empresas o su vertical, teniendo año con año un crecimiento acelerado, impulsado por otras tendencias como la movilidad, el internet de las cosas y cloud.

Según el último estudio de Cisco con IDC, el uso de nube aumentó un 49% en el último año en América Latina, encabezado por Brasil y México, siendo considerado mercados claves, sin embargo, solo el 31% de las organizaciones aprovecha su máximo potencial, especialmente en los datos.

Tal vez le interese: Crece la adopción cloud en Latinoamérica, aunque aún no es bien aprovechada

“Una de las razones por las que las compañías adaptan la nube es la accesibilidad, tener su información desde la palma de su mano con un celular, permitiendo tomar análisis de tus datos y pudiendo tomar decisiones en tiempo real, gracias a que están montados en la nube. Estos beneficios son los que las compañías están viendo, acelerando la adopción”, comentó Rodrigo Velasco, Director de Desarrollo de Negocios de Informatica LLC en entrevista para Computerworld México.

Pensando en estas nuevas necesidades para el aprovechamiento de la información en un sistema de nube, Informatica LLC lanzó su suite Informatica Cloud Services que concede una integración de datos que combine cloud y on premise, permitiendo la programación automatizada de trabajos, así como la secuenciación de flujo de tareas de diversas cargas para facilitar la integración de su aplicación SaaS en el ecosistema de aplicaciones empresariales.

rodrigo-velasco-informatica-llc
Rodrigo Velasco, Director de Desarrollo de Negocios de Informatica LLC.

Las soluciones de Informatica suelen requerir de mucha infraestructura para su correcto performance, es por ello que la compañía optó por ofrecer estos servicios también montados en cloud, a fin de poder facilitar la accesibilidad de los desarrollos y la información, contando a su vez con la integración de tecnologías que son nativas de nube, como Salesforce, que también requieren que se comuniquen con lo que se encuentra on premise.

“Ahí es donde Informática juega un papel diferencial porque la adopción de estas estrategias en América Latina no va tan rápido como en otras regiones, optando por un ambiente híbrido, facilitando la interacción de datos entre nube y local”, agregó Velasco.

Actualmente Informatica Cloud Services ya está siendo implementado en grandes compañías mexicanas como Comex y Grupo Modelo, que están trabajando con Salesforce para poder integrar los datos en cloud y on premise.

“La ventaja que Informatica ofrece es que puede escoger sus reglas de negocio para cualquiera de las plataformas, que dependiendo de cómo la organización vaya avanzando puede ir adaptándola, permitiendo ir madurando y evolucionando confirme las tecnologías emergentes del mercado”, finalizó Velasco.

 

Karina Rodríguez, Computerworld México.

Cuatro claves para emprender sin inversión

Una de las principales preocupaciones de todo emprendedor al momento de iniciar un proyecto es contar con un monto de inversión inicial, sin embargo, muchas de las startups más exitosas de Latinoamérica han logrado conquistar el mercado con solo un capital mínimo.

La startup Alegra, con una estrategia ha logrado alcanzar a 50 mil usuarios sin inversión, y a continuación nos brindan tips importantes para que puedas lograrlo con tu emprendimiento en América Latina:

  1. Prueba, mejora y después escala

Una de las ventajas que nos ofrece Internet es poder lanzar, probar y escalar un producto con una inversión cercana a cero. Por ello, es recomendable utilizar el método Lean StartUp que consiste en tener un producto mínimo viable (MVP) que nos permita probar que existe un interés en el mercado, identificar los errores y replantear. Lo bueno de este método es que permite liberar versiones mejoradas de un producto continuamente mientras probamos la aceptación del usuario.  Esto genera un mejoramiento continuo y alineado con el usuario, además sin inversión en recursos ni tiempo de desarrollo.

  1. Sigue estas reglas para tu modelo de negocio

Para que un negocio sea viable es importante que cumpla con al menos 2 de estas características:

-Escalable, es decir, que pueda crecer rápido en cantidad de clientes en un proceso corto, y tenga la capacidad de atender a un volumen de usuarios que puede multiplicarse en un mes.

-Replicable, se refiere a la capacidad de implementar el producto de manera rápida y sencilla en nuevos mercados, por ejemplo, empezar en un nuevo país con ajustes mínimos al modelo inicial.

-Recurrente, es que el cobro por el servicio / producto se de en un período de tiempo regular, de manera automática y sin intervención directa del cliente, así te asegura una venta mínima periódica.

En esta etapa la monetización no es una urgencia, ya que es posible que esta vaya cambiando a medida que se evoluciona y se conoce más el negocio. La mayoría de los negocios terminan monetizando por un servicio diferente al inicial, pero si el negocio está orientado al usuario y se ajusta rápidamente, la monetización llegará en corto plazo.

  1. Identifica las necesidades en nuevos mercados como oportunidades de expansión

Si tu producto está validado y cumple con las características anteriores, puedes empezar a escalar hacia nuevos mercados. Con el poder del internet el crecimiento se dará de manera orgánica y sin depender de una gran inversión.

América Latina es un mercado con pocas soluciones locales para problemas específicos, tanto para personas, empresas, y gobierno. Entonces identifica estos problemas y oportunidades para implementar tu negocio, y concéntrate en desarrollar una buena solución para un problema poco atendido. Esto te permitirá crecer rápido sin muchos recursos a diferencia de lo que sucede en mercados más maduros.

     4. Aprovecha el conocimiento disponible en Internet

Con Internet bien utilizado tendrás muchas oportunidades de competir como un grande con presupuestos de pequeño. Para esto, es importante hacer la tarea y estudiar sobre las herramientas necesarias y los casos de éxito. Una de las ventajas hoy en día es que este conocimiento está disponible en la web y de manera gratuita.

Como conclusión, es fundamental dominar una herramienta como Adwords para marcar la diferencia en la sobrevivencia de un emprendimiento, y su costo es mínimo.  Esto rompe el paradigma de que se necesitan grandes presupuestos para capacitarse y crecer.

Redacción

Una buena infraestructura debe soportar las operaciones del Buen Fin

Desde principios de noviembre, cientos de miles de mexicanos comienzan a hacer planes al visitar alguna tienda departamental o de autoservicio, dedican parte de su tiempo a ver equipos de audio y video, electrodomésticos y línea blanca, otros echan un vistazo a los muebles y analizan qué futura compra es más necesaria o gratificante. La razón es simple, se acerca el Buen Fin.

La iniciativa, promovida por el sector privado en conjunto con el gobierno federal e instituida en 2011, tiene como objetivo reactivar la economía a través del consumo. El Buen Fin, se realiza durante el fin de semana largo (de viernes a lunes) con motivo del aniversario de la revolución mexicana; periodo durante el cual miles de empresas ofrecen atractivas promociones. El resultado de este programa ha sido palpable y con un significativo aumento en las ventas de las compañías participantes. Para la primera edición del Buen Fin (2011), se registró una derrama económica de 106 mil millones de pesos, en tanto que para la segunda edición (2012) las ventas aumentaron 41%, alcanzando 148,000 millones de pesos. El crecimiento en las ventas del Buen Fin ha sido constante y para 2015 alcanzaban ya la cifra de $217 mil 432 millones de pesos.

Los retos de El Buen Fin

Aunque tradicionalmente se suele analizar desde el lado económico o mercadológico, el Buen Fin además representa importantes retos desde el punto de vista tecnológico. Quien haya aprovechado esta campaña realizando compras en algún punto de venta, ha sido testigo de la enorme afluencia de consumidores, comparable sólo con la temporada navideña, pero concentrada en cuatro días.

El éxito de cualquier negocio depende directamente de la satisfacción del cliente y la infraestructura de TI juega un papel fundamental en el éxito del Buen Fin.

Algunos de los retos que las redes de las empresas sortearán durante ese fin de semana, serán: Decenas de miles de terminales punto de venta operando de forma simultánea, reportando las transacciones que deberán ser registradas por los sistemas de administración e inventarios en los centros de datos de las empresas participantes; miles de solicitudes a las aplicaciones de facturación basadas en la nube; y millones de conexiones simultáneas a las plataformas de venta online.

Durante la edición 2015, 49% de los consumidores pagaron compras utilizando tarjeta de crédito bancaria o de tienda comercial, por ello las entidades financieras que respaldan las operaciones realizadas con medios de pago electrónico, deben mantener el más alto nivel de disponibilidad y seguridad para garantizar que la experiencia del cliente sea óptima.

El Buen Fin y el comercio electrónico

Aunque se estima que la mayor parte de los consumidores (93%), prefieren acudir personalmente a realizar sus compras del Buen Fin, existen tiendas con operación 100% Web, las cuales dependen completamente de su infraestructura tecnológica para la continuidad de su negocio. A diferencia de los comercios tradicionales, las tiendas electrónicas no cuentan con un horario establecido de atención, por lo tanto, tampoco existen periodos de inactividad durante los cuales se puedan realizar labores de mantenimiento, ya que su operación es 24/7 y deben, además, de contar con soluciones que garanticen la seguridad de las transacciones, la confidencialidad de los datos del cliente, así como, una adecuada logística en el manejo de existencias y envíos.

Por otra parte, para las tiendas virtuales el Buen Fin representa un aumento en sus ventas de 80%5, por lo cual, es indispensable contar con una infraestructura de redes confiable, escalable, segura y capaz de soportar el notable incremento de tráfico durante los días de promoción, ya que una “caída” podría ser catastrófica.

Privalia muestra su forma de operar en web

Un ejemplo de cómo una adecuada infraestructura de redes es indispensable para garantizar la continuidad, es Privalia, fundada en 2007 en Barcelona. Una de las tiendas electrónicas de mayor crecimiento en países de habla hispana, llegando incluso a mercados europeos, tales como Italia y Alemania, la cual ofrece ropa, accesorios, gadgets y productos para el hogar de marcas reconocidas a precios de outlet.

Su exitoso modelo ventas y rápido crecimiento hicieron que fuera necesaria una actualización en su infraestructura, al ser capaz de soportar el acceso a su sistema de cientos de miles de clientes simultáneamente, con una demanda de hasta tres veces más.

Privalia eligió la tecnología de Juniper Networks para sustentar sus operaciones gracias a su interoperabilidad con soluciones de otros fabricantes, esta actualización le ha permitido aumentar la escala de su infraestructura de e-commerce para ajustarse a la creciente demanda de sus clientes, ya que lo más importante para su negocio es que los internautas mantengan una excelente experiencia y siempre tengan disponible la plataforma Web y de comercio electrónico.

La migración de la red a la nueva plataforma de Juniper Networks, fue completamente transparente para sus clientes, ya que el tiempo fuera nunca fue superior a unos pocos segundos durante la totalidad del proyecto.

N. de P. Juniper Networks

¿Qué es la tecnología inalámbrica 802.11ad?

A continuación, le explicamos la tecnología inalámbrica 802.11ad, la cual ha comenzado a revolucionar el mercado.

Seguramente reconoce estos protocolos, 802.11ac, 802.11ac wave 2, 802.11omg,  ¿podríamos quizás conseguir nombres diferentes para esto?, entre tantos protocolos vamos a ponernos de acuerdo.

Bueno, ahora comenzamos con la explicación de 802.11ad es, efectivamente, un nuevo estándar inalámbrico que usa el espectro de 60GHz en vez de los de 5GHz y 2.4GHz utilizados por la mayoría de conexiones de Wi‐Fi hoy en día. Cuenta con una velocidad máxima teórica de 7Gbps vs 3.2Gbps para el 802.11ac Wave 2.

Entonces, ¿tiene más gigahertz? ¿Por qué eso es algo que me debería importar?

Aquí está el tema con los gigahertz ‐mientras más de ellos tenga … al diablo con esto, que no lo estoy explicando de una manera simplificada. La frecuencia más alta de 802.11ad significa, simplemente, que sus señales pueden cargar más información, lo que significa, a su vez, un mejor rendimiento, pero también que no se propagan tan bien como las frecuencias más bajas, dando un alcance efectivo más corto.

¿Es básicamente un súper Wi‐Fi de corto rango?

En términos generales, sí ‐en teoría puede manejar velocidades de múltiples gigabits sin hacer mucho esfuerzo y, como probablemente ya sabe, el mundo es un lugar hambriento de ancho de banda. Pero, tal vez no ‐su corto alcance funcional hace que sea problemático como un reemplazo directo del Wi‐Fi existente.

802-11

¿Cómo comprometerse?

Mire, es complicado, ¿está bien?Algunos expertos piensan que, realmente, no vamos a necesitar que nuestro Wi‐ Fi sea tan rápido como el 802.11ad cuando el resto de la red tiene un largo camino por recorrer para estar a la altura. Por supuesto, puede haber algunas implementaciones con alta densidad que podrían beneficiarse de la tecnología 802.11ad, pero parece más probable que será, principalmente, una tecnología backhaul, la que actúe como un reemplazo inalámbrico de otras partes de la red troncal. Eso es potencialmente grande y bueno, dejarlo hacer cosas, como aprovisionar de forma inalámbrica los puntos de acceso.

¿En dónde se adquiere?

En este punto, parece que el único punto de acceso de 802.11ad en venta es el de TP‐Link, y tampoco hay tantos puntos finales que puedan hacer uso de esta tecnología, igual. Lo más pronto que va a querer preocuparse sobre esto es, probablemente, en la segunda mitad del próximo año, si es que trabaja para un departamento de TI de un tamaño decente. Los lugares más pequeños con demandas específicas para un ancho de banda grande y puntos de acceso de corto alcance deberían ser las primeras en enfrentarse con el 802.11ad. Probablemente también veremos más fabricantes de equipos originales salir con puntos de acceso ad‐equipped y más puntos finales con la tecnología, en el curso del 2017.

Jon Gold, NetworkWorld

Administradores de contraseñas, esenciales para proteger información personal

Actualmente, los usuarios online tienen distintas contraseñas para sitios específicos, como llaves para abrir diferentes puertas. En promedio, cada usuario tiene al menos 19 contraseñas que necesita recordar, algunas de las cuáles las utilizan diariamente y otras con menor frecuencia. Por ejemplo: para cajeros automáticos y tarjetas de crédito, cuentas de correo electrónico, redes sociales, foros de discusión, para la PC de la oficina y una para la PC de casa, smartphones y/o tablets, Dropbox, iTunes, Banca online, PayPal y la lista continua.

Además, en ocasiones, los usuarios están obligados a cambiarlas después de un periodo de tiempo. Un ejemplo de esto sería la PC que se utiliza en el entorno laboral. La política del departamento de TI dicta cambios de contraseña regulares. Cuando un servicio o una cuenta no se utiliza durante un período prolongado de tiempo, es posible que se olvide la contraseña por completo – y cuando se crea una nueva, nos encontramos con un mensaje de error que nos indica que la nueva contraseña no es lo suficientemente segura: o bien es demasiada corta, no lo suficientemente compleja, no contiene suficientes caracteres especiales o es demasiado similar a la antigua contraseña.

Por esta razón, los consumidores tratan de facilitar estas situaciones: la misma contraseña se utiliza para la mayoría de los sitios online en los que está registrado. Lo que parece inteligente y eficiente es, de hecho, todo lo contrario. Esta práctica compromete en gran medida la seguridad. Los expertos en seguridad tienen buenas razones para advertir de esta reutilización de contraseñas: los ciberdelincuentes pueden descifrar una contraseña y enseguida dar paso a tener acceso directo a toda la información de los usuarios. Esto es muy similar a la pérdida de una llave maestra que abre la mayoría, o si no es que todas las puertas en un edificio.

Las contraseñas débiles son un problema en todas las áreas. Como consecuencia de la violación de los datos de LinkedIn, se evaluaron todas las contraseñas y resultó que la contraseña “123456” se utilizó más de 763.000 veces. En segundo lugar, muy por detrás de esto, viene la contraseña ‘LinkedIn’, con 170.000 casos.

Los proveedores de servicios en línea deben asegurarse que las contraseñas no puedan ser robadas por un atacante. Si un servicio se asegura de forma inadecuada, una contraseña segura es de poca utilidad.

 

Ante este panorama, G DATA ofrece cuatro consejos para mejorar la seguridad de tus cuentas online:

  • Puedes consultar los sitios web como: leakedsource.com o www.haveibeenpwned.com  y buscar tu dirección de correo electrónico o nombre de usuario. Si aparece un resultado: no entres en pánico; esto no significa que tu cuenta ha sido hackeada. Simplemente cambia la contraseña inmediatamente o elimina la cuenta en caso de que no la estés utilizando.

 

  • Instala un administrador de contraseñas. Este administrador genera una contraseña lo suficientemente fuerte para cumplir todas las directrices de complejidad, una de sus características principales es que no es necesario recordar esta contraseña, ya que el programa las guarda automáticamente. En su última versión de TotalProtection, G DATA ofrece un administrador de contraseñas que al instalarlo aparecerá en tu navegador como un icono, este programa almacenará todos los datos de acceso de sitios web que utilizas para acceder a cuentas protegidas por contraseña.

 

  • Revisa tus contraseñas y cámbialas: Tan pronto como descubras que has utilizado la misma contraseña para varias cuentas, es necesario que crees nuevas. Cambiar la contraseña no significa “agregar un número extra”, es necesario tener un patrón diferente de números, letras y signos.

 

  • Utiliza la autenticación de dos factores siempre que sea posible: La opción puede ser llamada de forma diferente: “Verificación en dos pasos” o “Aprobaciones de inicio de sesión”. Plataformas como Facebook, LinkedIn, Dropbox, Google, PayPal lo ofrecen ya como una opción.

 

Redacción.

Potencial de las aplicaciones móviles de gobierno en México

Las aplicaciones móviles que el gobierno mexicano ponen a disposición de los habitantes en municipios y delegaciones, tienden a enfocarse en aspectos como la seguridad pública local, la comunicación con los ayuntamientos, la información turística y la atención ciudadana.

Esto significa que las tecnologías y los dispositivos móviles juegan un papel importante en la calidad de la atención que los gobiernos locales proporcionan a la ciudadanía. De ahí que el desarrollo de métricas acerca de la efectividad y adopción de las aplicaciones sea un componente relevante para evaluar la relación entre gobiernos y gobernados.

Según The Social Intelligence Unit, basado en una muestra conformada por 48 aplicaciones (67 registros) 1 emitidas por  gobiernos de municipios y delegaciones demuestra que en Puebla, Mazatlán, San Luis Potosí, Mérida, León y Guadalajara se concentra el 34% de las mismas.

grafica-distribucion-de-apps-gobierno-movil

Estas aplicaciones mostraron avances importantes en indicadores relacionados con su mantenimiento, confiabilidad y difusión, haciéndolas más atractivas para el público usuario.

Por una parte, se redujo el tiempo transcurrido desde su última actualización, ya que en 2015 fue 325 días, mientras que este año cerró en 204 días, lo que las vuelve menos susceptibles a fallas ante las frecuentes actualizaciones de los sistemas operativos móviles.

A su vez, 6 de cada 10 aplicaciones mostraron que su titularidad en las tiendas de descarga se encontraba asociada con alguna instancia gubernamental (en 2015 fue 3 de cada 10), generando mayor confianza entre los usuarios para su adopción.

Finalmente, los gobiernos municipales y gubernamentales se encuentran utilizando de manera más intensiva las redes sociales y las páginas web como medios de difusión de sus aplicaciones. Este año, 48% de las aplicaciones fue anunciado en páginas web oficiales, 38% en Twitter y 42% en Facebook. En 2015, estos indicadores fueron 32%, 25% y 25% respectivamente.

Demanda

Como resultado de la mejora en la calidad de la oferta de aplicaciones públicas a nivel municipal, la adopción se incrementó en 168%, pasando de un número de descargas equivalente a 1,187 en promedio en 2015 a 3,182 en 2016.

A su vez, la satisfacción promedio por aplicación en tiendas de descarga resultó en 4.1 estrellas de 5 posibles, mientras que en 2015 fue de 2, lo que representa un avance de más del doble en este rubro.

Potencial del m-Gobierno

De las 86 delegaciones y municipios más poblados del país que fueron analizados este año y  que concentran el 47% de la población total, sólo en 36 ciudades se logró obtener información sobre aplicaciones móviles emitidas por instancias públicas locales.

grafica-proporcion-por-ciudades

Estas 36 ciudades concentran 23% de la población mexicana, lo que significa que, de contar con una penetración plena de Internet y dispositivos móviles, el potencial de atención ciudadana con herramientas de gobierno móvil a nivel municipal podría extenderse a un total 28 millones de personas.

Las métricas aquí descritas muestran una mejora importante en cuanto a la adopción y calidad de las aplicaciones que ofrecen los gobiernos municipales y delegacionales, así como la escalabilidad de sus beneficios. Sin embargo, también confiesan tareas pendientes en dos aspectos específicos, uno es el aprovechamiento de medios digitales para su difusión y, el otro, consiste en  asociarlas con instancias oficiales en las tiendas de descarga para impulsar su descarga y posterior uso.

Por: Estefanía Capdeville, The Social Intelligence Unit S.C.

Google mejora el aprendizaje en la nube con nuevos servicios

En la industria, existe una clara competición entre los proveedores de nube pública para ofrecer a las empresas las mejores capacidades de aprendizaje automático. Las empresas están cada vez más interesadas en crear aplicaciones inteligentes, y empresas como Amazon, Microsoft y Google se apresuran a ayudar a satisfacer estas necesidades.

Google en el último lanzamiento realizado el martes, destacó un conjunto de mejoras a su suite existente de capacidades de aprendizaje en la máquina en la nube. La primera fue una nueva Jobs API, destinado a ayudar a los candidatos de empleo con las aperturas adecuadas. Además, la compañía está recortando los precios de su API en Cloud Vision y lanzando una versión mejorada de su API de traducción.

Estos movimientos son pasos importantes para la compañía, ya que sigue compitiendo con Microsoft, Amazon, IBM y otros proveedores. Uno de los principales beneficios de la nube pública es que las empresas tienen un acceso relativamente barato y fácil a cantidades masivas de potencia informática necesaria para las tareas de aprendizaje de la máquina.

Cloud Jobs API

La nueva API de Google Cloud Jobs ofrece a las empresas una herramienta para ayudarles a combinar los mejores candidatos con los puestos de trabajo adecuados, en función de las habilidades que cada persona puede aportar. La API está diseñada para trabajar con el sistema de búsqueda de empleo de una empresa. Los usuarios conectan sus habilidades, experiencia y ubicación, luego la API toma esa información para que coincida con los trabajos que cree que les conviene. Está diseñado para ayudar a lidiar con la confusión que surge cuando la gente trata de igualarse a un conjunto no estandarizado de títulos y descripciones de puestos de trabajo. En este momento, la API está disponible para clientes en los Estados Unidos y Canadá, con FedEx, CareerBuilder y Dice.

Recorte de los precios de Cloud Vision

Google está recortando los precios en uno de sus servicios en la nube: La API de Google Cloud Vision ahora cuesta un 80% menos. Eso significa que es más fácil para ellos crear aplicaciones que puedan reconocer el contenido de las imágenes sin necesidad de construir los algoritmos de aprendizaje de la máquina detrás de esa funcionalidad.

Cloud Translation Premium

Google también está lanzando un nuevo servicio Premium de la API de Cloud Translation diseñado para proporcionar velocidad y precisión de traducción adicional a las empresas que lo necesiten, más allá de lo que Google ya proporciona con sus API existentes. Craft dijo que tiene sentido que Google ofrezca el nuevo servicio premium a las empresas primero, antes de ponerlo a disposición de una base de consumidores más amplia.

Además, la firma señala que los clientes empresariales estaban clamando por características adicionales como la capacidad de entrenar modelos de traducción con diccionarios personalizados. Para las empresas que buscan hacer traducciones de tipos de documentos concretos como acuerdos legales o documentos financieros, dar a los modelos de traducción un diccionario de términos especializados con el que trabajar es importante para obtener la máxima precisión. La compañía no está haciendo los precios para el nuevo servicio público todavía, pero costará más que el servicio de Cloud Translation existente.

API de Cloud Natural Language

Se utiliza para analizar las sentencias escritas por humanos. Ese lanzamiento viene con algunas características adicionales, como la capacidad de determinar el sentimiento del texto sobre una base de frase por frase, en lugar de generar una puntuación de sentimiento para el contenido de un documento completo.

GPU llegan a la nube de Google

Aunque las CPU tradicionales todavía tienen un papel importante que desempeñar en la computación, las unidades de procesamiento gráfico son mejores para ejecutar ciertos tipos de cargas de trabajo de alto rendimiento, incluidas algunas aplicaciones de aprendizaje automático. Por esa razón, Google traerá GPU a su infraestructura de nube y administrará ofertas de aprendizaje de máquinas el próximo año.

gpu-google-cloud

Todo esto viene a medida que Google continúa expandiendo su plataforma en la nube. Urs Hölzle, vicepresidente senior de Infraestructura Técnica de la compañía, dijo durante un evento de prensa el mes pasado que Google planea abrir una nueva región cloud aproximadamente una vez al mes a partir del próximo año.

Redacción

 

Microsoft avanza en su plan de democratizar la inteligencia artificial

Gracias al poder del cómputo en la nube, aunado de algoritmos avanzados y la disponibilidad de cantidad masiva de datos, el campo de la inteligencia artificial (IA) ha explotado permitiendo a los científicos computacionales crear tecnología que muchos de nosotros sólo habríamos soñado en el pasado.

Con el uso del aprendizaje profundo, las computadoras de la actualidad pueden reconocer las palabras en una conversación casi tan bien como una persona lo hace y brindar traducción en tiempo real. Gracias a los avances en campos como el reforzamiento del aprendizaje, hemos alcanzado un progreso tangible en el esfuerzo de construir sistemas que tienen verdadera inteligencia artificial.

Microsoft cree que todos merecen ser capaces de aprovechar esos avances, tanto en su trabajo como en su vida personal, por ello el interés de remarcar su compromiso para democratizar la IA y hacerla accesible para todos.

Tal vez le interese: Queremos llevar la Inteligencia Artificial para todos: Satya Nadella

Es por ello que Microsoft anunció una nueva asociación con OpenAI, una organización de investigación en IA sin fines de lucro co-fundada por Elon Musk, Sam Altman, Greg Brockman e Ilya Sutskever, que se enfoca en realizar contribuciones significativas para avanzar en este campo, a la vez que se promueve la meta compartida de utilizar la Inteligencia Artificial para enfrentar algunos de los problemas más desafiantes del mundo.

OpenAI eligió a Microsoft Azure como su plataforma de nube primaria, para ayudar a avanzar su investigación y crear nuevas herramientas y tecnologías que sólo son posibles en la nube. OpenAI eligió a Microsoft debido a nuestra profunda investigación en aprendizaje y nuestro compromiso continuo con la IA, junto con el soporte de Azure para tecnologías de código abierto y su combinación de cómputo de alto desempeño, big data y capacidades de inteligencia como Azure Batch, Azure Machine Learning y Microsoft Cognitive Toolkit (antes conocido como CNTK).

OpenAI es un pionero en adopción de Azure N-Series Virtual Machines, que estarán disponibles a nivel general a partir de diciembre de este año. Estas máquinas virtuales están diseñadas para las cargas de trabajo de cómputo más intensivas, incluyendo aprendizaje profundo, simulaciones, procesamiento y el entrenamiento de redes neurales. Estas máquinas virtuales también habilitan capacidades de visualización de alto nivel para permitir a las estaciones de trabajo y transmisión, escenarios con la utilización de NVIDIA GRID en Azure.

Junto con OpenAI, otras empresas como Esri y Jellyfish Pictures ya utilizan Azure N-Series. Esri utiliza las capacidades de GPU de N-Series para dar poder a su software de mapeo, y el estudio de efectos visuales Jellyfish Pictures los utiliza para procesar efectos visuales con realismo fotográfico y animaciones a gran escala.

Conforme las necesidades de cómputo de los clientes de Microsoft no dejan de acelerar, la compañía trabaja en una cercana asociación con socios como NVIDIA para satisfacer esas necesidades.

El día de ayer anunciaban que el Microsoft Cognitive Toolkit ha sido optimizado para correr sobre Azure N-Series Virtual Machines impulsado por GPU NVIDIA Tesla, y trabajamos en conjunto para entregar la siguiente generación de innovación en hardware, GPU basados en Pascal sobre Azure, en un futuro cercano.

También se presentó Azure Bot Service, primero en su clase en la industria. Con este nuevo servicio, los desarrolladores pueden acelerar el desarrollo de bots con Microsoft Bot Framework e implementarlos y administrarlos de manera sencilla en un ambiente sin servidor sobre Azure. Estos bots, que corren sobre Azure Functions, pueden escalar bajo demanda y ustedes sólo pagan por los recursos que el bot consume. Azure Functions, que a partir de hoy está disponible a nivel general, puede ser utilizado para maximizar la agilidad y eficiencia operacional del desarrollo de casi cualquier aplicación o servicio a un costo más bajo.

Además, otras de las noticias se basan en otros lanzamientos recientes de Azure diseñados para impulsar los avances en IT. Más de 50 mil desarrolladores ya construyen bots con Microsoft Bot Framework, y empresas como Lowe’s, Uber, DutchCrafters y AllRecipes.com utilizan Cortana Intelligence y Azure para transformar sus negocios.

Microsoft ha logrado avances en inteligencia artificial tan solo en los últimos cinco años, logros que mucha gente que ha dedicado sus vidas al campo no habrían pensado que fueran posibles. Ahora, ofrecen la oportunidad de ayudar a socios y clientes a utilizar estos avances para que consigan sus metas.

 

Por: Harry Shum, Vicepresidente Ejecutivo del Grupo de Investigación e Inteligencia Artificial en Microsoft.