Categoría: Destacado

Hikvision integra Deep Learning en sus cámaras térmicas

Hikvision lanzó al mercado mexicano sus nuevas cámaras térmicas tipo bala con Deep Learning y con capacidades mejoradas para la seguridad perimetral, incluyendo su tecnología de detección de incendios.

La nueva serie de cámaras incorporan algoritmos de Deep Learning y una GPU integrada para dar soporte a futuros algoritmos actualizados.

Con algoritmos de Deep Learning integrados, las cámaras generan análisis más precisos de comportamiento, incluyendo detecciones de cruce de líneas, intrusiones, áreas de entrada y salida.

La función de detección inteligente de humanos o vehículos permite reducir las falsas alarmas causadas por animales, vibraciones de la cámara, caída de hojas u otros objetos irrelevantes, mejorando la exactitud de las alarmas.

Adicionalmente, estas cámaras térmicas tipo bala incorporan un GPU con tecnología de procesamiento de imágenes térmicas brindando resultados mejorados. Este GPU de alto rendimiento permite actualizaciones futuras con algoritmos más complejos y con muestras de datos más grandes para mejorar el desempeño inteligente del Análisis de Contenido de Video (VCA).

Estas nuevas cámaras de Hikvision pueden usarse en soluciones de seguridad para amplios perímetros y en la prevención de incendios, específicamente en aplicaciones industriales como centrales eléctricas, aeropuertos, minas y granjas.

Asimismo, el brazo de un solo tornillo para cámaras está diseñado pensando en los instaladores. Su pequeño tamaño y su diseño sencillo facilitan su montaje y ajuste de posición en paredes, techos o pedestales.

Esta reciente tecnología de Hikvision está disponible con la serie DS-2TD2137, V1. En particular, el sensor de imagen térmico infrarrojo de esta serie es desarrollado y fabricado independientemente por Hikvision.

Nueva falla en Google+ expuso información de 52.5 millones de usuarios

Eset analizó una falla en Google+ que permitía a desarrolladores de aplicaciones de terceros acceder a datos privados del perfil de los usuarios.

El error estaba presente en una actualización que fue introducida el pasado mes de noviembre y que afectaba a la API de Google+ denominada “People:get”. Esta API, diseñada para permitir a los desarrolladores solicitar información básica asociada a la cuenta del usuario, no funcionaba como debía hacerlo y durante seis días dejó expuesta a manos de los desarrolladores información personal de 52.5 millones de usuarios, como nombre, dirección de correo, género, edad, ocupación, entre otros datos más. El bug fue descubierto por ingenieros de Google al realizar pruebas de rutina.

Si bien Google anunció en un comunicado el cierre de la red social Google+ para usuarios finales para agosto de 2019, este nuevo incidente provocó el adelanto de cierre para abril del mismo año.

La decisión del cierre se tomó, entre otras cosas, luego de descubrir a principios de 2018 un problema de seguridad, no divulgado hasta octubre, que expuso los datos de los perfiles de más de 500,000 usuarios. Este bug permitía a desarrolladores de aplicaciones de terceros acceder a datos marcados como privados del perfil del usuario en Google+ almacenados desde 2015, cuando debería haber permitido únicamente la información pública a la que por defecto tienen permiso de acceso las apps de terceros.

Además, esta primer vulnerabilidad no solo permitía a los desarrolladores acceder a información privada de un usuario, sino también la de sus amigos, dejando expuesta la información de más de medio millón de usuarios.

Sin embargo, Google dijo que no tiene evidencia de que alguna de las 438 aplicaciones de terceros que utilizaron la API se hayan aprovechado el bug.

“La filtración de información confidencial de grandes compañías se está tornado en algo común de ver. En ESET apuntamos a que los usuarios sean conscientes del riesgo al que se expone su información por lo que la educación es primer paso para proteger los datos. Esto debe estar acompañado de contar con doble factor de autenticación, así como con contraseñas distintas para los servicios que contienen datos sensibles y soluciones de seguridad instaladas y actualizadas”, concluyó Camilo Gutierrez, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

¿Cómo saber qué tecnología en IA es la idónea para tu negocio?

Cuando una empresa planea implementar una solución de Inteligencia Artificial (IA), primero deberá revisar o, en su defecto, diseñar una estrategia en torno al uso de este recurso, posteriormente se tendrá que confirmar el enfoque de implementación y, finalmente, decidir qué mecanismos adoptar.

Antes de poner una estrategia de IA en marcha, debe de responder a preguntas como: ¿qué planea lograr implementando la IA dentro de su organización y qué valor de negocio va a entregar? El siguiente paso sería trabajar en un enfoque para implementarla. ¿Cuál será el punto de entrada de esta tecnología? ¿Comprará una solución comercial, una herramienta o servicio que le ayudará a construirla u optará por construir una que esté personalizada desde cero? Basado en cuál es su enfoque, se deberá decidir entonces sobre una pila de soluciones que se analizarán a continuación.

Apps especializadas en IA

Si se desea implementar una solución de Inteligencia Artificial sin demasiado esfuerzo, a un costo razonable y con un riesgo menor, la mejor opción podría residir en las soluciones de IA comercial (COTS, por sus siglas en inglés). Existen varias compañías de software que fabrican estas soluciones, desde grandes como Oracle Adaptive Intelligence y Salesforce Einstein, hasta startups. En realidad, depende mucho de su estrategia de Inteligencia Artificial, los casos de uso más sencillo como las predicciones de ventas o las recomendaciones de productos sobre datos de clientes existentes pueden resolverse fácilmente con un software comercial.

Estas soluciones se encuentran normalmente en la nube y su implementación está orientada principalmente a la configuración, por lo que se puede lograr un tiempo de lanzamiento al mercado más rápido con un menor costo total de propiedad (TCO).

El principal inconveniente es la limitación a la personalización, los casos de uso más genéricos mencionados anteriormente pueden resolverse de manera fácil con los modelos predefinidos. Pueden ser entrenados en datos existentes con poca o ninguna preparación y podrían muy bien servir a su propósito. Sin embargo, los casos de uso altamente especializados como, por ejemplo, la detección de cáncer basada en el análisis profundo de imágenes de rayos X, definitivamente estarán fuera del alcance.

Por otro lado, las habilidades necesarias para implementar tales soluciones son más fáciles de encontrar y definitivamente mucho más baratas que las de los ingenieros de aprendizaje de máquinas. Yo diría que alguien con cualquier conocimiento o experiencia en inteligencia de negocios lo hará, ya que la curva de aprendizaje también es más corta.

Servicios en IA

Definidos como un conjunto de mecanismos cognitivos que residen en la nube y que, probablemente, sean las opciones más populares, de modo que gigantes de software como IBM Watson en Bluemix, Amazon Machine Learning, Google Cloud Machine Learning y Microsoft Cortana en Azure tienen estos servicios expuestos en sus nubes individuales. Si las empresas no quieren empezar desde cero y tienen un caso de uso que requiere algún nivel de personalización, este es un buen lugar para empezar.

Aunque se trata de construir parcialmente la solución, la ventaja es que las empresas pueden aprovechar la mayor parte de la funcionalidad fundacional de estos servicios. Los chatbots es un caso de uso muy común para los servicios de AI, los flujos de conversación son configurables y pueden ser entrenados en datos existentes con muy poca preparación de estos. Los servicios de IA también admiten casos de uso más avanzados como análisis de texto, imágenes, voz y vídeo, pero con algunas limitaciones.

El uso de chatbots es un caso muy común de servicios de IA, los flujos de conversación son configurables y pueden ser entrenados con base en datos existentes que no necesitarán de una gran preparación.

Los servicios de IA también admiten casos de uso más avanzados como el texto, la imagen, la voz y el análisis de video con ciertas limitaciones. Gracias a este recurso podríamos ser capaces de descifrar cuántas personas hay en una imagen en particular e inclusive profundizar en su estado de ánimo, no obstante, diagnosticar cáncer a partir de una imagen de rayos X aún sería un escenario difícil si quisiéramos hacer uso de elementos de este nivel.

El tiempo de comercialización es bastante rápido, el riesgo es mediano y los costos son razonables. Asimismo, los conjuntos de habilidades requeridos no son demasiado especializados, alguien con experiencia en programación y comprensión básica de conceptos de aprendizaje automático podría manejar estos sistemas sin mayor dificultad.

Frameworks en IA

Si realmente tomas en serio la IA, este es el conjunto de herramientas que necesitas y la mejor noticia de todas, es que son totalmente gratis. En los últimos años se han introducido un conjunto de frameworks de código abierto, altamente sofisticados, desde Google Tensorflow hasta Facebook Torch, Amazon / Apache mxnet, Theano, Café y Keras, etc. El desarrollo de productos de este tipo se caracteriza por formar parte de un sistema operado por Inteligencia Artificial que busca cumplir con una serie de requisitos para el negocio, implica un nivel de funcionalidad sofisticado, dependiendo del giro de la empresa en cuestión, y que no se puede encontrar en las aplicaciones o servicios existentes.

A través de esta modalidad puedes construir un clasificador de análisis de imágenes que rija a partir de frameworks de Inteligencia Artificial con el fin de ser capaces de detectar el cáncer o cualquier otra enfermedad. Hasta el día de hoy, no existe un escenario que no pueda resolverse con un framework de Inteligencia Artificial.

Ante la necesidad de desarrollo de esta innovación, la búsqueda de ingenieros especializados en aprendizaje automático se ha incrementado, no obstante, necesitaremos construir equipos integrados de matemáticos, analistas de datos, lingüistas y desarrolladores de estructuras digitales. El incursionar en el desarrollo de IA no es fácil y los riesgos son definitivamente altos, pero también lo son las recompensas. La incertidumbre de la línea de tiempo y los resultados de la construcción de la solución puede aumentar los riesgos, pero cuando finalmente termines de construir el producto y / servicio de tus sueños, sabrás que el esfuerzo ha valido la pena.

Plataformas en IA

Las plataformas de Inteligencia Artificial son muy importantes, especialmente si optas por construir tu solución desde cero utilizando frameworks de IA. Las aplicaciones y los servicios que conlleva este avance pueden ser traducidas en soluciones basadas en la nube, por lo que no tendremos que preocuparnos por la infraestructura. Pero, ¿dónde diseñaremos y probaremos estas soluciones personalizadas? Ya sea que se adquiera una infraestructura como servidores con GPU o bien se implemente una solución en plataformas de Inteligencia Artificial como Floyd, que es básicamente un Platform as a Service. AWS EC2 sería otra opción para implementar soluciones de Inteligencia Artificial construidas con marcos de código abierto. Google Cloud y Azure sólo son compatibles con las soluciones de IA creadas con frameworks propios, pero sin código abierto. TCO sería mucho más barato que comprar y mantener sus propios servidores habilitados para GPU.

Ya hemos visto que existen diferentes soluciones de IA, que cualquier empresa podría adquirir en función de su estrategia y enfoque de implementación. Si se desea introducir estos mecanismos dentro de su organización, con el propósito de mejorar la productividad o la experiencia del cliente, podría hacerlo utilizando un enfoque de “Compra” a través de una solución en COTS. Por otro lado, si no hace falta construir una solución desde cero pero se necesita de un nivel de personalización más alto que el de las soluciones COTS, los servicios de Inteligencia Artificial podrían ser la mejor opción. Finalmente, si se necesitara construir algo realmente sofisticado, tendrás que ensuciarte las manos y construirlas desde cero usando frameworks de Inteligencia Artificial y desplegarlo en plataformas de IA.

 

Por: Suraj Shinde, director del everis Digital Lab especializado en IA. 

Mitos sobre redes SD-WAN

Las redes SD-WAN se están imponiendo como una de las prioridades para los líderes de sistemas informáticos en el corto-medio plazo, junto con la nube híbrida y la seguridad. La actualización de las redes WAN mediante software es una alternativa de rápido crecimiento, en un momento en que aumenta la demanda de conexiones veloces y consistentes para todo el tráfico de información que se produce —y que seguirá incrementándose—.

Gartner estima que para 2019 tendrá la cuarta parte del mercado, y cifra en 1.300 millones de dólares el volumen que moverán las herramientas de este tipo en 2020.

Sin embargo, hay un alto índice que todavía no domina la tecnología. Esto puede resultar un obstáculo para su implantación efectiva, algo que corroboran desde Talari Networks, la empresa especializada en SD-WAN que ha sido recientemente adquirida por Oracle, al apuntar que la terminología asociada a la tecnología puede resultar confusa para los líderes de sistemas. Esto, dicen, puede contribuir a crear una serie de mitos sobre el SD-WAN: la dicotomía SD-WAN-MPLS, la obligatoriedad del enfoque híbrido, SD-WAN como opción única y la duplicidad respecto a WAN.

Mito 1. En primer lugar, existe la percepción generalizada de que optar por SD-WAN implica reemplazar la conmutación MPLS. En Talari indican que no es así, sino que son opciones que se pueden complementar en una arquitectura híbrida de WAN. Por ejemplo, se puede emplear MPLS en un entorno de red definida por software en aspectos como la relación entre central y oficinas remotas. E incluso en aquellas en las que el SD-WAN acaba por sustituir al MPLS, se suele optar por un despliegue paulatino. En relación a esto, en la compañía propiedad de Oracle destacan que la opción híbrida no es la única a la hora de implementar una red definida por software en una empresa.

Mito 2. Otro de los mitos asociados a SD-WAN es que se trata de una oferta única o, al menos, con diferencias mínimas entre las distintas opciones en el mercado. Pero no es así. Hay una serie de factores que cambian entre los distintos proveedores, como el acceso a la nube o las herramientas para mejorar el rendimiento de las aplicaciones, y que hacen que el mercado de soluciones para redes WAN definidas por software sea variado.

Mito 3. Se puede asumir que la tecnología SD-WAN duplica la funcionalidad de optimización de la WAN. Esto no es del todo correcto. En Talari consideran que la optimización de la WAN ofrece menos valor que SD-WAN, que se puede aplicar a más aplicaciones y flujos, priorizando el tráfico en tiempo real y reduciendo las paradas y los fallos del servicio.

 

María Ramos, IDG.es

La UNAM lanza programa de 8 cursos sobre Inteligencia Artificial

La Universidad Nacional Autónoma de México (UNAM), en colaboración con Coursera, lanzó recientemente el programa especializado Introducción a la Inteligencia Artificial, con el cual buscan abordar la creciente demanda de habilidades de inteligencia artificial entre los profesionales mexicanos.

Actualmente la inteligencia artificial (IA) no solo impacta muchos aspectos de la vida cotidiana -como el entretenimiento, las compras en línea, los bancos y el servicio al cliente, sino que también se está convirtiendo en una habilidad de trabajo deseable.

De acuerdo con IDC, el 30% de las iniciativas de transformación digital en América Latina utilizarán los servicios de inteligencia artificial para 2019.

Además, dicho informe predice que para 2020, el 50% de las aplicaciones empresariales utilizarán esta tecnología. Como resultado, cada vez más compañías están buscando talento con conocimiento y técnicas de inteligencia artificial para llevar la transformación a la realidad. Esta gran demanda de habilidades de IA llevó a la UNAM a desarrollar “Introducción a la Inteligencia Artificial”.

Se trata de un programa diseñado para principiantes, completamente en español, que consta de ocho cursos.

Entre los cursos se encuentran: razonamiento artificial, resolución de problemas por búsqueda, creatividad artificial y cognición encarnada, los cuales equiparán a los alumnos con una amplia comprensión teórica y práctica de diferentes ramas de la inteligencia artificial.

Por ejemplo, como las ciencias cognitivas -psicología, neurofisiología, lingüística y filosofía- pueden ayudarnos a construir sistemas que muestren una inteligencia más sofisticada; de esta manera, al finalizar el programa las personas que lo cursen serán capaces analizar problemas en una variedad de dominios de IA y adquirirán herramientas que podrán aplicar en su entorno profesional.

Respecto a este programa, el Dr. Carlos Gershenson, investigador de la UNAM y profesor de la nueva especialización, señala que, aunque la investigación de IA ha existido en México durante 50 años, el trabajo en este espacio ha sido principalmente académico: “Existe una gran demanda de expertos en IA en el mercado laboral. Por lo anterior, decidimos crear el programa para brindar ventajas profesionales y llenar los vacíos en esta área, pues no hay duda de que cuantos más especialistas en esta tecnología tengamos en México, mayores serán los beneficios que veremos en el país.”

El programa Introducción a la Inteligencia Artificial ya está disponible en Coursera.

Gobierno, pieza clave para la transformación digital de México

Las tecnologías disruptivas que vienen con la transformación digital como la nube, Big Data, plataformas móviles, Inteligencia Artificial e Internet de las Cosas, entre otras, están cambiando las reglas del juego para las empresas, y éste es un hecho afianzado. Pero no son las únicas: las instituciones del sector público también pueden tomar ventaja de la innovación tecnológica en pro de sí mismas y de la relación que sostienen con sus pares en otros países.

La transformación digital permite que los gobiernos agilicen sus operaciones, optimicen servicios ciudadanos y evolucionen, eliminando la corrupción al colaborar de forma más eficiente, lo que facilita a los países emergentes cerrar las brechas que los separan de las economías maduras.

Además, el empuje de la digitalización impulsada por estrategias gubernamentales es clave para que las áreas productivas de cada país logren igualmente transformarse. El hecho de que el gobierno se enfoque en alistarse para esta nueva era es, entonces, un ganar-ganar.

El pasado 1 de diciembre se abrió nuevamente una puerta de oportunidad para el país en este sentido, con el inicio del sexenio 2018 – 2024.

¿Dónde hay que poner la atención? Información del World Economic Forum deja ver que los tres factores con mayores obstáculos para hacer negocios en México en el sexenio 2012 – 2018 fueron la corrupción, crimen e ineficiencia en la burocracia gubernamental. Ésta última quizá podría reducirse o incluso erradicarse con el apoyo de nuevas tecnologías que faciliten, agilicen, aseguren y hagan más eficientes los diferentes procesos del gobierno.

Asimismo, de acuerdo con IDC, el 28% de las barreras del sector público mexicano en 2018 fueron de carácter tecnológico: adopción de nuevas tecnologías, uso de sistemas heredados y falta de sincronización, entre otras. Con el fin de que se mantenga la continuidad y se brinde competitividad estructural en las instituciones, la firma analista destaca la importancia de ver la innovación como factor central para el desarrollo.

Por otro lado, un estudio sobre la transformación digital realizado por Deloitte en donde encuestó a funcionarios gubernamentales de más de 70 países destaca que tres cuartos de los entrevistados mencionaron que las tecnologías digitales están interviniendo en el sector público; sin embargo, temas como presupuestos limitados y costos en inversión de tecnología se convierten en factores principales al momento de la toma de decisión hacia la transformación digital.

No es fortuito que los sectores empresariales estén expectantes de los avances que se puedan dar en el periodo presidencial que acaba de comenzar, dado que una transformación digital basada en una estrategia de protección, cumplimiento a regulaciones, hiper disponibilidad, automatización y manejo inteligente de los datos coloca a los negocios de todo tipo de industrias en posición de competir globalmente, pues son capaces de garantizar un uso ágil y seguro de su información, aplicaciones e infraestructuras, explotando de forma óptima sus recursos para crecer y triunfar.

Por:Abelardo Lara, Country Manager de Veeam en México

Blockchain podría disminuir fraudes fiscales

El avance de la tecnología y el Internet de las cosas ha puesto al alcance de los expertos en ciberseguridad, nuevas maneras de cifrado que pueden traducirse en procesos de transparencia no solo para la industria sino también para los sistemas gubernamentales, siendo uno de ellos el llamado Blockchain o cadena de bloques.

De acuerdo con el Mtro. Mario Dipp Núñez catedrático de la Maestría en Administración de Negocios y director en CETYS Universidad, la tecnología de Blockchain llegó para quedarse e ir más allá de la moneda digital Bitcoin.

El Blockchain puede influir en la manera en la que funciona la economía hoy en día, pues si bien su creación fue para ser la cadena que hizo posible el manejo de los bitcoin; su propuesta de valor radica en la protección de base de datos y los mecanismos de alta seguridad que impactarán en la gestión de los recursos económicos privados y públicos.

“El Blockchain para la economía viene a ser la revolución en la transparencia de datos, cuentas e informes financieros, es decir, al tener expuesto y conocer de dónde viene el recurso económico y cuál fue su destino da la pauta a la disminución de pérdida de dinero o desconocimiento del origen de este, pues se involucra en todo momento el uso del Internet”, mencionó el catedrático.

Esto en un país como México toma relevancia, pues el 57% (cerca de 72 millones de habitantes) de su población tiene acceso a Internet, según la Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares (ENDUTIH) 2017 elaborada por INEGI en conjunto a la SCT y el IFT.

El Dr. Juan Terrazas Director del Centro de Innovación y Diseño (CEID) de CETYS Universidad, explicó que la sociedad en la era digital depende de las nuevas tecnologías e Internet para su vida diaria tanto personal como profesional, por lo que la garantía de que la información esté protegida da una ventaja y confianza al consumidor.

“Los nativos digitales y quienes se han sumado a esta tendencia viven en un constante riesgo cibernético, pues se enfrentan a la posible fuga de información, fraude y el robo de identidad. Por lo que consideró necesario conocer estos riesgos y ver en el blockchain, más allá de la economía, una vía de salvaguardar mejor la información” detalló el también académico del Colegio de Ingeniería de CETYS.

¿Cómo funciona el Blockchain?

Nació como la cadena de bloques que respalda la moneda bitcoin, es decir fungiría como un libro de contabilidad, pero alojado en el internet. Sin embargo, es una tecnología que tiene el poder de cambiar la interacción del ser humano con el mundo digital.

Al denominarse cadena de bloques esto se refiere a que los sistemas conectados a él están vinculados entre sí, enviando alertas cuando una de las estaciones recibe nueva información o sufre algún cambio, lo que disminuye la posibilidad de no comprobar la procedencia de ese dato.

“Es interesante la metodología detrás del Blockchain ya que no solo se materializa en sistemas de cómputo, si no también se aloja en la nube un espacio que no puede ser vulnerado dado su alto rango de seguridad en el cifrado” concluyó el Dr. Terrazas.

Las 7 tendencias que transformarán la experiencia del cliente en 2019

En un mundo hiperconectado de acelerados cambios tecnológicos, las empresas se enfrentan a una feroz competencia que las está obligando a someterse rápidamente a profundos cambios y abrazar procesos de transformación digital.

Las expectativas de los clientes se elevan cada día: más que productos y servicios, lo que desean es tener experiencias memorables de uso y de consumo; y se enamoran de las marcas que son capaces de anticiparse a sus deseos -es sabido que un consumidor satisfecho hablará con sus amigos, familiares y conocidos a favor de ella y recomendándola, impactando con ello entre 4 y 6 personas cercanas, en promedio.

Obtener un nuevo cliente es 6 a 7 veces más caro que retener a uno con el que ya se cuenta.

Y debe cuidarse de no defraudarlos, porque recuperar la confianza después de que éste haya tenido 1 mala experiencia puede requerir otorgarle hasta 12 experiencias positivas adicionales.

La pregunta en la mente de los directivos es: ¿cómo hacer frente al enorme reto de brindar la mejor experiencia a todos y cada unode mis clientes?

Actualmente sólo el 23% de las empresas tienen la infraestructura tecnológica que les permite obtener insights en tiempo real sobre los consumidores.

Aunque la pregunta debería ser: ¿cómo uso las enormes cantidades de datos que se generan para incrementar su nivel de satisfacción y generar mayores beneficios para las empresas?

En este contexto, Rodrigo Arias, Customer Intelligence Sales Specialist para SAS América Latina, nos describe lo que el considera serán las 7 tendencias que, durante 2019, modificarán radicalmente el paisaje de Customer Experience en México y la región:

 

1.-  Engagement en tiempo real

Las empresas deben tener la capacidad de reconocer e interactuar con sus clientes a la velocidad y el ritmo que ellos desean. La implementación del Real Time Customer Engagement crecerá considerablemente en 2019, lo que requiere contar con tecnología para lograr una conexión más dinámica. Solo mediante una comprensión más íntima de los hábitos del usuario las empresas podrán reaccionar de la forma correcta y especial ante cada cliente… al instante.

 

2.- Integración digital de los canales

En años recientes, las empresas han realizado grandes inversiones para desarrollar capacidades digitales. En 2019, se espera que den los siguientes pasos hacia la digitalización al diseñar experiencias que conectarán canales digitales con call centers y tiendas/sucursales físicas.

 

3.- Interacciones más inteligentes en medios digitales

Es evidente que la gente se siente hoy más cómoda haciendo transacciones desde un sitio web o una aplicación;de hecho, se estima que para el 2020, 8 de cada 10 transacciones bancarias serán automatizadas y/o que en algún momento implicarán la interacción con sistemas de Inteligencia Artificial (IA) en alguna etapa del proceso.

4.- Optimización del Customer Journey Map

Para lograr dar servicios y atención personalizada a lo largo de todo el proceso de consumo de un producto o servicio, las empresas necesitan tecnología que les otorgue visibilidad sobre el comportamiento de los clientes y analizar en tiempo real estrategias para potencializar la calidad del servicio: la meta para las empresas, será elevar los niveles de satisfacción al mismo tiempo de mejorar su rentabilidad.

 

5.- Crecimiento explosivo del mercado laboral para especialistas de la analítica

Cada vez más organizaciones reconocen el valor de la analítica. En 2019, se prevé que las empresas reclutarán de manera agresiva al actual grupo relativamente pequeño de expertos en analytics disponibles, e invertir en volver a capacitar y reestructurar a algunos empleados internos para cumplir este rol.

 

6.- Resolución de problemas de manera preventiva

Hoy, las empresas buscan formas de resolver los problemas de los clientes antes de que se compliquen aún más. En 2019, las empresas de servicios aplicarán laanalítica predictiva para encontrar casos de uso en los que puedan identificarlos, resolverlos o evitarlos de forma proactiva: tener la solución perfecta para cada inconveniente antes de que se presente.

 

7.- Espacios inteligentes

Se transformará por completo la experiencia de la venta: en 2019, más empresas invertirán en crear entornos que integren tecnologías y tendencias que apoyen labores específicas en la industria o mejoren la experiencia de los usuarios. Por ejemplo, el desarrollo de ciudades inteligentes, espacios de trabajos digitales, fábricas conectadas o puntos de venta completamente digitalizados.

Durante el próximo año, en México y en la región, se presentará un boomen la adquisición de tecnologías analíticas y soluciones que permitan entender en tiempo real los factores que motivan el comportamiento de los consumidores.

Combinar esos datos con sus sistemas existentes de gestión de relaciones con clientes (CRM) ayudará a las compañías a tener una vista realmente completa del negocio y utilizar ese conocimiento para brindar experiencias digitales personalizadas en tiempo real, y tomar siempre las mejores decisiones.

 

Red Hat adquiere NooBaa para ampliar su oferta en Nube Híbrida

Red Hat adquirió NooBaa, un startup que desarrolla software para gestionar servicios de almacenamiento de datos en entornos híbridos y multi-nube. La incorporación de la tecnología de gestión de datos de NooBaa ampliará la actual cartera de productos de nube híbrida de Red Hat.

Según Gartner, “el panorama de la adopción de la nube se compone de nubes y multi-nubes. Para el año 2020, el 75% de las organizaciones habrán implementado un modelo multi-nube o de nube híbrida”. En tanto estos entornos heterogéneos que devienen en el estándar de facto de las cargas de trabajo modernas, pueden dar lugar a la proliferación de distintos silos de datos que aumentan la complejidad al momento de gestionar y escalar aplicaciones nativas de la nube.

NooBaa se fundó en 2013 para atender la necesidad de contar con mayor visibilidad y control de los datos no estructurados dispersos en estos entornos distribuidos.

Para lograrlo la compañía desarrolló una plataforma de datos diseñada para actuar como capa de abstracción por sobre la infraestructura de almacenamiento existente. Esta abstracción no sólo permite la portabilidad de los datos de una nube a la otra sino que permite a los usuarios gestionar datos almacenados en múltiples lugares como un único conjunto de datos coherente con el cual pueda interactuar una aplicación.

“La portabilidad de los datos es un imperativo fundamental para las organizaciones que diseñan e implementan aplicaciones nativas de la nube en nubes privadas y múltiples. Las tecnologías de NooBaa ampliarán nuestra cartera y fortalecerán nuestra capacidad de satisfacer las necesidades del desarrollador en el actual universo de la multi-nube y la nube híbrida”, aseguró Ranga Rangachari, vicepresidente y gerente general, Almacenamiento e Infraestructura Hiperconvergente, Red Hat.

Las tecnologías de NooBaa complementan y enriquecen la cartera de tecnologías de nube híbrida de Red Hat, que incluyen Red Hat OpenShift Container Platform, Red Hat OpenShift Container Storage y Red Hat Ceph Storage.

La combinación de estas tecnologías pretende brindar al usuario un conjunto de capacidades potentes, coherentes y cohesivas para la gestión de aplicaciones y recursos informáticos, de almacenamiento y de datos en todas las infraestructuras públicas y privadas.

Brecha en Marriott afecta a 500 millones de usuarios

Marriot, una de las principales cadenas hoteleras mundiales, fue víctima de un incidente que se produjo en 2014 y representa ya uno de los ataques más importantes de la historia a grandes empresas.

Sin embargo, fueron hasta cuatro años después, que la hotelera descubrió esta brecha de seguridad a través de su filial Starwood. Se calcula que ha afectado a los datos de 500 millones de clientes.

Se trata, sin duda, de uno de los ciberataques más importantes a una gran empresa y se sitúa solo por detrás de la brecha de Yahoo, en 2013.

Entre la información robada se encuentran números de pasaporte y correos electrónicos e incluso números de tarjetas de crédito de quienes fueron sus huéspedes en estos años, aunque la organización ha destacado que los detalles de las tarjetas de pago estaban encriptados.

La compañía, que ha avisado recientemente del suceso (data de 2014) ha caído ya un 5,6% en Wall Street y Nueva York ha comenzado a investigar los hechos. En cualquier caso, Marriott compró Starwood en septiembre de 2016, una vez que el incidente ya estaba presente, por valor de 13.600 millones de dólares.

La hotelera aún no ha dado detalles de si estos datos afectan a todas las cadenas alrededor del mundo o sólo algunos países.

 

IDG.es