Etiqueta: análisis

Dónde podría fallar su estrategia de experiencia digital

Usted puede estar seguro de que su CEO tiene experiencia digital en su radar. Según la encuesta CEO 2017 de Gartner, los CEOs están más enfocados este año en cómo la tecnología y la innovación de productos impulsan el crecimiento de la compañía.

En los últimos años de la encuesta realizada por Gartner, la tecnología nunca había clasificado tan alto en la lista de prioridades de los CEO. La presión está en las TI para ofrecer excelentes experiencias digitales, pero es más fácil decirlo que hacerlo por lo que aquí presentamos cinco razones por las que su estrategia de gestión de experiencia digital podría fallar.

  1. Complejidad de la aplicación

Aunque la encuesta de Gartner muestra que los CEOs están confiando en la tecnología para impulsar el crecimiento, también muestra que clasifican los impedimentos de la tecnología como la restricción interna #2 para el crecimiento. ¿Cómo puede la tecnología ser un motor de crecimiento y un impedimento para él? La complejidad de la aplicación es una razón importante y la gestión del rendimiento de las aplicaciones es más difícil que nunca.

∙       Las aplicaciones deben basarse en la demanda y seguir siendo altamente receptivas 24/7 a través de diferentes latitudes. Las aplicaciones innovadoras interactúan con aplicaciones heredadas, por lo que las TI deben soportar el paquete completo — web, móvil, aplicaciones que se ejecutan en la nube, infraestructura virtual y entornos heredados en la relación cliente-servidor.

∙       Los usuarios finales y los clientes ya no interactúan con aplicaciones estáticas en momentos discretos. Interactúan continuamente con aplicaciones cuyas arquitecturas han evolucionado hasta convertirse en modulares, distribuidas y dinámicas.

  1. La creciente población de usuarios finales

La gestión de la experiencia del usuario final es también más compleja. No importa solamente la experiencia digital de los clientes. La definición de Gartner de Monitoreo de Experiencia Digital también incluye empleados, socios y proveedores. Si esto no fuera un reto suficiente, el advenimiento de IoT requiere que la TI garantice una excelente experiencia digital para las máquinas también.

  1. Diferentes equipos tienen diferentes objetivos

Según un reciente Informe de EMA Digital Experience Management, el 59% de los líderes empresariales coinciden en que las TI y el negocio comparten la responsabilidad de la Gestión de la Experiencia Digital. Aunque comparten la responsabilidad de asegurar una excelente experiencia digital, los grupos dentro de TI y el negocio tienen necesidades específicas que varían mucho, dependiendo de sus funciones.

∙      Los ejecutivos de negocios deben asegurarse de que cumplan con los objetivos de ingresos, satisfacción del cliente y productividad de la fuerza de trabajo.

∙      Los ejecutivos de TI necesitan formar a sus equipos de manera eficiente para diseñar y apoyar las iniciativas empresariales digitales, asegurar que las inversiones tecnológicas se hagan apropiadamente y responsabilizar a los proveedores de TI de los SLAs que cumplan con los objetivos del cliente.

∙      Los equipos de TI y de Operaciones de Red deben asegurar que la red y la infraestructura puedan soportar nuevos servicios, identificar y resolver problemas rápidamente y comprender el impacto de los problemas en la experiencia digital.

∙       Los equipos de DevOps deben lanzar rápidamente nuevas aplicaciones y servicios digitales, identificar y resolver problemas de prueba y control de calidad, y garantizar un excelente rendimiento de las aplicaciones en entornos reales.

∙       Los diseñadores en la nube necesitan planificar, diseñar e implementar la infraestructura para soportar nuevos servicios, escalar y bajar a medida que cambia la demanda.

∙       Los equipos de Servicios del Usuario Final requieren visibilidad de la experiencia digital de clientes, empleados, socios y proveedores para identificar y seleccionar problemas antes de que los usuarios llamen para quejarse.

  1. Se requiere una variedad de análisis para medir el éxito

“No se puede administrar lo que no se puede medir”. El famoso experto en gestión, Peter Drucker, dice que es igualmente válido para el seguimiento del éxito de una iniciativa de Gestión de la Experiencia Digital. Con diferentes responsabilidades, cada grupo en TI y el negocio requiere diferentes métricas y análisis para indicar su progreso en el logro de los objetivos de la Gestión de la Experiencia Digital.

Por lo tanto, las herramientas de supervisión de la experiencia digital deben proporcionar un amplio conjunto de análisis empresariales y técnicos, como el rendimiento de las aplicaciones, el rendimiento de la red, el análisis de la capacidad de la infraestructura y la productividad del usuario final en toda la empresa.

  1. La brecha de visibilidad de monitoreo de TI

Una brecha de visibilidad existe entre lo que dicen las herramientas de monitoreo dicen a las TI y lo que los usuarios finales realmente están experimentando.

A medida que las organizaciones de TI responden a las prioridades de los CEOs y desarrollan nuevos servicios para impulsar el crecimiento, necesitan un entendimiento entre dominios de las aplicaciones, las redes e infraestructura en las que se ejecutan y el impacto que tienen en la experiencia del usuario final.

Pero la empresa típica tiene de 4 a 15 herramientas diferentes de monitoreo de la red, lo que complica la solución de problemas, la gestión del cambio y otros aspectos de la gestión del nivel de servicio. Aunque estas herramientas proporcionan información sobre el rendimiento y la disponibilidad de su dominio particular, carecen de visibilidad de la experiencia digital real de los clientes, de la fuerza de trabajo, de los socios y de los proveedores.

Abordando los retos de la Gestión de la Experiencia Digital

Un enfoque eficaz de Gestión de la Experiencia Digital cierra esta brecha de visibilidad y le permite medir la experiencia del usuario final en toda la población de usuarios finales. Cada grupo dentro de TI y el negocio obtiene las métricas y análisis que necesitan para asegurar un resultado exitoso de experiencia digital.

Cuando se trata de cumplir o superar las expectativas de su CEO para impulsar el crecimiento, la clave es asegurarse de que tiene una estrategia de Gestión de la Experiencia Digital eficaz. No hacerlo podría significar pérdida de ingresos, pérdida de productividad e incluso daños irreparables dentro de una marca de la compañía.

  • Mike Marks Product Evangelist, Riverbed SteelCentral

 

Qlik adquiere a Idevio para ofrecer análisis geográfico avanzado

Qlik la firma especializada en visual analytics, ha anunciado hoy la adquisición de Idevio, proveedor de software y servicios geográficos y partner de Qlik con sede en Suecia.

Esta compra no solo incrementará la capacidad actual de mapeado de Qlik, sino que llevará su oferta de servicios más allá de la visualización, dando soporte a un amplio rango de aplicaciones en torno al análisis geográfico avanzado.

Gracias al uso de tecnología patentada que comprime y distribuye datos de mapas, tanto los clientes de Qlik Sense como los de QlikView podrán cruzar datos geográficos que, de otra manera, permanecerían ocultos, disfrutando de mayor conocimiento y retorno de la inversión, así como de la posibilidad de tomar mejores decisiones. Los términos de la transacción no se han hecho públicos aún.

Idevio va a permitir a los usuarios de Qlik Sense y QlikView añadir fácilmente mapas a sus apps con actualización automática de datos geoespaciales y así revelar información crucial e intercalarla con diferentes visualizaciones para descubrir la historia completa.

Además de navegar a través de mapas repletos de información, los usuarios pueden utilizar el servicio cloud Idevio GeoAnalytics y analizar así datos geoespaciales en combinación con otros no geoespaciales para determinar la potencial localización de tiendas, obtener la distribución de las ventas por código postal o calcular tiempos de entrega en la cadena de suministro.

Mediante el modelo asociativo único de Qlik, los usuarios pueden obtener todos los cruces de datos posibles, incluyendo el contexto geoespacial. Además, los clientes de Qlik podrán:

Tomar mejores decisiones en torno a la localización: Muchas de las decisiones de las organizaciones, tales como la selección de espacios geográficos para sus operaciones, la localización de recursos o los tiempos de entrega, dependen de la información de localización disponible. Los mapas proporcionan un contexto visual que ayuda a los clientes de Qlik a tomar decisiones correctas basadas en evidencias.

Mejorar la comprensión: Gracias a la posibilidad de mostrar información cartográfica rápidamente, los usuarios tienen acceso a conocimiento y patrones difícilmente interpretables mediante tablas o gráficos. Qlik ahora permite hacer los datos más comprensibles para sus usuarios, puesto que la mayoría están familiarizados con los mapas.

Incrementar la productividad: Dada la capacidad de complementar de manera instantánea datos de localización, como ciudades y países, con la información geográfica necesaria, cualquier usuario de Qlik puede añadir representaciones visuales ricas e interactivas a sus apps de Qlik.

“Tecnologías emergentes como el Internet de las Cosas, produce y producirá una ingente cantidad de datos de localización. Aunque estos datos ya son una realidad para nuestra base de clientes, su extracción y uso aún supone un desafío”, afirma Anthony Deighton, CTO y SVP de producto de Qlik. “Queremos ser el partner que ayuda a analizar datos geoespaciales, e Idevio encaja a la perfección en nuestro portfolio de productos. Estamos adquiriendo tecnología complementaria que mejorará el valor que proporcionamos a nuestros clientes mientras seguimos desarrollando y ofreciendo estas soluciones”, concluyó Deighton.

Redacción

 

Trump derrotó a Clinton usando analíticos como Obama

Existen tres reglas para los Analíticos, y el presidente electo de los Estados Unidos los siguió para ganar las elecciones a Hillary Clinton.

Lo que todavía es increíble es cómo los servicios de noticias pronosticaron mal el resultado de las elecciones estadounidenses del martes pasado. Parecía que Clinton era la ganadora y prácticamente todos estaban equivocados. Las estrategias de análisis realizadas para la campaña de Clinton parecían llevarla a la victoria, y a esto sólo le daba una lectura, además de tener un presupuesto más grande que del magnate, aunque suene raro. Por ello, Trump al tener un presupuesto reducido, tenía que obtener varias lecturas, así que utilizó el concepto An​alytics para mejorar la posición de su presupuesto limitado, de su tiempo y de su mensaje. La ironía es que, durante las dos últimas elecciones, Obama superó a sus rivales republicanos utilizando análitica de datos, algo que solo Trump al iniciar la contienda entendió mejor que Clinton.

Los partidarios de Trump fueron señalados por los medios de comunicación y el campamento de Clinton. Esto no era una estrategia sabia porque en lugar de obligarlos a cambiar de lado, al parecer alimentaron sus sentimientos de ser atacados y engañados.  Pero el mayor problema para los analistas es que esto hace que no quieran responder, o si responden, no respondan con veracidad. Esto introdujo un sesgo masivo pro-Clinton y debería haber invalidado los estudios relacionados.

A diferencia de Clinton, la gente de Trump identificó correctamente estas cuestiones. Diez días antes de las elecciones, un pequeño equipo reescribió la metodología de muestreo para eliminar tanto el sesgo como el llegar a los votantes potenciales. Esto les permitió asesorar mejor a sus clientes a dónde ir y cómo gastar sus fondos limitados.

En resumen, se dieron cuenta de que todo el mundo estaba haciéndolo mal y que tenían disponibles pruebas sustanciales durante las primarias. De esta manera, crearon un arma estratégica para su cliente y que les ayudó significativamente a convertir lo que era probablemente una pérdida en una de las mayores y sorprendentes victorias en la historia de Estados Unidos.

Dentro de toda su campaña, esto es lo que probablemente funcionó para Trump, por ello él no creía en los números de las encuestadoras y las cadenas de televisión, ya que iba perdiendo. A Clinton, en cambio, sí le gustaron. No desafiar la muestra es un error común enorme porque te lleva a un mal resultado. Por ello, es importante tener en mente tres reglas de análisis que se debe tener en mente siempre.

En primer lugar, usted tiene que asegurar su fuente de datos. Si usted no tiene una metodología de muestreo fuerte, no tendrá resultados precisos y, por lo tanto, sería mejor no dar mal consejos a los tomadores de decisiones. En segundo lugar, hay que identificar y eliminar prejuicios. Y finalmente, los responsables de tomar decisiones deben aprender a desafiar el análisis, especialmente cuando les dice lo que quieren oír. Así pues, hay que asegurar los datos, identificar y mitigar el sesgo, y desafiar siempre el análisis para asegurar que el consejo que usted consigue conduce a un resultado positivo.

Redacción

 

Vale más un dato correcto que mil palabras

La consultora IDC, señala que el mercado de tecnología y servicios que involucran al Big Data tendrá un crecimiento anual del 23% hasta 2019, mismo periodo en el que alcanzará un gasto anual de 48.6 mil millones de dólares, mientras que, en América Latina, el mercado de Big Data muestra un rápido crecimiento, por lo que en 10 años veremos una gran expansión del mercado.

Las empresas se encuentran ante la cuarta revolución industrial, con mucha información y tecnología que motiva a los líderes a adoptar nuevos modelos de negocios que impulsan su crecimiento, un proceso que a largo plazo los llevará al éxito.

Pero no sólo es adoptar e impulsar nuevos modelos, necesitan conocerlos y ante esto las organizaciones se encuentran con el reto de familiarizarse con el activo más importante: “Los Datos”, los cuales están cobrando mucho valor, brindando información importante y que sin duda todas las personas dentro de una empresa deben conocer.

Los líderes de TI y todas las personas involucradas están desesperados por encontrar el camino correcto de los datos, información que han acumulado a lo largo de muchos años, es por esto que las organizaciones buscan soluciones integradas de gestión de datos con las que puedan obtener valor de negocio y, asimismo, satisfacer las crecientes expectativas y las exigencias de personalizar la experiencia con el cliente.

En un comunicado, Informatica señala que los datos son el combustible esencial para potencializar los negocios, están transformando el mercado, formando parte de las experiencias de los clientes y forzando la redefinición de procesos importantes para sus negocios.

Los datos generan grandes beneficios

Hoy en día la tecnología es de gran ayuda para las organizaciones, todo es porque las plataformas de datos han evolucionado y facilitan el trabajo que requería de mucho tiempo, esfuerzo y que hoy podría ser fácilmente automatizado, esto no quiere decir que no se debe buscar las soluciones, esperar a que lleguen solas sin hacer nada sería un gran error; es parte del trabajo buscar soluciones atractivas que enamoren a los clientes de la nueva generación.

Los datos tienen 4 características esenciales: deben ser limpios, validados, actualizados y fiables, sin estas características no le brindaran información útil y lograra sumergir a las empresas en el fondo del mar de datos, lo cual lo llevaría al caos, algunos de los beneficios de los datos son:

  • Innovar en la experiencia del cliente.
  • Impulsar iniciativas del Big Data con datos limpios y coherentes que faciliten la toma de decisiones.
  • Gestionar las finanzas con eficacia, controlar los riesgos y cumplir con las normativas.
  • Agilizar las funciones y las adquisiciones para cosechar la máxima rentabilidad y reducir los riesgos al mismo tiempo.
  • Conseguir un lanzamiento rápido, antes que la competencia de los procesos nuevos.
  • Aumentar la productividad de los empleados y aprovechar la eficiencia operacional para adquirir ventaja frente a la competencia.

Es por ello más empresas están adoptando el poder de utilizar los datos correctamente, si bien ha sido un paso difícil para las organizaciones, CIOs e integrantes no ven lejana la transformación que las nuevas tecnologías y el nuevo contexto de valor que los datos le darán a la información el cual ayudará a crear más estrategias para impulsar sus negocios.

N. de P. Informatica

Mozilla lanza analítica de seguridad para las páginas web

El servicio web permite analizar el nivel de seguridad de las páginas web, el objetivo que persigue este nuevo proyecto de la organización Mozilla es ayudar a webmasters y desarrolladores a proteger sus páginas. El análisis online permite comprobar si los servidores web cuentan con la mejor configuración posible recibiendo una puntuación.

Dicho servicio es gratuito, con ello se obtiene análisis de páginas web, ayuda a comprobar si los servidores web tienen la mejor configuración de seguridad y compararlas con las de otros lugares.

Denominado observatorio, la herramienta fue desarrollada por el ingeniero de seguridad que trabaja en la compañía April King, para ponerla posteriormente a disposición de todo el mundo. El ingeniero se ha inspirado en el SSL Server Test del laboratorio Qualys SSL, un escáner conocido entre los expertos por sacar a la luz las debilidades de las páginas en lo que se refiere a las configuraciones SSL / TLS. Al igual que el laboratorio, el observatorio de Mozilla utiliza un sistema de puntuación entre 0 y 100 con la posibilidad de obtener puntos extra que se traducen en grados de la F a la A+.

A diferencia del Test SSL Server, que sólo comprueba la implementación TLS de una página web, el observatorio de Mozilla analiza una amplia gama de mecanismos de seguridad web. Entre ellos se incluyen banderas de seguridad, Cross-Origin Resource Sharing (CORS), Content Security Policy (CSP), HTTP Public Key Pinning, HTTP Strict Transport Security (HSTS), redirecciones, integridad del código, opciones X-Frame, opciones X-Content, protección X-XSS y mucho más.

La herramienta no solo se encarga de inspeccionar sobre la presencia de estas tecnologías mencionadas, sino que también de que sean implementadas de forma correcta. Lo que la herramienta no lleva a cabo es escanear en busca de vulnerabilidades en el código, algo que ya contemplan un gran número de herramientas gratuitas y comerciales.

El ingeniero King destaca en su blog, mientras todas estas tecnologías se extienden por multitud de documentos, se hacía necesario aprender lo que cada una de las tecnologías hace, cómo ponerlas en práctica, y lo importante que resultan.

Algunas estadísticas ofrecidas en el blog, señalan que tienen una tasa de 1.3 millones de páginas web analizadas por el observatorio, tan solo 121.984 recibieron una calificación de aprobada. Por citar algún ejemplo, incluso algunos lugares de la web de Mozilla no pasaron la prueba inicialmente, como fue el caso de addons.mozilla.org, el cual recibió la puntuación de una F. Tras solventar dichos problemas, el sitio web ahora cuenta con una calificación de A+.

Los resultados de la prueba que lleva a cabo el observatorio se presentan rápidamente en escasos segundos, en función del tipo de página. Se muestras de manera fácil con enlaces a las directrices de seguridad web planteadas por Mozilla, que tienen descripciones y ejemplos de implementación. Así los administradores pueden entender los problemas a los que se enfrentan y la prioridad por solucionar los más graves.

El observatorio de Mozilla utiliza código abierto. Una API y determinadas líneas de comando están disponibles para aquellos administradores que necesiten explorar un gran número de sitios web de forma periódica, o que simplemente deseen realizar dichas exploraciones internamente.

Lucian Constantin, IDG News Services

IBM Watson ya ofrece sus servicios en español a través de Cognitiva

Cognitiva anunció que IBM Watson, ya está disponible en español para Latinoamérica, incluido México. Watson será adaptado a los diversos acentos de la región, lo cual, permitirá a las empresas innovar y transformar sus negocios para enfrentar los crecientes retos de la era digital.

IDC señala que le mercado latinoamericano forma parte de los mercados emergentes, los cuales superarán en 2017 a los países desarrollados en términos de generación de datos.

La consultora también destaca que para el 2018, el 50% de los consumidores interactuarán con servicios basados en computación cognitiva, único tipo de solución capaz de procesar y aprovechar cantidades masivas de datos.

Las soluciones cognitivas son sistemas capaces de capturar y aprender a partir de cualquier tipo de datos; razonar con sentido y desarrollar hipótesis para resolver problemas complejos; e interactuar con lenguaje natural para acercar el conocimiento a los profesionales de industrias tales como banca, salud y comercio minorista, entre otras.

Los datos no estructurados abarcan correos electrónicos, libros, blogs, tweets, imágenes, videos, música y muchos otros formatos. Por ejemplo, IBM Watson puede ingerir 800 millones de páginas de información por segundo y tiene la capacidad de entender información estructurada y no estructurada.

Implementación simplificada

Cognitiva desarrolló una metodología que permite implementar las capacidades cognitivas de Watson de manera secuencial en una compañía, agilizando y facilitando la adopción progresiva en la organización, manteniendo un enfoque claro en la estrategia empresarial y en la eficiencia en costos.

Rolando Castro, CEO de Cognitiva, señaló sobre el lanzamiento, “esta solución tecnológica de inteligencia artificial (disruptiva por naturaleza) es el siguiente paso en la transformación digital de las empresas latinoamericanas. Este es el momento para que las compañías empiecen a explorar las soluciones cognitivas y aprovechen que Watson ya está entrenado para trabajar en nuestra región”.

Un mundo lleno de datos

Las plataformas cognitivas como Watson son las únicas herramientas capaces de analizar los grandes volúmenes de datos (big data) que se producen en la actualidad. La firma en un comunicado destaca algunos ejemplos:

  • Todos los días se generan 2,500 millones de gigabytes de datos.
  • El 80% de esos datos son “no estructurados”, es decir, información en video, fotografías, publicaciones en redes sociales y otros.
  • Para 2020 se producirán 40 zettabytes de nuevos datos al día.

Gerardo Esquivel, Computerworld México

Las supercomputadoras muestran la ciberseguridad automatizada del futuro

Siete supercomputadoras, cada una de ellas del tamaño de un refrigerador gigantesco, han competido entre sí, en una contienda para descubrir vulnerabilidades presentes en el software.

La disputa entre las siete supercomputadoras representa un gran avance tecnológico en la detección de vulnerabilidades, reduciendo considerablemente el año de media que suelen dedicar en la actualidad los investigadores tecnológicos a la hora de detectar posibles vulnerabilidades en los sistemas de software. Se espera que estas supercomputadoras realicen un trabajo más preciso que los humanos en plazos de tiempo reducidos a meses, semanas e, incluso, días.

El encuentro Cyber Grand Challenge, que fue organizado con esta finalidad la semana pasada en Las Vegas dentro del evento DEF CON, un encuentro de ciberseguridad anual donde hackers humanos han competido cada año jugando a capturar banderas. Sin embargo, en esta ocasión, los equipos de cómputo súper automatizados fueron los únicos participantes en un juego en el que no requirieron ayuda de ningún tipo por parte de sus creadores humanos.

Para sumar puntos, las supercomputadoras disputaron 96 rondas, en las que ellos mismos descargaban secuencias de código nuevo tanto para testear las vulnerabilidades existentes en el software como para parchearlas. Todo ello en cuestión de minutos.

Versiones modificadas de diversos gusanos incluidos Heartbleed, Sendmail crackaddr y Morris Worm fueron lanzados a los supercomputadores y, la mayoría de ellos, consiguió detectarlos y eliminarlos. Oficiales del departamento de defensa norteamericano, que patrocinó el encuentro, señalaron que estas máquinas ofrecían luz acerca del futuro de la ciberseguridad. Por su parte, Mike Walker, organizador de Cyber Grand Challenge, se congratulaba por el logro conseguido al afirmar: “Hemos demostrado que la automatización es posible en aspectos relacionados con la ciberseguridad”.

Pese a este gran avance conseguido todavía se ha de probar la funcionalidad de las supercomputadoras en el mundo real, ya que el juego de capturar banderas analizaba los defectos que encontraba en el interior de un sistema operativo simplificado; lo cual representa un escenario completamente diferente a realizar una analítica pormenorizada en un Sistema Operativo real, muchas veces se forman por un ecosistema completo de productos de software.

Sin embargo, las supercomputadoras están preparadas para afrontar este desafío, tal y como afirma David Brumley, el ingeniero responsable del diseño de la supercomputadora resultó ganador del concurso que, con su plataforma llamada Mayhem, se llevó los 2 millones de dólares de premio. Brumley, que trabaja para la compañía de ciberseguridad ForAllSecure (Pennsylvania) hace tiempo que trabaja en el desarrollo de técnicas automatizadas de detección de vulnerabilidades en Linux.

Redacción

 

El 60% del comercio analiza los datos de sus consumidores en Latinoamérica

Zebra Technologies dio a conocer los resultados de una encuesta que demuestra cómo la tecnología puede mejorar la experiencia del cliente en América Latina.

Junto con IDG Connect, se llevó a cabo el estudio titulado The Connected Shopper en america latina, los encuestados en el estudio fueron ejecutivos de TI y marketing en empresas de comercio minorista, representados equitativamente en Chile, Brasil, México y Colombia, y compartieron su opinión para conocer cómo utilizan la tecnología y así satisfacer las crecientes expectativas de los clientes.

Datos arrojados por el estudio demuestran que la industria minorista está evolucionando en América Latina y a nivel mundial. Hoy en día, los clientes son más exigentes que nunca y esperan la mejor experiencia en la tienda. Hasta los clientes más fieles cambiarán a un competidor si la experiencia de compra no es óptima. Los mercados en América Latina están cambiando y cada vez son más conscientes de las diferentes opciones que existen, tanto a nivel mundial como regional.

El 82% de los minoristas encuestados permiten que los clientes se conecten a la red en la tienda a través de una aplicación de lealtad; pero sólo el 46% utiliza la conexión para comprender el comportamiento del cliente en línea.

El 18% de los minoristas encuestados se conectan con los clientes de América Latina a través de teléfonos inteligentes inalámbricos; 46% a través de kioscos de información; 34% a través de cajas de autoservicio, y 42% a través de pagos efectuados por móvil.

En general, los minoristas que respondieron en América Latina utilizan la información obtenida por tarjetas de crédito, débito y de lealtad para identificar artículos comprados juntos con el 62%, el 60% resurte sus anaqueles además la identificación de diferentes tipos de compradores 59%, entre otros descubrimientos.

El 80% de los minoristas encuestados de América Latina siguen enviando catálogos impresos; sin embargo, el 50% tienen como objetivo enviar ofertas personalizadas a los dispositivos dentro de la tienda en el futuro.

Sobre los resultados del estudio, Ana Maria Cabrales, Regional Solutions Sr. Marketing Manager de Zebra Technologies señaló, “a medida que los avances tecnológicos evolucionan para apoyar las demandas de negocios, hay una creciente necesidad para que los minoristas sepan cómo aprovechar de la tecnología y proporcionar una mejor experiencia del cliente en la tienda. Los resultados de esta encuesta son extremadamente útiles para saber cómo los mercados de América Latina están respondiendo y adaptándose a estas nuevas herramientas”.

Redacción

El MIT desarrolla buscador que encuentra fallas en aplicaciones

En hasta casi 64 segundos, el nuevo buscador de errores encontró 23 nuevas vulnerabilidades en 50 aplicaciones web populares escritas con Ruby on Rails.

Encontrar errores en las aplicaciones web es un desafío permanente. Ahora una nueva herramienta del MIT permite encontrar vulnerabilidades en aplicaciones web. En concreto, en pruebas con 50 aplicaciones web populares escritas usando Ruby on Rails, el sistema ha encontrado 23 fallas de seguridad no diagnosticadas previamente, y no tardó más de 64 segundos para analizar cualquiera de los programas.

Ruby on Rails se distingue de otros frameworks porque define incluso sus operaciones más básicas en las bibliotecas. Gracias a la velocidad, en el MIT se aprovecharon de ese hecho reescribiendo las bibliotecas de manera que las operaciones definidas en ellas describen su propio comportamiento en un lenguaje lógico.

Eso vuelve el intérprete de Rails, que convierte los programas de Rails de alto nivel en código legible por máquina, en una herramienta de análisis estático que describe cómo fluyen los datos a través del programa. El resultado es que la ejecución de un programa de Rails a través del intérprete produce una descripción formal, línea por línea, de cómo el programa maneja los datos.

Llamado Space, el nuevo depurador de vulnerabilidades se centra en los procedimientos de acceso a datos de un programa utilizando un modelo lógico simple que describe qué operaciones puede realizar un usuario, sobre qué datos y en qué circunstancias. Dentro de lo descrito por los investigadores del instituto tecnológico, están las generadas por las bibliotecas pirateadas, Space puede determinar automáticamente si el programa se ajusta a los modelos. Si no lo hace, probablemente hay una falla de seguridad.

Los investigadores presentarán sus resultados el próximo mes en la Conferencia Internacional sobre Ingeniería de Software.

Katherine Noyes

 

Cloudera y Argile Data van contra el fraude de proveedores de servicios de comunicación

La plataforma de analítica de fraude en tiempo real, la cual está basada en Hadoop ofrece un descubrimiento de fraude por encima de 350 por ciento.

Cloudera y Argyle Data han presentado su nueva plataforma dirigida especialmente a los proveedores de servicios de comunicación (CSP). Esta nueva solución, construida sobre Apache Hadoop, está enfocada a reducir los problemas derivados del aumento creciente del fraude móvil  con la consiguiente pérdida de ingresos que conlleva para las empresas CSP.

Según la Encuesta de Pérdida Global por Fraude 2015 publicada por Communicatios Fraud Control Association, los dispositivos móviles y operadores de líneas fijas pierden unos 38 000 millones de dólares anuales a causa del fraude. Los métodos utilizados cada vez son más rápidos y eficaces y en algunos casos ni siquiera se detectan a tiempo manteniéndose en los sistemas durante mucho tiempo.

Respecto a la información anterior, Argyle Data y Cloudera han desarrollado una plataforma de análisis más eficaz para los sistemas tradicionales. Según sus creadores, esta plataforma puede descubrir hasta un 350% más fraudes que otras que basan su trabajo en las normas, mediciones de laboratorios de prueba o entornos de operador vivo. La solución de Cloudera y Argyle Data permite a los CSP anticiparse a posibles amenazas para los ingresos y reducir el fraude en las telecomunicaciones a nivel global.

La plataforma está basada en Hadoop y combina ingesta de datos, con análisis de ingresos y aprendizaje automático con la que se consigue analizar a tiempo real una mayor cantidad de datos a través de centros empresariales (EDH). Sus desarrolladores confían en que esta combinación suponga no sólo un ahorra económico a los operadores en materia de fraude sino también un reducción en la pérdida de datos y una mayor prevención de posibles daños que puedan dañar a las marcas.

-Toñi Herrero Alcántara