Aplicaciones, Del dia, Desarrollo, Destacado, Industria, Movilidad, News, Noticias, Seguridad, Tecnologia, Tendencias

Cellebrite introduce aprendizaje automático en su solución de estudio analítico

Cellebrite, realizó el anuncio de un estudio analítico diseñadas para detectar y analizar pruebas de medios digitales con más rapidez, por medio de una serie de algoritmos de aprendizaje automático.  Este reciente avance en estudio analítico de pruebas digitales proporciona a los profesionales de cumplimiento de la ley algoritmos neurales de avanzada, basados en red, que identifican y categorizan automáticamente imágenes y video clips previamente conocidos y desconocidos.

El acceso a herramientas avanzadas de estudio analítico para texto, video e imágenes optimiza los recursos investigativos, eliminando el análisis manual de grandes volúmenes de artefactos de medios, y ayuda a reducir el estrés psicológico que representa revisar material delicado, usualmente encontrado en casos criminales.

“Todos los días, los investigadores enfrentan el enorme desafío de trabajar con crecientes volúmenes de evidencia digital que, hasta ahora, requería revisión y análisis manual meticuloso,” afirmó Yossi Carmil, Co-CEO Global de Cellebrite.

Este nuevo lanzamiento de la Plataforma Cellebrite UFED Analytics proporciona opciones para correlacionar, visualizar y explorar archivos de variados registros de computadora, redes sociales, nube, móviles, de operadores celulares y de otras fuentes de datos digitales en una visualización centralizada, con acceso administrado para usuarios múltiples, brindando a los equipos investigativos verdadera inteligencia y colaboración digital.

Las principales actualizaciones de la plataforma incluyen:

  • Correlación y categorización de imágenes automatizada: Esta capacidad, primera en su clase, categoriza imágenes y fotogramas de video automáticamente para eliminar la revisión manual de pruebas duplicadas; correlaciona imágenes desconocidas e identifica medios exclusivos para que los equipos investigativos puedan enfocarse en los datos de interés.  Los algoritmos de avanzada fueron implementados para la detección automática de objetos como armas y drogas dentro de los medios. El sistema también detecta y categoriza pornografía infantil, contenido adulto, documentos y capturas de pantalla permitiendo el acceso acelerado a los medios de investigación relevantes;
  • Reconocimiento y correlación de rostros: Los algoritmos exclusivos usados para la detección automática de rostros, dentro de cualquier foto o video disponible en el sistema, permite a los investigadores efectuar la correlación cruzada de rostros individuales en los medios con rapidez y exactitud;
  • Ingestión de datos de computadora: Las extracciones de datos de computadoras ahora puede ser ingerida como una fuente de datos adicional dentro de Cellebrite Analytics, de manera que cuando se procesa junto con los datos de fuentes como redes sociales, nube, móviles y de operadores celulares, proporciona a los investigadores una visualización holística de pruebas acumuladas;
  • Integración con fuentes externas de datos: La integración con el Proyecto VIC, CAID y otras bases de datos definidas de valor hash reducen el estrés psicológico que representa revisar material delicado. La existencia de imágenes incriminatorias conocidas es identificada automáticamente correlacionando los valores hash de las imágenes para luego clasificarlas usando categorías predefinidas. Las imágenes no referenciadas que sean descubiertas también pueden ser categorizadas y exportadas para ser inmediatamente compartidas con las fuerzas de cumplimiento de la ley de todo el mundo.

Los elementos de aprendizaje automático de Cellebrite Analytics acelerará el tiempo a la evidencia en una variedad de investigaciones, incluyendo explotación infantil, narcóticos, pandillas, tráfico humano, antiterrorismo y muchas más. Con este nuevo lanzamiento que integra también otras ofertas Cellebrite incluyendo la nueva edición de su UFED Cloud Analyzer, con una robusta caja de herramientas con capacidades investigativas, los investigadores pueden analizar datos de redes sociales de dominio público con nube privada o datos de redes sociales de conformidad con una orden judicial, así como datos de dispositivos móviles, de computadora y de operadores de telecomunicaciones para identificar inmediatamente evidencia crítica para una investigación.

N de P. Cellebrite

Leer más...

Big data, Business Intelligence/Analytics, Del dia, Desarrollo, Destacado, Gobierno/Industria, Industria TIC, Inteligencia Artificial, Internet de las Cosas, Movilidad, Tendencias

Tendencias en Big Data y Analytics: Hoy es digital, mañana cognitivo

Según un reciente estudio de IDC, el crecimiento de big data y soluciones analíticas hacia 2018 será de 33% en infraestructura en la nube, 29% en software, y 29% en servicios. No obstante, el 70% de las compañías no cuenta con talento analítico necesario para satisfacer las demandas que conlleva su crecimiento en las industrias y por otro lado poder maximizar sus beneficios a nivel negocio. En la economía de hoy, las compañías, modelos de negocios, productos y procesos están transformándose. Los gobiernos y empresas están “migrando a modelos digitales¨ a medida que buscan reducir costos, mejorar la agilidad y la colaboración. Esto es posible gracias a la habilitación de las tecnologías cloud, analítica, móvil y social. Además, actualmente, conseguir llevar valor de los datos al usuario ya no requiere de una inversión alta en hardware o software. Sin embargo, estamos visualizando que lo digital no es el destino, sino la base para una transformación mucho más profunda habilitada por la Analítica Cognitiva y las tecnologías de Inteligencia Artificial. Por ello, las empresas tienen que empezar a prepararse para ser competitivas en un futuro cercano.

 

Computación Cognitiva

Una tecnología que promete revolucionar la interacción con la tecnología y los beneficios que obtenemos de ella es la Computación Cognitiva (CC), una versión avanzada de inteligencia artificial que emula las formas de procesamiento del cerebro humano y permite a las computadoras aprender de la experiencia y reaccionar de acuerdo a ella, tal como lo hacen las personas. A partir de la suma de múltiples algoritmos de alta complejidad, la CC se basa en la idea de una red neuronal utilizada para guardar y correlacionar las experiencias y eventos que atraviesa y organizarlos eficientemente para maximizar el proceso de toma de decisiones. La CC marca el comienzo de la era de las máquinas súper inteligentes.

El crecimiento exponencial del tráfico de datos en términos de velocidad, variedad y volumen presenta un enorme desafío que hoy en día está siendo manejado por los sistemas de Big Data. Sin embargo, la convergencia de esta tecnología con la CC significará un salto cualitativo en cómo se procesa el inmenso flujo de datos, tanto estructurados como no estructurados ni aprovechados (Dark Data). La CC provee las herramientas para mejorar la interpretación de estos grandes volúmenes de datos e incorporarlos a los procesos de toma de decisiones. De esta forma, la CC permite anticipar diversas situaciones y ofrecer soluciones complejas para cada una de ellas. La CC se posiciona para alcanzar el ideal de un mundo inteligente. Desarrollar un sistema computacional que se asemeje al cerebro humano para pasar de la inteligencia artificial a la inteligencia real, es un salto cualitativo de una magnitud enorme. La capacidad de aprender de sus propias experiencias permitirá a la CC asumir diversas e importantes responsabilidades en el futuro cercano y traer importantes avances en diversos espacios, como las tecnologías de la información y la comunicación, la agricultura, la generación y distribución de energía, y la industria de salud.

En definitiva, si bien la CC se encuentra hoy en una etapa inicial de desarrollo, su impacto transformador modificará procesos y resultados en una diversidad de sectores. De hecho, la demanda por inteligencia basada en datos y por simulaciones precisas traerá como consecuencia un crecimiento exponencial para esta tecnología que alcanzará 25 mil millones de dólares en ingresos acumulados para el período 2016-2020.

 

Analíticos Predictivos
Otra tecnología que está ganando rápidamente la atención de organizaciones en todo el mundo son los Analíticos Predictivos (AP). De acuerdo a los estudios más recientes de Frost & Sullivan, los ingresos generados globalmente por esta tecnología exhibirán un crecimiento anual compuesto (CAGR) del 25% entre 2016 y 2020, apalancado por la demanda de soluciones de inteligencia de negocios que brinden mayor agilidad y competitividad a las empresas. Los Analíticos Predictivos (AP) están penetrando los procesos de toma de decisiones de buena parte de las empresas de la lista Fortune 500, permitiendo obtener inteligencia en tiempo real lista para traducirse en acciones concretas y para ofrecer predicciones sobre tendencias y probabilidades futuras. Sumado a esto, agilizan los procesos de toma de decisiones sincronizando las informaciones financieras y operacionales a través de una única vista de la información empresarial, lo que se traduce en la creación de oportunidades de mayores ingresos.

Actualmente, el primer paso hacia la AP, sin duda se basa en la extracción, transformación y carga de datos en plataformas de cómputo distribuido con el objetivo de saber qué datos son valiosos para encontrar perspectivas o descubrir nuevas necesidades de negocio. Con ello, el segundo paso sería la analítica auto-servida que incluye Analítica Avanzada (Procesamiento de lenguaje natural, Retención y Optimización), Soluciones de BI (Report & Query y Data Mining), Soluciones de Data Warehouse y Soluciones integradas de Workflow de información (ECM, ERP, CMS). Con estos dos pasos anteriores, se abre las puertas a las organizaciones para que desarrollen modelos predictivos.

Hacia el futuro, las soluciones más novedosas de AP ofrecerán paquetes de algoritmos que evalúan su propio rendimiento, además de la del cliente, e identifican qué métricas son las más eficientes para medir de acuerdo a las características puntuales de cada negocio. La promesa más disruptiva de esta tecnología es prevenir cualquier inconveniente de rendimiento antes de que impacte la experiencia del cliente.

 

Por Crispín Velez, Leader Digital Transformation de Ricoh IT Services Latinoamérica.

Leer más...

Aplicaciones, Del dia, Desarrollo, Destacado, Movilidad, News, Noticias, Seguridad

Qué es lo que debe ofrecer un científico de datos a la organización

El papel que juegan los científicos de datos es totalmente lucrativo, una de las razones es sus escases. Convertirse en un científico de datos varía dependiendo de la industria, pero hay habilidades comunes, experiencia, educación y formación que le dará la pierna en el inicio de su carrera de ciencia de datos.

Los científicos de datos son responsables de descubrir ideas a partir de cantidades masivas de datos estructurados y no estructurados para ayudar a dar forma o satisfacer las necesidades y objetivos específicos del negocio. El papel del científico de datos en el análisis de datos es cada vez más importante ya que las empresas dependen más de las grandes cantidades de datos y su análisis para impulsar la toma de decisiones y como cada vez más empresas se basan en la tecnología de la nube, la automatización y el aprendizaje automático como componentes principales de sus estrategias de TI.

El objetivo principal de un científico de datos es organizar y analizar grandes cantidades de datos, a menudo utilizando software diseñado específicamente para la tarea. Los resultados finales del análisis de datos de un científico de datos deben ser lo suficientemente fáciles para que todos los interesados ​​puedan comprender, ya sea especialmente aquellos que trabajan fuera de TI.

El enfoque de un científico de datos para el análisis de datos depende no sólo de su industria, sino también de las necesidades específicas del negocio o departamento para el que está trabajando. Antes de que un científico de datos pueda encontrar significado en los datos estructurados o no estructurados, los líderes empresariales, los departamentos y los gerentes deben comunicar lo que buscan. Como tal, un científico de datos debe tener suficiente experiencia en el dominio de negocios para traducir objetivos de la empresa o departamentos en entregas basadas en datos tales como motores de predicción, análisis de detección de patrones, algoritmos de optimización y similares.

Cuánto cobra un científico de datos

En 2016, la Oficina de Estadísticas Laborales de EEUU informa que el salario promedio de un científico de datos llegó a los 111.800 dólares al año. Es un campo de rápido crecimiento y lucrativo, según las predicciones del BLS los puestos de trabajo en este campo crecerá un 11% en 2024.

¿Qué hace un científico de datos?

La responsabilidad principal de un científico de datos es el análisis de datos, un proceso que comienza con la recopilación de datos y termina con las decisiones de negocios tomadas sobre la base de los datos finales del analista de datos.

Los datos que los científicos de datos analizan se basan en una serie de fuentes. Hay dos tipos de datos que caen bajo el paraguas de datos grandes: datos estructurados y datos no estructurados. Los datos estructurados se organizan, normalmente por categorías que facilitan la ordenación, lectura y organización de una computadora de forma automática. Esto incluye datos recopilados por servicios, productos y dispositivos electrónicos, pero rara vez se recopilan datos de entrada humana. Datos de tráfico del sitio web, cifras de ventas, cuentas bancarias o coordenadas GPS recopiladas por el teléfono son formas estructuradas de datos.

Es más probable que los datos no estructurados, la forma de datos de más rápido crecimiento, provengan de la información humana: comentarios de los clientes, correos electrónicos, videos, publicaciones de redes sociales, etc. Estos datos suelen ser más difíciles de clasificar y menos eficientes para gestionar con tecnología.

Normalmente, las empresas emplean a los científicos de datos para manejar estos datos no estructurados, mientras que otro personal de TI será responsable de administrar y mantener datos estructurados. Sí, los científicos de datos probablemente tratarán con un montón de datos estructurados en sus carreras, pero las empresas cada vez más quieren aprovechar los datos no estructurados para conseguir sus ingresos.

Requisitos del científico de datos

Cada industria tiene su propio perfil de datos grande para un científico de datos para analizar. Estas son algunas de las formas más comunes de grandes datos en cada industria, así como los tipos de análisis que un científico de datos probablemente tendrá que realizar, de acuerdo con el BLS.

  • Negocios: Hoy en día, los datos configuran la estrategia empresarial de casi todas las empresas, pero las empresas necesitan que los científicos de los datos tengan sentido de la información. El análisis de datos de los datos empresariales puede informar las decisiones sobre eficiencia, inventario, errores de producción, lealtad del cliente y más.
  • Comercio electrónico: ahora que los sitios web recogen más que datos de compra, los científicos de datos ayudan a las empresas de comercio electrónico a mejorar el servicio al cliente, a encontrar tendencias y desarrollar servicios o productos.
  • Finanzas: los datos sobre cuentas, transacciones de crédito y débito y datos financieros similares son vitales para un negocio, pero para los científicos de datos en este campo, la seguridad y el cumplimiento, incluida la detección de fraude, también son preocupaciones importantes.
  • Gobierno: Los grandes datos ayudan a los gobiernos a tomar decisiones, apoyar a los gobernantes y supervisar la satisfacción general. Al igual que el sector financiero, la seguridad y el cumplimiento son una preocupación fundamental para los científicos de los datos.
  • Ciencia: los científicos siempre han manejado los datos, pero ahora con la tecnología, pueden recopilar, compartir y analizar datos de los experimentos.
  • Red social: los datos de redes sociales ayudan a informar la publicidad específica, mejorar la satisfacción del cliente, establecer tendencias en los datos de ubicación y mejorar las características y servicios.
  • Salud: los científicos de datos pueden ayudar a mejorar los servicios de salud y descubrir tendencias que podrían pasar desapercibidas de otra manera.
  • Telecomunicaciones: todos los dispositivos electrónicos recolectan datos y todos esos datos necesitan ser almacenados, administrados, mantenidos y analizados.

Sarah K. White

 

Leer más...

Administración, Aplicaciones, Aplicaciones, Big data, Cloud Computing, Del dia, Desarrollo, Desarrollo, Gobierno/Industria, Industria TIC, Infraestructura, Network World, Principal, Redes, Seguridad

Cómo capitalizar el uso de Big Data en las empresas

En los últimos 5 años el Big Data ha generado un gran impacto para los negocios debido a que a través de éste se extraen y analizan grandes cantidades de datos que son utilizados diariamente para impulsar la estrategia y toma de decisiones en las empresas.

El correcto manejo del Big Data puede ayudar a a aumentar sus ventas, fidelizar clientes, promover un mayor control de gastos, así como la creación de procesos eficientes, entre otros beneficios.

Sin embargo el entendimiento de estas herramientas, la utilización eficaz de los datos, el dimensionamiento de la información y la estructuración del flujo de los mismos se han vuelto elementos complejos para las compañías.

“El éxito del Big Data no radica solamente en la información que se recolecta, sino también en el uso que se le da a esos datos para generar planes accionables que impacten los resultados de la compañía”, comentó Patricio Mendoza, Director General de PAYBACK México.

En términos prácticos, PAYBACK recomienda que para lograr un verdadero impacto y capitalizar el uso del Big Data, es importante que las empresas empiecen por implementar las siguientes estrategias:

 

  • Objetivos claros

Las compañías deben plantearse las siguientes preguntas: ¿Qué quiero lograr con estos datos? ¿Qué objetivo de negocio busco impactar con la recolección de información? ¿Se trata de una estrategia para conocer a mi cliente, generar venta cruzada, optimizar costos de localización? De esta forma, la empresa podrá establecer un punto de partida y así evitará  perder su foco entre tanta información.

 

  • Menos es más

Más allá de crear una matriz gigantesca de datos, lo importante es analizar aquéllos que permitan trazar el camino correcto hacia la meta. Para esto, se deben utilizar únicamente los datos que contribuyan a tomar decisiones, y por lo tanto, a realizar planes accionables.

 

  • Infraestructura y equipo analítico adecuado para implementar la estrategia

Debido a las grandes cantidades de información, utilizar Big Data requiere de programas robustos para el manejo y procesamiento de datos, además de la capacidad analítica y visionaria de quien estructura la información para facilitar la toma las decisiones

El mundo de los negocios seguirá evolucionando a partir de la implementación de herramientas que nos ayuden a automatizar, almacenar y gestionar correctamente toda la información que se genera a cada momento para obtener resultados inteligentes, basados en tendencias que pueden ser pronosticadas.

El Big Data no es únicamente un tema de información sino de visión y ejecución, que puede ayudar a las empresas a desarrollar e implementar estrategias mucho más robustas y personalizadas por segmento de consumidor.

 

N. de P.

Leer más...

Aplicaciones, Big data, Business Intelligence/Analytics, Del dia, Desarrollo, Destacado, Gobierno/Industria, Industria, Industria TIC

SAS lanza programa gratuito para capacitar científicos de datos en México

En la economía digital de nuestros días, la información es un activo de negocio trascendental. Sin embargo, hay un factor que se tiende a olvidar fácilmente: los datos, por sí solos, no impulsan el éxito de una organización.

Para obtener los insights que se esconden en un volumen gigantesco de información (hábitos de consumidores, tendencias económicas, indicadores de mercado, entre otros elementos), las empresas necesitan herramientas analíticas y, sobre todo, especialistas que puedan extraerles el máximo provecho.

Todas las industrias del mundo encaran un gran desafío: la disponibilidad limitada de talento humano analítico, un hecho que, según distintas investigaciones, ya resulta muy evidente.

Se estima que para 2018, la demanda de especialistas en Analytics superará a la oferta en una magnitud de entre 50% y 60%. En el mismo año, Estados Unidos, una de las economías vanguardistas en el uso de soluciones analíticas, padecerá un importante déficit de expertos en esta materia, de entre 140,000 y 190,000 puestos sin cubrir.

Para el 21% de las organizaciones, atraer a un científico de datos (un perfil profesional idóneo para una estrategia de analítica) es una tarea que resulta cada vez más difícil, en comparación con otros especialistas. Para el 29% de las empresas, la dificultad mayor es retenerlo.

Para el 29% de las compañías, atraer a un especialista en negocios con habilidades en el uso de herramientas de Analytics, en comparación con otros talentos, es un objetivo sumamente difícil de lograr. Y para el 34% de las firmas, el gran problema es retenerlo.

Para cubrir la escasez de un científico de datos en México, SAS anunció que está por iniciar su Beca SAS 2017, una iniciativa por iniciar que se ha fijado la meta de atender esta falta de talento analítico. Desde su lanzamiento en el año 2009, la Beca SAS ha fungido como un programa de capacitación gratuito para estudiantes —del último semestre o recién egresados de los niveles de licenciatura o posgrado— de las carreras de Actuaría, Estadística (o disciplinas afines), Ingeniería en Sistemas (o carreras similares) y Matemáticas Aplicadas y Computación (MAC).

Beca SAS es un proyecto donde SAS pretende ayudar a las empresas del país a obtener el talento necesario para fortalecer sus capacidades de análisis de datos, lo que incrementa sus oportunidades de éxito en el mercado, en tanto que los jóvenes mexicanos conseguirán la oportunidad de aspirar a una vida profesional impulsada por la innovación.

 

N. de P.

Leer más...

Aplicaciones, Big data, Business Intelligence/Analytics, Cloud Computing, Del dia, Desarrollo, Destacado

Datos confiables: La materia prima más importante del año

En todas las compañías existe información que puede ser tan antigua como la misma empresa, pero en lugar de ser el fundamento de una visión más amplia del negocio; crece sin control año con año, hasta un punto en el que los datos obtenidos no están organizados, limpios y mucho menos son coherentes. Esto significa que no son confiables y las empresas necesitan saber cómo tratarlos para convertirlos en sus aliados para tomar decisiones correctas.

En la era digital, la implementación continua de nuevas tecnologías y el uso de miles de dispositivos conectados, está trayendo consigo la acumulación de grandes cúmulos de datos.

Según cifras de Gartner, el Internet de las Cosas (IoT) sigue teniendo un enorme potencial para la generación de información, por lo que no será difícil lograrlo a través de los 21 mil millones de puntos que se espera estén en uso en 2020. Además, durante ese mismo año, IoT aumentará en3% la demanda de almacenamiento del centro de datos.

Por otra parte, la misma consultora predice que para 2018 se espera que la mayoría de las principales compañías del mundo utilicen estrategias de Big Data y herramientas de análisis para perfeccionar sus ofertas y mejorar la experiencia del cliente, pero para lograrlo necesitan información confiable, es decir, datos limpios y listos para usarse.Es por esto que la labor de administrar los datos está desarrollándose cada vez más para establecer metodologías que crezcan a la par del cumulo masivo de información.

Pero, ¿cuál es el principal beneficio de contar con datos confiables? A la par de una correcta gestión de datos, favorecen el verdadero ahorro en costos y la rentabilidad operacional de los negocios.

El aumento en la demanda de datos confiables se debe a que se reconoce su función para realizar “negocios inteligentes” que logren cumplir con los objetivos empresariales. Si los datos no son de confianza, carecen por completo de utilidad efectiva, ya que la información no será real y pone en peligro cualquier oportunidad de negocio.

 

Haciendo tangible lo intangible

Si las organizaciones cuentan con datos confiables, es posible lograr lo siguiente:

    • Innovar en la experiencia del cliente.
    • Impulsar iniciativas del Big Data con datos limpios y coherentes que faciliten a los ejecutivos la toma de decisiones.
    • Gestionar las finanzas con eficacia, controlar los riesgos y cumplir las normativas.
    • Agilizar las fusiones y las adquisiciones para cosechar la máxima rentabilidad y reducir los riesgos al mismo tiempo.
    • Conseguir un lanzamiento de nuevos productos de manera rápida, antes que la competencia.
    • Aumentar la productividad de los empleados y aprovechar la eficiencia operacional para adquirir ventajas frente a la competencia.

Estas son parte de una larga lista de beneficios; sin embargo, a pesar de los múltiples logros que se obtienen al contar con una correcta administración de datos, todavía son pocos los proyectos que se están poniendo en marcha en comparación con la velocidad a la que está creciendo la información.

Se debe considerar que los datos de calidad minimizan riesgos, mientras que la información incorrecta solo los incrementa, siendo un tema que aplica para todos los sectores y empresas de cualquier tamaño.

El mejor modo de prepararse para el futuro delineado por la información,consiste en tener iniciativas de datos confiables e integrales, así como ser lideradas  por el equipo de TI y soportadas por toda la empresa.

Tener la capacidad de actuar estratégicamente con base a una correcta gestión de datos, es pensar en un futuro que ya nos alcanzó y que exige que todas las organizaciones establezcan cimientos sólidos para lograr sus objetivos a través de datos confiables, la materia prima que impulsará de manera correcta cada decisión de negocio.

 

 

Por: Esther Riveroll,

Fundadora y Directora General,

Alldatum Business.

Leer más...

Aplicaciones, Big data, Business Intelligence/Analytics, Cloud Computing, Del dia, Desarrollo, Destacado, Industria TIC, Infografías, Movilidad, Multimedia, Noticias

Infografía: Lo que no debe hacer en Cloud

El volumen de datos de las empresas suele crecer cada año pero, ¿le están sacando el máximo partido a todos esos datos? La respuesta, probablemente, sea que no, pero no hay de qué preocuparse. Las herramientas de análisis basadas en la nube que existen en la actualidad ofrecen a las pequeñas y medianas empresas un fácil y rápido control de la información. Solo hay que saber cómo utilizarlas.

De nada sirve tener los datos dispersos en diferentes tipos de dispositivos. La clave está en conectar todos y cada uno de los puntos de tu negocio.

La integración de los flujos de datos en un mismo lugar te permitirá no solo resolver los desafíos que afectan los resultados, sino también comprender las preferencias de los clientes o los diferentes tipos comportamientos en las compras. Además, con las herramientas adecuadas, se podrá integrar datos de los motores de búsqueda, redes sociales y dispositivos móviles, combinando y analizándolo todo en un mismo espacio. De esta manera, te será mucho más fácil detectar tendencias y riesgos con anticipación.

Las herramientas de visualización basadas en la nube son otra forma de maximizar el valor de tus datos, permitiendo que cualquier usuario pueda acceder a ellos para tomar mejores y más rápidas decisiones. Por otro lado, a la hora de llevar a cabo un negocio digital, hay varios pasos que hay que tener en cuenta para conseguir el éxito. En la siguiente infografía, Microsoft nos comparte cinco errores comunes que pueden hacer fracasar un negocio.

Por: Daniel Poveda Yánez, Microsoft

Leer más...