Categoría: Mejores Prácticas

Conozca el funcionamiento de la Dark Web para prevenir fraudes

Cyxtera Technologies alerta sobre el funcionamiento de la Dark Web y la necesidad de monitorearla constantemente para prevenir futuros ciberataques, en particular aquellos relacionados con la falsificación de tarjetas de crédito.

Se esperaba que la tecnología EMV ayudará a prevenir el fraude relacionado con la falsificación de tarjetas de crédito, y si bien es cierto que la incidencia de este tipo de fraude se ha reducido, recientemente se ha visto un incremento en el número de estafas sin tarjeta presente. Las razones de esto son varias, pero una nueva racha de brechas junto a la facilidad para realizar compras online ha alimentado el fuego. Para complicar aún más la situación, el plazo que tenían las entidades para cumplir con los requerimientos EMV fue pospuesto de 2017 a 2020.

 

La Dark Web: La tienda online más completa para futuros cibercriminales

De acuerdo a Cyxtera Technologies, inmediatamente después de que se realiza un ciberataque exitoso, los datos robados son empaquetados y comercializados en la Dark Web. “Generalmente, esto ocurre mucho antes de que las instituciones y clientes se enteren de que una brecha ha ocurrido y de que su información sensible ha sido comprometida. Lo preocupante es queincluso las instituciones financieras puedentardar meses en revelar el incidente a sus clientesy al público en general”, destacó David López, VP de Latinoamérica de Cyxtera.

Los datos de las tarjetas son más valiosos justo después de que la brecha ha ocurrido. Durante los primeros días y semanas, las tarjetas robadas generan más ganancias para los hackers.

Además, los datos son empacados en lotes, beneficiando a los potenciales defraudadores a medida que utilizan los datos para adquirir ilegalmente bonos de regalo y productos que luego podrán cambiar por dinero en efectivo. Curiosamente, las tarjetas de crédito corporativas son más valiosas que las de clientes regulares.

“Los mercados negros operan de forma similar a las tiendas online de retail. En ellos se pueden encontrar servicios de soporte, garantías de devolución, convenientes medios de pago y todas las comodidades que normalmente ofrecen las cadenas de negocios”, aseguró David López de Cyxtera. Y agregó, “además, en los mercados negros se emplean monedas imposibles de rastrear, lo cual dificulta la tarea de perseguir y judicializar a los autores de los crímenes”.

¿Qué pueden hacer las instituciones para proteger a sus clientes y prevenir pérdidas monetarias?

Los defraudadores dedican tiempo y recursos en la ubicación de sus potenciales víctimas y en la planeación de los ataques. “Esto significa que la capacidad de una organización para monitorear e identificar proactivamente ataques en curso es vital. Estar al tanto de los oscuros tratos en la Dark Web brinda a las compañías una ventaja única en la lucha contra el fraude”, destacó el ejecutivo de Cyxtera Technologies.

En la Dark Web se pueden ubicar ciertos datos cruciales como por ejemplo números de identificación bancaria o datos de usuarios. “Con este conocimiento, las organizaciones pueden detener el fraude con tarjetas falsas antes de que ocurran. Ver lo que sucede en la Dark Web le brinda a las instituciones la habilidad de cancelar las tarjetas comprometidas, en vez de tener que reemplazar todas las tarjetas de su población de clientes”, destacó López de Cyxtera. Adicionalmente, el monitoreo proactivo permite que el departamento de IT obtenga valiosos datos sobre los puntos más comprometidos y pueda activar alertas en tiempo real en caso de que ocurra un ataque.

Desafortunadamente, el fraude no tiene intenciones de abandonarnos en ningún momento debido a los millones de datos y registros actualmente disponibles en la Dark Web. A medida que las instituciones ofrecen mayor facilidad para realizar compras online, ya sea a través de dispositivos móviles, televisores inteligentes, quioscos interactivos, computadoras de escritorio y demás, estas brechas continuarán ocurriendo masivamente y los estafadores tendrán más recursos a su alcance para perpetrar sus crímenes.

 

Monitoreo de Redes, clave para los procesos de digitalización

Paessler AG celebró su primer evento en México para clientes, “PRTG -Time to Connect México 2018”, reuniendo a más de 100 profesionales especialistas en monitoreo de redes.

Jürgen Thiel, Jefe de Ventas y Desarrollo de Negocios de Paessler AG, abrió el evento en su también primera visita a México, destacando la importancia que está cobrando el monitorear TI para obtener un proceso de digitalización optimo. El paisaje está cambiando constantemente debido a las tendencias tecnológicas como Internet de la Cosas (IoT), Inteligencia Artificial (IA), y Cloud Computing, entre otros, donde tener una total visualización para poder anticiparse a accidentes y aprovechar datos en tiempo real será clave.

“El futuro del monitoreo estará expandiéndose a la posibilidad de tener instalaciones más grandes para ambientes cada vez mayores y más complejos; a la posibilidad de tener soluciones enfocadas por industria, residiendo en Nube y ofreciéndole valor a clientes con necesidades específicas; y a aprovechar y mejorar la posibilidad de integración con otras herramientas en el mercado para permitir a los usuarios del monitoreo sacar mayor provecho de sus datos de monitoreo y transformarlos información que permita una mejor toma de decisiones en el ámbito de las TI”, afirmó Thiel.

Jürgen Thiel, Jefe de Ventas y Desarrollo de Negocios de Paessler AG.

Por su parte, Carlos Echeverría, Gerente de Preventa de Paessler Latinoamérica, en entrevista para Computerworld México, comentó que la tendencia está en unificar las redes para tener una visualización completa.  “Nuestra propuesta es tener un control absoluto de todo el entorno, independientemente de la red que sea,  producto o servicio”, comentó.

Tal vez le interese: Mida sus KPI con herramientas de monitoreo

PRTG Network Monitor, la apuesta de Paessler AG

Carlos Echeverría, Gerente de Preventa de Paessler Latinoamérica.

Para ayudar a los clientes a alcanzar estos objetivos, Paessler AG cuenta con su herramienta PRTG Networkd Monitor, una solución de monitoreo que ayuda a visualizar la infraestructura de su red las 24 horas del día. No sólo se trata de gestión en el centro de datos y el seguimiento de la IO, PRTG también ofrece visualización en la nube y una gran variedad de sistemas como IoT, publicando métricas y niveles, obteniendo datos en tiempo real de cada uno de ellos y lanzando notificaciones sobre cualquier tipo de cambios al usuario.

 

“El objetivo de esta herramienta también es facilitar el día a día de los encargados de sistemas, quienes además de ahorrar mucho tiempo, pueden anticiparse a problemas con detección oportuna, así como ofrecer un mejor servicio, garantizar la continuidad de la operación”, comentó Carlos Echeverría.

La herramienta de Paessler permite detectar problemas, saber qué componente en específico fue el que falló, para tomar medidas necesarias, mejorando la toma de decisión en tiempo real. “Cuando se tiene un problema suele tomar horas o hasta días saber dónde se originó. Con PRTG esto no sucede, toda la visibilidad que ofrece es precisa, nuestra apuesta es muy agresiva en cuestiones de visibilidad y alcance, así como en el nivel de inversión,” finalizó.

 

México entre los 10 países más atacados a nivel mundial

Según estudio de Kaspersky, 43% de las empresas en todo el mundo tuvo al menos una fuga de datos en el último año, además de que dos de cada cinco de los casos vio afectada la información de identificación personal de los clientes. Esto se vio reflejado en el 41% de las Pymes y 40% de las Enterprise encuestadas.

Este último dato cobra especial relevancia en nuestro país, ya que la mayoría de las empresas son pymes o microempresas, quienes crean 95% de los empleos. Anteriormente se creía que los ataques sólo buscaban afectar a grandes empresas, sin embargo, al ser las pymes las más vulnerables y a la vez, quienes menos protección tienen, son blanco fácil para hackers.

“Cuando nosotros entendamos que las amenazas no se tratan ni de malware, ni de hackers sino se trata de adversarios, motivaciones y blancos objetivos, nos daremos cuenta entonces de que siempre detrás de un ataque hay un interés en particular por parte de los atacantes”, comentó Roberto Martínez, Senior Security Researcher de Global Research and Analytics Team (GREAT) de Kaspersky Labs.

Según datos de Kaspersky, México es el 10vo. país más atacado a nivel mundial, el segundo a nivel de América Latina sólo después de Brasil. El país recibe en promedio 1.5 millones de ataques al día.

Además, según datos citados de la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef), el robo de identidad es uno de los ataques más comunes en el país, siendo México el 8vo. lugar en sufrir ataques de este tipo. ¿El motivo? 67% es debido a la pérdida de documentos, 63% es ocasionado por el robo de cartera o portafolios, 53% sufrió de información robada por una tarjeta bancaria.

Otro de los ataques más recurrentes en México es la criptomninería, que según Kaspersky, está mostrando márgenes de crecimiento por arriba del Ransomware. “El malware es un medio, no un fin. En este caso si el objetivo es financiero, probablemente muchos de estos grupos vieron ya más negocio en crear criptomonedas que en pedir un rescate que tal vez no les paguen, es por ello que han preferido de manera silenciosa minar criptomonedas”, agregó Martínez.

 

Dark Tequila, el malware desarrollado en México

Se trata de una compleja operación cibernética descubierta por Kaspersky Labs a la cual denominaron “Dark Tequila”, la cual ha sido creada localmente y habría estado atacando a usuarios en México durante, al menos, cinco años, robándoles credenciales bancarias y datos personales. La amenaza se centra, principalmente, en robar información financiera, pero una vez dentro de una computadora también sustrae credenciales de otras páginas.

 

-Karina Rodríguez, Computerworld México.

Empresas podrían fracasar por falta de visibilidad en servicios de nube

Si las empresas quieren hacer crecer sus negocios y seguir siendo competitivos, necesitan la escala y la flexibilidad que ofrece la nube, pero al mismo tiempo deberán garantizar una visibilidad completa en toda su infraestructura, incluidos los entornos de nube local y en las instalaciones, de lo contrario, la postura del negocio corporativo se erosionaría y aumentaría el riesgo de fracaso, advirtió Netscout Arbor.

“Con la nube convirtiéndose en una parte tan importante de los negocios de hoy, no es de extrañar que el 85% de los responsables de TI y de decisiones empresariales crean que la tecnología será una parte esencial de su estrategia de transformación digital (DX) en los próximos años. Tal impulso ha causado que el mercado de la computación en nube se eleve, y ahora se espera que crezca a  162 mil millones de dólares para 2020”, comentó Carlos Villanueva, SE para Latam de Netscout Arbor.

De acuerdo con el estudio IDC Latin America Cloud Compliance Survey 2016-2017, realizado por IDC, dejó claro que las empresas esperan incrementar significativamente sus inversiones en aplicaciones o plataformas en la nube.

Para el 68% de las empresas en México, la expectativa de inversión será mayor en un período de dos años.

Más allá de las cargas de trabajo que tradicionalmente han sido usadas en cloud como e-mail corporativo y mensajería (78%), Customer Relationship Management, CRM; (49%), y Recursos Humanos (43%), las empresas ya han adoptado la nube para aplicativos de misión crítica tales como Enterprise Resources Planning (ERP) y administración financiera (24%), comercio electrónico B2B (23%) y soluciones de industria (19%).

Carlos Villanueva destacó que no cabe la menor duda que la implementación de una estrategia de migración a la nube es crucial para la velocidad del negocio, sin embargo la introducción de nuevas tecnologías DX, al mismo tiempo que se acelera la entrega de nuevas aplicaciones y servicios a los clientes, puede ser un peligro.

Se estima que las interrupciones de red cuestan a las grandes empresas un promedio de 60 millones de dólares por año.

A medida que la cantidad de empresas que aprovechan las tecnologías en la nube continúe creciendo, la visibilidad en la nube en general pasará a primer plano, indicó el experto de Netscout Arbor, quien agregó que la visibilidad continua de extremo a extremo en los centros de datos, WAN, sucursales, ambientes de nube y entornos SaaS permitirá a los equipos de TI identificar problemas actuales o potenciales, resolverlos rápidamente y mantener la velocidad del negocio.

¿Cómo pueden las organizaciones controlar el enorme aumento de los datos recopilados del tráfico que atraviesa sus redes físicas y virtuales? Carlos Villanueva precisó al adoptar un enfoque de datos inteligentes (Smart Data), las empresas de múltiples industrias podrán obtener una imagen completa de arriba hacia abajo del nuevo entorno de TI híbrido. Esto permitirá una verdadera comprensión del rendimiento de la aplicación, la disponibilidad del servicio, la fiabilidad y la capacidad de respuesta.

Además de esto, el experto agregó,  la capacidad de resolución de problemas puede tener lugar en tiempo real y retroactivo, lo que significa que las organizaciones pueden aprender de los errores del pasado para adaptar la entrega de servicios y reducir los riesgos en el futuro, mientras aplican sus conocimientos recién descubiertos a los problemas actuales. Las aplicaciones y servicios que aprovechan plataformas, servicios y tecnologías nuevas e innovadores como la nube múltiple, la nube híbrida, SDN, SD-WAN y IoT, son solo tan buenos como la visibilidad que tiene el equipo de TI de una organización de toda su infraestructura de entrega.

Carlos Villanueva enfatizó que en este entorno complejo y de constante cambio surge una necesidad urgente de poder ver y analizar los flujos de tráfico para mejorar la postura empresarial corporativa y de esta manera garantizar el servicio y  la seguridad, y analizar el negocio. “Sin duda, habrá un aumento en la cantidad de datos que viajarán hacia adelante y hacia atrás en los entornos de nube híbrida y SD-WAN (Redes de área amplia definidas por software), y por lo tanto, un monitoreo y análisis continuo y escalable de los flujos de tráfico se convertirán en un aspecto crucial de una estrategia de nube híbrida exitosa”, indicó.

“Al mirar hacia el futuro, está claro que la nube seguirá siendo crucial para las agendas de los negocios. Después de todo, más de un tercio de los profesionales de TI han mencionado avanzar más rápido como su objetivo principal para este año, y para lograr esta meta, cada vez más empresas buscarán aprovechar la nube para mejorar la agilidad y flexibilidad del servicio”, finalizó Carlos Villanueva.

¿Qué tan fácil es hackear un dispositivo de IoT?

La digitalización está progresando y con ella también Internet de las Cosas, IoT. Los dispositivos inteligentes se comunican entre sí y conectan en red incluso en áreas muy sensibles, para facilitar la vida de los usuarios. Sin embargo, también tiene una desventaja, ya que en los últimos meses un gran número de ciberataques han demostrado el peligro que puede surgir de estas redes cada vez más amplias. Pero, ¿qué tan fácil es hackear un dispositivo de IoT?

En resumen: es comparativamente simple. Una vez que los ciberdelincuentes descubren dispositivos de IoT vulnerables, sólo necesitan saber cómo hackear el dispositivo, y eso es sorprendentemente rápido. La forma más fácil de ingresar un dispositivo inteligente es utilizar el método de fuerza bruta para determinar la contraseña o utilizar los datos de inicio de sesión predeterminados de fábrica. Los botnets que pueden conseguirse en lo que se denomina “la red oscura” facilitan la infección de miles de dispositivos de una sola vez. Porque está claro que muchos fabricantes usan los mismos datos de inicio de sesión estándar para todos sus dispositivos por razones de costo, en lugar de definir una contraseña diferente para cada uno.

 

¿Qué podemos aprender del pasado?

Lo primero que pensamos es que los dispositivos de IoT nunca han sido realmente seguros. Y es obvio que ciertos riesgos se intensificarán. Una de las peores amenazas en Internet de las Cosas en los últimos dos años ha sido el BotnetMirai, que infectó miles de dispositivos inteligentes al desencadenar ataques DDoS masivos usando inicios de sesión estándar.

Se ha demostrado que los productos chinos baratos, como las webcams, se encuentran entre los dispositivos de IoT más vulnerables.

La mayoría de estos son productos que únicamente deberían usarse en un entorno aislado. Desde que se publicó el código fuente de Mirai, prácticamente todo el mundo puede operar su propio botnet IoT o reescribir el código de programación arbitrariamente, por lo que han surgido numerosas mutaciones de Mirai. Otras formas de infectar un dispositivo de IoT son mucho más complejas y sólo están disponibles por un costo alto y, por lo tanto, son menos comunes. La ingeniería inversa del firmware o del sistema operativo requiere profundos conocimientos técnicos e inversiones de tiempo. Sin embargo, aquí es exactamente donde se pueden aplicar las estrategias de seguridad.

¿Qué hacer al respecto?

Una solución posible y efectiva para mejorar la seguridad en IoT sería permitir a los usuarios cambiar fácilmente los datos de inicio de sesión para sus dispositivos inteligentes. Esto sólo ayuda con los métodos más simples utilizados por los hackers, pero estos han sido y son, precisamente, los más utilizados.

Por ejemplo, los fabricantes podrían “forzar” a sus clientes a cambiar los datos de inicio de sesión de sus dispositivos haciendo que la entrada de una contraseña única y “sólida” sea un paso obligatorio en la puesta en marcha inicial del dispositivo. De hecho, cambiar los datos de inicio de sesión reduciría significativamente la cantidad de dispositivos “vulnerables” y haría que a los hackers y bots les resultara mucho más difícil ingresar a los dispositivos de IoT.

Otra de las alternativas es que los fabricantes de dispositivos IoT podrían asignar una contraseña única y generada aleatoriamente a cada dispositivo y enviarla al cliente junto con el dispositivo.

 

El problema de las contraseñas

Integrar la seguridad en los dispositivos desde el principio es más difícil y tedioso de lo esperado. Esto se aplica igualmente a los dispositivos IoT destinados a usuarios finales que a aquellos utilizados en las empresas. Por lo tanto, sería hipócrita, criticar a todos los fabricantes de dispositivos IoT.

Un ejemplo: cifrado. Existe la capacidad de cifrar datos que un dispositivo IoT recopila mientras está en el dispositivo y también cuando se envía a otro dispositivo (o se analiza en la Nube). En lo que respecta al cifrado, hay muchas recomendaciones muy buenas sobre qué algoritmos son adecuados y están disponibles con qué longitudes de clave. Además, hay varias soluciones de cifrado de código abierto. Pero es mucho más difícil proteger y administrar las claves asociadas a él, y la administración insuficiente de claves invalida todo el proceso de cifrado.

Una clave mal administrada puede inutilizar los datos cifrados, por ejemplo, si la clave utilizada para encriptar los datos en cuestión no puede estar disponible dentro del proceso de autenticación. La gran cantidad de dispositivos en IoT aumenta exponencialmente los desafíos de encriptación y administración de claves.

El punto brillante

Además, debe decirse aquí que, desafortunadamente, muchos dispositivos IoT son bastante débiles para una encriptación poderosa. Con poco espacio de almacenamiento, una buena implementación de SSL generalmente no es posible.

Los fabricantes de dispositivos IoT, especialmente para clientes finales, continuarán llevando dispositivos al mercado que están mal o nada seguros.

Es así, no hay nada que podamos hacer al respecto. Sin embargo, la conciencia de la seguridad del consumidor está creciendo (aunque aún no es lo suficientemente fuerte como para cambiar el comportamiento de compra). Las características más geniales y un precio asequible siguen siendo los factores decisivos para comprar este tipo de dispositivos.

Por primera vez, Amazon Echo y Google Home se encuentran en la parte superior de la lista de deseos de los consumidores conocedores de la tecnología. Por otro lado, existe un pequeño pero creciente grupo de consumidores que tienen serias dudas sobre la seguridad de estos productos. Especialmente con dispositivos que escuchan casi todo lo que se habla dentro de su rango. Las primeras grandes olas de ataques, como el BotnetMirai, han atraído la atención de expertos en seguridad.

El consumidor promedio aún no es consciente del alcance de este tipo de ataques. Sin embargo, la presión sobre los fabricantes está creciendo y con ella la demanda de mejores medidas de seguridad y protección de datos.

 

Por David Montoya, Director de Canales de Paessler Latinoamérica.

Cinco beneficios de la emulación y virtualización de sistemas legacy

La emulación y virtualización se han convertido en una real opción para aquellas organizaciones que necesitan comenzar con un proceso de transformación digital pero se encuentran con el obstáculo de aún contar con aplicaciones clásicas legacy y no pueden asumir el riesgo de reinventar la lógica de negocios en una migración de software.

De acuerdo con IDC, en el primer semestre de 2017, el mercado global de servicios en nube pública creció 28.6% en comparación con el mismo período de 2016, con un total de 63.200 millones de dólares. Y para 2018, se pronosticó un crecimiento del 40% en inversiones para soluciones en nube en América Latina.

Eduardo Serrat, Director de Tecnología de Stromasys, nos comparte cinco beneficios que ofrece la emulación y virtualización de los sistemas legacy y destaca como estas soluciones han evolucionado en las últimas décadas y se han adaptado a las nuevas tecnologías.

  1. Reducción del costo: las soluciones de emulación y vitualización tienen un bajo costo durante la migración total y, por lo general, el valor es menor que el costo del soporte de hardware clásico “legacy”.
  2. Reducción de riesgo: elimina el riesgo de tiempo de inactividad no planificado.
  3. Ahorro de energía: la reducción sustancial del consumo de energía reduce el impacto medioambiental de la empresa.
  4. Reducción de espacio físico y disipación de calor asociado a los sistemas clásico, “legacy”.
  5. Protección de la inversión: las aplicaciones seguirán funcionando sin cambios en una plataforma moderna, garantizando la continuidad de los negocios.

 

 

¿Cómo una Pyme puede recuperar el ritmo de su empresa tras un Sismo?

Emergency Management Forum, afirma que de cada 100 empresas que afrontan un desastre sin contar con un Plan de Continuidad de Negocio (BCP), el 43% nunca reabre su negocio y desaparece del mercado, el 51% cierra en menos de 2 años y solo el 6% sobrevive a largo plazo. Aunque es más alarmante la falta de prevención empresarial en el país, ya que solo el 27% de las organizaciones mexicanas cuentan con un plan de recuperación de desastres.

Debido a estas alarmantes cifras, se vuelve necesario contar con herramientas que le permitan a las empresas y negocios, volver a la operación parcial o total lo antes posible, disminuyendo el impacto en sus procesos de negocios y reduciendo las pérdidas de recursos.

Un plan de continuidad de negocio es un conjunto de procesos y procedimientos para actuar antes, durante y después de un evento o catástrofe que interrumpa la operación habitual de la empresa o negocio. Pensando en ello, Diego Martínez de Velasco, Coordinador del Centro de Emprendimiento y Desarrollo Empresarial (CEDE) de la Universidad Iberoamericana, nos brinda algunos pasos que toda PYME debe seguir para poner en marcha nuevamente a sus empresas después de una catástrofe, como el ocurrido el año pasado el 19 de Septiembre:

  1. Prevención: Es común que los emprendedores no cuenten con un seguro de gastos que cubra desastres naturales, humanos o tecnológicos como: robos, inundaciones, pérdida de información, incendios, sismos, entre otros. Sin embargo, contar con este sustento, ayudará a evitar deudas para recuperar lo perdido, o bien, cerrar por no poder continuar con el funcionamiento del negocio.

 

  1. Manejo de crisis: A veces pensar con la cabeza fría puede ser lo más asertivo, sin embargo, la vida laboral incluye situaciones en las que debemos manejar el estrés, los nervios y saber actuar antes una catástrofe; por ello, tener planes de contingencia, saber qué hacer, qué decir en el momento indicado, te puede ayudar a mantener la calma y claro, hasta salvar vidas.

 

  1. Evalúa daños y pérdidas. Posterior a la catástrofe, deberás revisar si es seguro entrar a tu negocio, si te es posible, deberás realizar una limpieza profunda, lo que te permitirá enlistar lo que se ha afectado y perdido. Así tendrás claro el monto de reinversión que se necesita para que el comercio vuelva a producir.

 

  1. Línea de crédito. En caso de requerir un financiamiento externo, buscar la mejor alternativa. Evaluar a las financieras que ofrezcan mejores tasas de interés mediante programas dirigidos a negocios afectados por emergencias.

 

  1. Recuperación de información: La recuperación debe incluir garantizar la disponibilidad de redes, aplicaciones y datos.  Esto ayudará a apoyar la continuidad empresarial, incluyendo trabajar desde el hogar. Una buena alternativa para lograrlo es realizar respaldos de la información periódicamente, así la mantendrás actualizada y no solo, en un mismo lugar.

 

  1. Reanuda actividades. En este tipo de situación, es bueno que trates de buscar alternativas que puedan ayudarte a solucionar problemas inmediatos, pues mientras más pronto reanudes actividades, más rápido se logrará la recuperación y retomarás tu ritmo habitual en menos tiempo.

 

Para finalizar, hoy en día es muy importante prevenir, por lo que proteger una empresa de un desastre ya no es un lujo, sino una necesidad estratégica para que estés preparado en cualquier situación.

Datos Maestros: La clave hacia la Transformación Digital

Vivimos en una era donde diariamente generamos y recibimos información. Cuando entramos a internet, al adquirir un servicio, comprando en línea, descargando aplicaciones, etc. Tiene sentido que, tras una compra o alguna consulta de un producto, nos aparezcan banners de artículos similares al que acabamos de adquirir o ver, ya que todas nuestras actividades son fuentes de información para las empresas.

De acuerdo con el informe Master Data Managment Landscape de The Informations Difference, el 25% de las organizaciones tiene 15 o más repositorios de información, lo que da paso a tener datos dispares y duplicados, entorpeciendo la óptima administración y control en los procesos. Hoy en día, las empresas están descubriendo nuevas ventajas competitivas a través del uso eficiente y el análisis avanzado de la información.

Puede usar datos de alta calidad de manera más efectiva para optimizar las operaciones y la ejecución de procesos comerciales, reduciendo costos, aumentando los ingresos y mejorando la competitividad.

La misión principal de la Gestión de Datos Maestros (MDM por sus siglas en inglés), es conectar y compartir datos de todos los sistemas, para proporcionar una administración eficiente de los datos maestros del cliente y del producto, permitiendo crear una vista 360 grados.

Según la consultora IDC, en 2017, las empresas alrededor del mundo invirtieron aproximadamente $1.2 billones de dólares en transformación digital, lo cual quiere decir que, en medio de la cuarta revolución industrial, las empresas deben apostar por considerar los datos que generan como su principal activo, con el fin de mejorar la experiencia de sus clientes y tener un enfoque estratégico en cuanto a producto, servicio y venta.

Según Stibo Systems, es importante que las empresas puedan aprovechar la información que generan, y así logren incorporarse con mayor celeridad a la transformación digital, mejorando sus indicadores y su capacidad productiva. De manera que, puedan posicionarse de inmediato entre los líderes de mercado, ganando oportunidad para innovar en sus diferentes categorías.

Con una gestión eficiente de los datos maestros, las empresas podrán obtener una única vista de la información. Además de acelerar el tiempo de comercialización, al incorporar nuevos productos y servicios mientras se simplifica el ciclo de vida del producto; reducir el riesgo, ya que, al eliminar los datos duplicados y procesos propensos a errores, se garantiza el cumplimiento de las normas y estándares de la industria, utilizando historiales de registros precisos.

La información archivada a la cual no se pueda acceder fácilmente, pierde valor. Por el contrario, el material valioso con una gestión eficiente permite un mejor aprovechamiento por parte de la empresa para plantear estrategias encaminadas a la transformación digital.

Google y Harvard predicen réplicas de sismos con ayuda de IA

Los sismos suelen traer consigo una multitud de réplicas que normalmente aumentan el daño ocasionado a las comunidades afectadas. La investigadora de Harvard, Phoebe DeVries, colaboró con Google en un estudio para aplicar la inteligencia artificial a la predicción de réplicas de terremotos.

“Hemos colaborado con los expertos en machine learning de Google para ver si podríamos aplicar aprendizaje profundo para determinar dónde podrían producirse las réplicas y con lo averiguado publicaremos un estudio. Pero primero hablaremos de los antecedentes: comenzamos con una base de datos con información de más de 118 terremotos importantes de todo el mundo” explicó la investigadora.

A partir de esos datos, se aplica una red neuronal para analizar la relación entre los cambios de estrés estático causados por las ubicaciones del sismo inicial y las réplicas. El resultado final fue un modelo notablemente mejorado de predicción de las ubicaciones de las réplicas.

Los investigadores confían en que en un futuro próximo se pueda aplicar este sistema y así ayudar a desplegar servicios de emergencias y evacuar zonas en riesgo de réplica.

Aunque de momento aún es impreciso, si supone un avance enorme con respecto a las técnicas clásicas.

Además de los resultados esperados, el estudio también ofreció un resultado inesperado: ayudar a comprender mejor la causa de los terremotos, no solo de las réplicas. “Al aplicar redes neuronales al conjunto de datos, pudimos observar de cerca los factores concretos que considera importante o útiles para esa predicción, en vez de solo tomar los resultados de las predicciones tal cual” explican los investigadores.

Esto abre nuevas posibilidades a teorías físicas que permitan comprender mejor este fenómeno de la naturaleza.

 

IDG.es

[Video] México, con potencial para ser semillero de DevOps

Digital OnUs celebró su tercer aniversario en México, en entrevista para CIO México, su Director General Suri Chawla, nos platicó el potencial que encontró en los jóvenes mexicanos, los cuales muestran grandes capacidades para desarrollar además de gran ánimo por seguir capacitándose en la empresa.

Por su parte la directora de Digital OnUs en México, Viridiana de la Garza, destacó el papel de la mujer en en área de TI, ya que muchas mujeres están colocándose en puestos importantes dentro de las organizaciones.