Categoría: Administración de datos

Falsificación, robo de divisas y criptojacking: el nuevo reto de las criptomonedas

Las criptomonedas se han convertido en una divisa rentable por su capacidad de acabar con el pago de intermediarios como lo son instituciones financieras o servicios de Paypal; sin embargo, implican al menos tres tipos de fraude que Sabas Casas, VP para América Latina de S21sec, insta a evitar tanto a usuarios de criptomonedas como a las empresas en general:

Exchanges de criptomonedas fraudulentos

Existen ciberdelincuentes que se aprovechan de la inexperiencia de las personas, y aunque resulta tan sencillo y lucrativo como abrir y cerrar una página web, también es muy fácil detectar a estos defraudadores que a menudo ofrecen una atractiva ganancia, cuanto mayor sea la rentabilidad mayor es la alerta que debe tomar. “Informarse y consultar los organismos internacionales que constantemente publican exchanges de criptomonedas fraudulentas es fundamental para no ser víctima de la ciberdelincuencia”, asevera Sabas Casas.

Ecosistemas vulnerables

El robo de criptomonedas es una posibilidad cuando el ecosistema donde se almacenan las divisas es endeble, mantenerlas en dispositivos que no estén conectados a internet o en un exchange que garantice la seguridad de los activos, incluso en caso de un ciberataque, es una medida obligada para los propietarios de estas monedas virtuales.

Cryptojacking al acecho de las empresas

Para generar nuevas criptomonedas se necesita mucho poder de cómputo, ésta es la causa por la que organizaciones criminales introducen botnets en los servidores empresariales, para aprovechar la capacidad de sus sistemas de cómputo.

Es así como la minería de criptodivisas se ha convertido en el nuevo ransomware de las empresas, al asegurar que las ganancias económicas permanecen por debajo del radar, mientras que los cibercriminales pueden mantener el control de los equipos infectados durante largos periodos de tiempo.

“Si esto pasa con un servidor no pasa nada, pero si lo hacen con toda la red de una empresa, ocurre un grave daño”, asegura el VP de S21sec.

Los riesgos anteriores no tienen que ver con la tecnología blockchain, sino con el ecosistema de la criptomoneda, y esto es una excelente noticia para quienes decidan comprar o generar criptomonedas, aunque Sabas Casas recomienda a los futuros compradores que “antes de invertir se informen y jueguen con demos,de tal manera que puedan analizar cuáles son las variaciones y cómo funciona el ecosistema”.

 

Cómo frenar el crecimiento de los ciberfraudes en México

El aumento considerable de los ciberfraudes realizados con tarjetas de crédito y débito en México se deben principalmente a la falta de una estrategia de seguridad contundente basada en riesgos y en la aplicación de controles tecnológicos para blindar las transacciones que se realizan, como puede ser el uso de blockchain o controles de identidad, como los ocupados en negocios que realizan comercio electrónico en nuestro país.

De acuerdo con Alejandra Pineda, Consultora Comercial de Gobierno, Riesgo y Cumplimiento de Optimiti Network, “otro de los muchos puntos a considerar es la vorágine que existe de ganar mercado y liberar aplicaciones con desarrollo de software no seguro propias y de terceros”, advierte.

Según datos de la Condusef, en el primer trimestre de 2018, el monto de los fraudes cibernéticos ascendió a 2,340 millones de pesos, lo cual significa un crecimiento de 63% respecto al mismo periodo de 2017 y representan cada año una mayor proporción del total de fraudes realizados, al pasar del 13% en 2013 al 61% en 2018.

“Basándonos en la triada de la seguridad Disponibilidad, Confidencialidad e Integridad, para Optimiti Network es impensable el descuido de los tres pilares de una organización, es la razón de la explosión del ciberfraude.”

Tecnología. Es vital que  los responsables de la seguridad de la información inviertan en este rubro, y al mismo tiempo es indispensable alinear los objetivos estratégicos de la organización con la seguridad de la información y lograr ser proactivos a cualquier amenaza. Las inversiones no sólo deben ser económicas, sino también en el esfuerzo de la recuperación de los valores, la ética y lo correcto.

Procesos. Los de carácter crítico deben monitorearse al máximo y mantenerse bajo una estricta calidad, apoyados en las mejores prácticas que sustenten su integridad. Los procesos de soporte hoy se vuelven un blanco atractivo para aquellos que desean comprometer información importante de las empresas, por lo que deben estar vigilados de igual forma.

Gente. Como uno de los pilares de la organización, la Estrategia de Concientización es clave, pues sin ello no hay forma de alinear a los otros dos pilares y descubrir el fraude interno que hoy rebasa lo inimaginable.

A través de la ingeniería social, concientización, campañas permanentes y la evaluación y medición de estos elementos, se puede empezar a mitigar el riesgo.

Los datos de la Condusef señalan que en los primeros tres meses del año en curso se efectuaron 1 millón 40 mil 910 fraudes cibernéticos, 250% más de los que se suscitaron en todo 2016. Hoy día los fraudes tradicionales representan sólo el 39% del total de estos ilícitos.

El documento de la Condusef admite que los fraudes originados en comercio electrónico con tarjeta de crédito y débito ocupan 49% de total de las reclamaciones en el sector bancario nacional. De enero a septiembre de 2017, se registraron 4.8 millones de reclamaciones por fraude con tarjeta de crédito y débito,  28% más que en 2016, cuando sumaron 3.7 millones.

Alejandra Pineda, Consultora Comercial de Gobierno, Riesgo y Cumplimiento de Optimiti Network

El comercio electrónico puede y debe garantizar la mitigación del riesgo de una forma más contundente”, asegura Alejandra Pineda. “Estos números revelan el claro ejemplo de que es más fácil atacar al individuo que a la institución. La analítica de comportamiento es básica para las empresas. Para Optimiti la estrategia de concientización se debe permear de manera permanente a los clientes con la finalidad de que conozcan, se informen y participen en la protección de su identidad; pero esto no será suficiente si las instituciones omiten la analítica”.

La consecuencia de este fenómeno es que los negocios son estafados por cibercriminales, pues a la hora de querer hacer efectivo el cobro de esas ventas, el banco emisor niega el pago y sufren cuantiosas pérdidas. La Asociación de Bancos de México reportó recientemente que los fraudes con tarjetas de débito o crédito han experimentado un explosivo crecimiento en todo el mundo, y en particular en nuestro país representan pérdidas por más de 700 millones de pesos al año.

“Aquí hay una doble responsabilidad –señala la Consultora Comercial–, ya que mediante la analítica de comportamiento el banco puede reconocer de una forma más contundente el fraude electrónico y mantener alertas para que el merchant pueda disminuir la probabilidad del fraude.

“Por otro lado, el merchant no tendría la problemática de la cobranza si fuera alertado por la institución financiera. Pero como la banca no es la afectada, no está invirtiendo en estas soluciones, las cuales se basan en patrones de compra que podrían disparar acciones contundentes en la reducción de fraude electrónico”, establece la especialista.

Adicional a lo anterior hay estrategias relacionadas con UEBA (User and Entity Behavior Analytics) que permiten analizar a los usuarios y sus patrones de comportamiento. “De esta manera, se puede crear un perfil de los hábitos de estos y detectar más rápidamente una anomalía y frustrar una amenaza potencial.
La supervisión del comportamiento del usuario y un análisis enfocado sobre los mismos, hacen que sea más fácil obtener una postura de detección y prevención del fraude en tiempo real”, finalizó Alejandra Pineda.

 

20th Century Fox usa IA para predecir quién verá una película

Para poder determinar cuáles son los mejores avances que deben mostrarse antes de una película específica, los investigadores del estudio 20th Century Fox desarrollaron un modelo de aprendizaje profundo para predecir el público con más probabilidades para ver una película, basado en los avances.

El sistema, que extrae características como el color, la iluminación, las caras, los objetos y los paisajes, logra predecir de forma precisa el tipo y la cantidad de público para las películas existentes y futuras.

Esta es la primera vez que un estudio de cine usó el aprendizaje profundo para predecir los intereses de los clientes a partir del avance de una película, indicó la empresa.

“Los avances de video son el elemento más importante de las campañas de marketing para las películas en estreno”, indicaron los investigadores de Fox en su documento. “Estos aumentan el conocimiento entre el público en general que asiste a las películas, comunican la trama de la película, presentan a los personajes principales y revelan pistas importantes sobre la historia, el tono y las elecciones cinematográficas”.

Mediante las GPU NVIDIA Tesla P100 en Google Cloud, con el marco de trabajo de aprendizaje profundo TensorFlow acelerador por cuDNN, los investigadores capacitaron su red neural convolucional con cientos de avances de películas en los últimos años y millones de registros de asistencia.

Para la inferencia, el equipo usa las mismas GPU que usó para la capacitación.

“Al encontrar una representación apta para todas estas características e incorporarlas a un modelo que tiene acceso a los registros históricos de asistencia a las películas, es posible detectar asociaciones no triviales entre las características de los avances de películas y las elecciones del público después del lanzamiento de una película en cines o en servicios de transmisión”, indicaron los investigadores.

“La red neural tiene el potencial para ayudar a los productores y ejecutivos de cine a tomar decisiones en el mundo real en las diferentes etapas de una campaña de marketing”, indicaron los investigadores.

Esta es la descripción general del modelo de recomendación híbrido de video Merlin. Una capa de regresión logística combina un modelo CF basado en la distancia con la frecuencia del usuario y la novedad de producir la probabilidad de asistencia a las películas. El modelo se capacitó de principio a fin, y la pérdida de la regresión logística se propaga de forma retroactiva a todos los componentes que se pueden capacitar.

En un próximo trabajo, los investigadores se concentrarán en desarrollar un sistema que use funciones de texto y de video para predecir el éxito de una película.

SAS impulsa el perfil del Científico de Datos

Impulsar el talento analítico es uno de los objetivos primarios de SAS, por ello anuncia una alianza con el Instituto Internacional de Ciencias de Datos se compartirá conocimiento con las nuevas generaciones de Científicos de Datos (CDO, por sus siglas en inglés).

Hoy en día los datos son considerados el activo más valioso de una empresa, especialmente ante la creciente necesidad por adoptar tecnologías que impulsen la innovación empresarial, como el Internet de las Cosas, la nube, movilidad, redes sociales e incluso, la Inteligencia Artificial, por lo que el perfil profesional del “Científico de Datos” ha sido nombrado por Harvard Business Review como “el trabajo más demandado del siglo XXI”, el cual toma un mayor impulso en todo el mundo.

En México, el Instituto Internacional de Ciencias de Datos busca ofrecer mejores decisiones a la sociedad, a través del desarrollo de especialistas en este campo. Por ello, SAS anunció la firma de un acuerdo con la institución para apoyar la generación de acciones y compartir conocimiento que enriquezca la evolución de los científicos de datos.

“Nuestro objetivo principal es fortalecer con ciencia y con datos a los tomadores de decisiones, por lo que apoyarnos de expertos permitirá abrir el espectro de conocimiento, investigación y desarrollo de la comunidad del instituto”, comentó Víctor Barrera, director del Instituto Internacional de Ciencias de Datos.

Con esta alianza, se busca promover e impulsar foros y conocimiento para la comunidad de la ciencia de datos, para asegurar que estén mejor calificados, preparados y actualizados.

Otro de los objetivos es que el Científico de Datos pueda enfrentar la resolución de problemas importantes de la sociedad basada en datos, ya sea para los fines de lucro o sin lucro, ya que la democracia en los datos permitirá a la sociedad mexicana tomar ventaja del activo más valioso: los datos.

 

¿Por qué es importante aumentar la visibilidad en dispositivos IoT?

Las empresas están aprovechando la tecnología, como IoT, para obtener una ventaja competitiva y la transformación digital actual ha llevado a una expansión de la red sin precedentes. Esta mayor complejidad puede dar como resultado la pérdida de visibilidad de nuevos vectores de ataque y exploits dirigidos a dispositivos y servicios que se ejecutan en las redes empresariales.

Las redes modernas se han vuelto accesibles para una gran cantidad de puntos terminales, incluyendo dispositivos de usuarios y dispositivos inteligentes conectados (IoT) que acceden a los recursos corporativos.

Además, muchos de estos puntos terminales pueden no ser 100% propiedad de la empresa y controlados por ella. En el caso de los dispositivos IoT, incluso aquellos que son propiedad de las compañías, es posible que TI no tenga control sobre su firmware, lo que complica el desafío de rastrear sus niveles de seguridad o el cumplimiento de las políticas de seguridad corporativas.

El crecimiento tanto en volumen como en sofisticación de los dispositivos que acceden a los recursos corporativos exige en uso de un mayor porcentaje del ancho de banda total de la red y esta tendencia solo continuará, ya que se prevé que unos 125 mil millones de dispositivos conectados serán utilizados para el 2030. Como resultado, los dispositivos conectados se han convertido en un objetivo principal para los ciberdelincuentes, que infectan dispositivos IoT y puntos terminales con malware diseñado para evadir la detección y luego se mueven lateralmente a través de la red.

 

Mitigando la amenaza del punto terminal

Para garantizar que estos dispositivos conectados sean identificados y contabilizados desde la perspectiva del riesgo, los equipos de TI deben implementar controles de seguridad que les permitan descubrirlos, evaluarlos y monitorearlos continuamente dentro del contexto de seguridad de la red. Obtener suficiente visibilidad en cada punto terminal debe hacerse en varias etapas, cada una de las cuales proporciona información diferente:

  • Descubrimiento: durante esta fase inicial, las organizaciones deben determinar las características clave de identificación de la red, incluyendo a todos los usuarios finales conectados y a los dispositivos IoT. Esto implica conocer a todas las personas que tienen acceso a la red, los tipos de dispositivos que están conectados, los sistemas operativos y el software que están instalados, y cualquier vulnerabilidad sin parches. Y este proceso debe ser continuo, ya que la naturaleza altamente móvil y a menudo temporal del punto terminal y los dispositivos virtuales hace que el panorama de amenazas cambie constantemente.
  • Evaluación: la inteligencia sobre amenazas y dispositivos recopilada desde el momento del acceso debe permitir a las organizaciones determinar automáticamente el nivel de seguridad de un dispositivo, los riesgos planteados por ese punto terminal y las amenazas adicionales asociados que pueden surgir al conectarse, utilizando una matriz de calificación de riesgos. A partir de ahí, los equipos pueden determinar cómo remediar esos riegos.
  • Monitoreo continuo: una vez que se mitigan las amenazas identificadas inicialmente, los puntos terminales deben monitorearse continuamente para garantizar que continúen cumpliendo con los requisitos de seguridad y que no se infecten. Esto incluye compilar y compartir la inteligencia de amenazas de cada dispositivo con el resto de los controles de seguridad de la red para agregar una capa adicional de protección y una respuesta a través de la red distribuida.

A medida que las redes continúan inundadas con dispositivos conectados, requieren controles de punto terminal que se pueden integrar automáticamente con otras soluciones de seguridad implementadas en la red para compartir de manera efectiva la inteligencia y maximizar la protección. Estas capacidades serán cada vez más cruciales mientras adoptemos la próxima generación de controles de punto terminal.

Las organizaciones no pueden protegerse contra las amenazas a los puntos terminales y dispositivos IoT sin una clara visibilidad de lo que está presente exactamente en la red. La implementación de una solución de seguridad integrada y automatizada permite que los equipos de TI descubran.

 

Fortinet.

Calor y lluvias, un desafío para la transformación digital del Centro de Datos

Las empresas están invirtiendo en su innovación para alcanzar la transformación digital. En el centro de datos, esto se traduce en la necesidad de contar con una estrategia que les permita mantener la capacidad de desarrollar y dar soporte a los nuevos servicios digitales que las unidades de negocio requieren, con agilidad y eficiencia.

La llegada de nuevas tecnologías marca la pauta de esta evolución, centrada en la nube híbrida. Por un lado, este modelo se asocia a una mayor complejidad, ya que es preciso realizar la integración y gestión del ecosistema diverso, y por otro las organizaciones también necesitan proveer a sus centros de datos con una mayor automatización, flexibilidad e hiper disponibilidad.

Según IDC, este año se prevé un incremento de 18% en la inversión en sistemas convergentes e hiper convergentes en el centro de datos, los cuales les permiten conformar el ambiente idóneo.

Sin embargo, todo lo anterior es inservible si el data center sigue presentando interrupciones no planificadas, mismas que obstaculizan la hiper disponibilidad, base de la transformación digital.

Las altas temperaturas y las fuertes lluvias que tienen lugar durante primavera y verano dificultan el escenario. El calor favorece el sobrecalentamiento de los equipos; los servidores pueden llegar a apagarse por razones de seguridad y los procesadores aceleran su velocidad para brindar el rendimiento esperado. Igualmente, la humedad que aumenta en temporada de lluvias puede ocasionar afectación en el funcionamiento del centro de datos e, incluso, daño permanente en la infraestructura.

De acuerdo con el Reporte de Disponibilidad 2017 de Veeam, en México las brechas de disponibilidad ocasionan costos por $427.4 millones de pesos a las empresas, y 7 de cada 10 consideran que el costo por hora de tiempo inactivo se incrementará en los próximos años.

A ello se suman, por supuesto, afectaciones como pérdida de confianza de los clientes (con 77% de respuestas de los encuestados por Veeam), daños a la integridad de la marca (47%) y pérdida de confianza de los empleados (40%).

Pero no son los únicos retos que enfrentan las áreas de TI con relación a sus centros de datos. Según indica IDC, los cambios tecnológicos y de negocios que han tenido lugar en los últimos años ejercen una gran presión en los modelos tradicionales, por lo que es urgente su modernización. Para la firma analista, la edad es uno de los desafíos principales, puntualizando que el promedio de caídas en instalaciones con 5 años de antigüedad es el doble del que se produce en los que tienen de 1 a 3 años. Expone también que en la era actual los centros de datos deben garantizar mayor agilidad, menores tiempos de planificación y reducción de riesgos, ante el hecho de que las cargas de energía van en aumento y la demanda de espacio, capacidad e infraestructura son imprescindibles y varían rápidamente.

Así que son tiempos de cambio. Por un lado, ante la posibilidad de condiciones climáticas adversas o eventualidades diversas, las organizaciones deben asegurar que sus instalaciones se encuentran protegidas y cuentan con una continuidad de las operaciones garantizada. Y, por otro lado, en el ambiente digital actual, dominado por altas exigencias en torno a velocidad y capacidad de respuesta, las soluciones tradicionales de respaldo y recuperación ya no son suficientes.

Para alcanzar la hiper disponibilidad, es imprescindible contar con un manejo inteligente de datos, aplicaciones e infraestructura, el cual maximiza la agilidad y eficiencia del centro de datos y brinda mayor tolerancia a fallas.

 

Por: Carlos Ramírez,

Ingeniero de Sistemas,

Veeam México.

Google lanza mejoras para su plataforma en la nube y G Suite

Google anunció esta semana el aumento de la apuesta por Kubernetes como estándar de la industria, la importancia del código abierto para los desarrolladores con herramientas como Cloud Build y el anuncio de Istio, una malla de servicios open source que ofrece a los operadores los controles que necesitan para gestionar microservicios a escala, la computación híbrida, o herramientas de operaciones como Stackdriver Service Monitoring.

En la organización creen firmemente que el mejor camino hacia las aplicaciones bien gestionadas son los contenedores y los microservicios. “Por ello, hoy estamos entusiasmados por traer la misma experiencia de gestión del Motor Kubernetes a su infraestructura en instalaciones. GKE On-Prem pronto estará en alpha y es el Kubernetes configurado por Google para desplegar en el entorno de la elección del usuario”, comentó Urz Höle, vicepresidente senior de infraestructura técnica de la compañía.

Asimismo, Stackdriver Service Monitoring trata de sentar las bases para mejorar las operaciones de los servicios, proporcionando a los administradores una visión centrada en los servicios de la infraestructura, en lugar de vistas de infraestructura de los servicios.

Además, y bajo el mantra de que los microservicios ofrecen a las organizaciones una forma sencilla y conveniente para acelerar el traslado de cargas de trabajo a la nube, estos rápidamente cruzan la línea y se convierten en API. De este modo, API Apigee trata de ampliar la gestión de API de forma nativa a la pila de microservicios.

 

Novedades en G Suite

Los grandes cambios de la plataforma de  productividad de Google se basan en la seguridad. “Con G Suite se logra evitar casi el 100% de los ataques de phishing spam”, al menos así lo aseguró Diane Greene, CEO de Google Cloud. La firma ha añadido una herramienta de investigación en el centro de seguridad que añade soluciones integradas a las capacidades de prevención y detección del mismo centro.

Los administradores pueden identificar qué usuarios están potencialmente infectados, ver si se ha compartido algo externamente y eliminar el acceso a los archivos de la unidad o eliminar correo electrónicos maliciosos. Además, también añade soporte para regiones de datos en Estados Unidos o en Europa.

Asimismo, Google también ha añadido funcionalidades de inteligencia artificial mediante la redacción inteligente, sugerencias gramaticales en Google Docs, comandos de voz en Hangouts Meet hardware y respuestas inteligentes en Hangouts Chat.

 

IDG.es

Fortinet amplia su solución Security Fabric en Google Cloud

Fortinet anunció que extiende su solución Security Fabric a la plataforma Google Cloud, permitiendo a los clientes proteger mejor toda la superficie de ataque en los entornos de nube híbrida.

“A medida que las infraestructuras empresariales evolucionan e incorporan a la nube, las organizaciones deben asegurarse que sus plataformas de seguridad elegidas puedan avanzar con ellas. Fortinet garantiza que los clientes de Google Cloud Platform tengan acceso completo a Fortinet Security Fabric, lo que brinda flexibilidad a los arquitectos de seguridad sobre dónde y cuándo quieren implementar controles de seguridad ” explica John Maddison, vicepresidente de productos y soluciones de la compañía.

La ampliación ofrece mejoras como la incorporación de FortiManager, FortiAnalyzer y FortiWeb a Google Cloud Platform,  ofreciendo así una amplia gama de soluciones de seguridad dentro de la plataforma de Google. También están disponibles ya en Google Cloud Platform los Fabric Connectors, permitiendo a las organizaciones aplicar políticas consistentes en múltiples instancias con integración con un solo clic. Además todas las ofertas de seguridad de Fortinet se integran fácilmente ya sea en las instalaciones del cliente o en la nube, lo que facilita a los clientes extender la protección en múltiples entornos. La combinación de FortiGate y FortiWeb brinda a los clientes la capacidad de proteger su implementación de infraestructura en la nube y las aplicaciones web a través de un conjunto unificado de políticas, adoptando una postura de seguridad completa y con menor margen a errores humanos.

La transformación digital en las organizaciones conlleva la migración de sus cargas de trabajo de sus instalaciones a la infraestructura en la nube pública con el objetivo de aprovechar los beneficios de la agilidad y el escalado.

Para ayudar a los clientes a seguir el ritmo de la transformación digital y dar respuesta a los desafíos de la migración de la carga de trabajo, Fortinet ha ampliado sus ofertas de Security Fabric y Fabric Connectors en Google Cloud Platform. Ahora las organizaciones pueden comprar instancias virtuales de FortiManager y FortiAnalyzer para la seguridad NOC-SOC y FortiWeb Web Application Firewall, además de FortiGate Next-Generation Firewall.

 

Cristina Cueto García

Nube para la innovación: Más allá de la simple infraestructura

Imagina el concepto de un auto conectado. Entras en tu automóvil por la mañana para ir a trabajar; a medida que te acercas a ciertas direcciones, el panel te recuerda algunas tareas como cargar gasolina, buscar la ropa en la tintorería o ir al supermercado. Dentro del auto, hay varios dispositivos conectados que están en todo momento capturando datos y analizando el funcionamiento de los sistemas mecánico y eléctrico, generando advertencias para los requisitos de mantenimiento de rutina.

Hoy en día, los coches son centros de datos móviles, con sensores y computadoras que capturan información en tiempo real sobre el vehículo. Esos datos son transmitidos (también en tiempo real) hacia la nube. Utilizando nuevas capacidades de inteligencia artificial, con plataformas inteligentes que son entrenadas para analizar la información de las diferentes partes del auto y reconocer cuando algo está fuera de los estándares.

De esta forma, el mantenimiento preventivo y remoto ahorra tiempo y dinero, mientras la conexión del sistema del auto con las preferencias personales y la rutina del conductor brindan una experiencia personalizada. Esta es la nube de hoy.

Probablemente muchos aún piensan en la nube como una forma de obtener servicios tecnológicos económicos, escalables y flexibles, pero en realidad, existen ventajas mucho más grandes.

 

Evolucionando la relación de la nube con los negocios

Las plataformas en la nube han evolucionado en los últimos años y el 2017 fue un punto de inflexión en este aspecto. Las empresas han estado adoptando plataformas en nube rápidamente para crear nuevas formas de impulsar sus resultados financieros a partir de su información.

Cerca del 80% de los datos del mundo están indescifrables y encerrados dentro de las paredes de las compañías, así que la verdadera ventaja competitiva la tendrán los negocios que sepan explorar innovaciones habilitadas por el conjunto ideal de nubes – ya sea pública, privada o ambas – para modernizar y ampliar sus propias capacidades.

Los grandes impulsores de este cambio son los negocios que quieren sacar jugo de los beneficios que brinda la inteligencia artificial a través de la nube. Por otro lado, también estamos presenciando una creciente demanda de instituciones que buscan evolucionar sus negocios implementando tecnologías disruptivas como blockchain para el manejo de transacciones.

Un ejemplo de esto, aterrizado en México, es la Asociación Mexicana de Instituciones de Seguros (AMIS), quienes están desarrollando un prototipo de blockchain para ayudar a asegurar la autenticidad de las pólizas de seguros. Al implementar esta solución, se cuenta con una única fuente de información inalterable y auditable que favorece a asociados, usuarios del seguro y autoridades. Para tener certeza de que las pólizas vehiculares son auténticas y que se encuentran vigentes, las transacciones están basadas en tecnología open source, lo que otorga más seguridad y confianza.

En muy breve también será posible apalancar los beneficios de otra tecnología disruptiva en la nube: el cómputo cuántico. En lo personal, creo que el futuro pasa por el cómputo cuántico, ya que podrá solventar algunos problemas que hoy en día son imposibles de resolver y estar en la nube significa ampliar el acceso de este servicio a investigadores y desarrolladores.

Los negocios necesitan comenzar a mirar la nube como algo más que un nuevo lugar para ejecutar aplicaciones de forma más económica. La nube está en el corazón de la reinvención digital de las empresas, de la industria y la sociedad y es un hecho que en esta era de la data es imprescindible orquestar nubes múltiples para tener la mezcla ideal de innovación.

 

 

Por: María Rosa Casillas,

Directora de Cloud,

IBM México.

Facebook, Google, Microsoft y Twitter lanzan proyecto de transferencia de datos

Denominado Data Transfer Project (DTP), la idea comenzó a moldearse el año pasado, aunque no ha sido hasta ahora cuando se dio luz verde para ponerlo en marcha. Además, como anuncian todos ellos, el proyecto DTP abre sus puertas a la incorporación de nuevos socios y miembros con el fin de ampliarlo a todas las marcas y organizaciones que operan en la red.

El fin del proyecto DTP no es otro que permitir la transferencia de los datos de los usuarios y mejorar la portabilidad de los mismos, de manera que puedan ser descargados o transferidos directamente de un servicio a otro con las garantías de que sean interpretados.

Parte de esta iniciativa surge de algunas de las implicaciones que tiene el cumplimiento de la normativa de GDPR aprobada por la Unión Europea pero aplicable en la mayoría de los lugares del mundo, y que entró en vigor el pasado 25 de mayo, mediante el cual, los ciudadanos pueden solicitar y lograr que sus datos personales sean eliminados cuando, entre otros casos, estos ya no sean necesarios para la finalidad con la que fueron recolectados, cuando se haya retirado el consentimiento o cuando estos se hayan recogido de forma ilícita.

La puesta en marcha de un proyecto de este tipo para construir una API con el propósito de compartir datos llega en un momento en el que para determinadas compañías resulta clave reforzar su política de transparencia.

Todos recordamos los acontecimientos que han marcado la primera mitad de año de Facebook y su escándalo con Cambridge Analytica, con multas asociadas. Google también se ha visto afectado días atrás tras hacerse público como los desarrolladores de terceras marcas pueden llegar a tener acceso a los mensajes de Gmail de los usuarios debido al código fuente compartido con ellos por parte de la compañía.

Con la puesta en marcha del proyecto DTP, la portabilidad y la interoperabilidad de los datos resulta fundamental para la innovación, menciona el libro blanco publicado asociado al proyecto.

El éxito dependerá de cómo la gente valore este tipo de iniciativas con el fin de poder mover los datos entre diferentes tipos de servicios de forma segura, señala el director de privacidad de políticas públicas de Facebook, Steve Satterfield.

Alfonso Casas, IDG.es