Categoría: Administración de datos

Iniciativa Open Data pretende conectar y aprovechar datos con IA

Microsoft, SAP y Adobe presentaron en el marco del Ignite 2018, la Iniciativa Open Data, una nueva estrategia de gestión de experiencia del cliente (CXM) al impulsar a compañías a obtener un mayor valor de sus datos y entregar mejores experiencias en tiempo real.

En el mundo actual, los datos son el recurso más valioso de una compañía, considerados por especialistas como el oro de hoy en día. Sin embargo, muchos negocios luchan por conseguir una visualización completa de sus interacciones y operaciones de cliente, porque no son capaces de conectar la información que se encuentra atrapada en silos internos. Al mismo tiempo, información importante de cliente también reside en silos externos con servicios de intermediaros y proveedores de terceros, lo que limita la capacidad de una compañía para crear las conexiones adecuadas, recabar inteligencia y al final, extraer más valor de sus propios datos en tiempo real, para atender mejor a los clientes.

Compañías alrededor del mundo utilizan software y servicios desde Adobe, Microsoft y SAP para correr desarrollo de producto, operaciones, finanzas, mercadotecnia, ventas, recursos humanos y más. Hoy, estas tres compañías se unen con el propósito de impulsar la Iniciativa Open Data, un enfoque común y un conjunto de recursos para los clientes, basada en tres principios:

  • Cada organización posee y mantiene control directo y completo de todos sus datos.
  • Los clientes pueden habilitar procesos de negocios impulsados por IA para obtener información de valor e inteligencia a partir de datos unificados de comportamiento y operacionales.
  • Un amplio ecosistema de socios debe ser capaz de aprovechar de manera sencilla un modelo de datos abierto y extensible para extender la solución.

La Iniciativa Open Data pretende eliminar silos de datos y permitir una sola visualización del cliente, para ayudar a gobernar mejor sus datos y dar apoyo a sus iniciativas de privacidad y seguridad.

Con la capacidad de conectar mejor los datos a través de una organización, las compañías pueden utilizar de manera más sencilla la IA y la analítica avanzada para obtener información de valor en tiempo real, “hidratar” aplicaciones de negocios con datos críticos para hacerlos más efectivos y entregar una nueva categoría de servicios para clientes impulsados por IA.

“Brindaremos la capacidad de aprovechar y accionar volúmenes masivos de datos de clientes para entregar experiencias de cliente personalizadas a escala y en tiempo real”, comentó Shantanu Narayen, CEO de Adobe.  Bill McDermott, CEO de SAP agregó que “Los CEO han comenzado a romper los silos del status quo para que toda la gente dentro de sus compañías esté enfocada en atender a la gente que se encuentra fuera de las mismas. Con la Iniciativa Open Data, ayudaremos a los negocios a funcionar con una verdadera visión única del cliente”.

Por su parte, el CEO de Microsoft, Satya Nadella, comentó, “Las organizaciones en todo el mundo tienen una enorme oportunidad de construir circuitos de retroalimentación digital impulsados por AI para obtener poder predictivo, flujos de trabajo automatizados, y al final, resultados mejorados de negocios”.

Para cumplir con la Iniciativa Open Data, los tres socios mejoran la interoperabilidad y el intercambio de datos entre sus aplicaciones y plataformas: Adobe Experience Cloud y Adobe Experience Platform, Microsoft Dynamics 365, SAP C/4HANA y S/4HANA, a través de un modelo común de datos. El modelo de datos brindará al usuario un servicio común de data lake sobre Microsoft Azure. Este almacén unificado de datos permitirá a los clientes elegir sus herramientas y aplicaciones de desarrollo para construir y desplegar servicios.

Con la Iniciativa Open Data, las empresas podrán:

  • Desbloquear y armonizar datos aislados para crear un nuevo valor
  • Mover de manera bidireccional, datos transaccionales, operacionales, de cliente o de IoT a y desde el data lake común, basados en sus preferencias o necesidades
  • Crear circuitos digitales de retroalimentación impulsados por datos para un mayor impacto de negocios, a la vez que se les ayuda para habilitar sus iniciativas de cumplimento de normas de seguridad y privacidad
  • Construir y adoptar aplicaciones inteligentes que entiendan datos, relaciones y metadatos de manera nativa para abarcar múltiples servicios por parte de Adobe, SAP, Microsoft y sus socios

 

Cuatro pilares obligatorios en el manejo de datos

El manejo de datos se convirtió en uno de los asuntos más discutidos en el proceso de transformación digital. Ese trayecto de los negocios, que se denominó stairway to value (escaleras hacia el valor), necesita recorrerse fase a fase, de modo que todos los aspectos esenciales se contemplen y que la organización se prepare de manera efectiva para aprovechar la información que se genera.

En principio, se necesita hacer el debido estudio, o sea, la organización y preparación de los datos (sean estructurados o no estructurados) recogidos de diversas fuentes. Se trata del momento propicio para que empresas y profesionales aprendan a lidiar con los datos y, a partir de eso, a realizar las siguientes etapas: almacenar, enriquecer, activar y monetizar su información.

Hace pocos años, las bases de datos sólo existían para almacenar. Hoy en día, esos recursos son fundamentales para dar cuerpo a la transformación digital, ya que la materia prima de la información valiosa para los negocios está ahí. Y para obtener ventajas de ese futuro modelado por los datos, necesitamos considerar algunos pilares.

 

Modernización del centro de datos: es el primer paso para la optimización del almacenamiento y procesamiento de datos. Se necesita garantizar que la infraestructura tecnológica sea flexible y que funcione para diversas aplicaciones y ambientes multinube, permitiendo, por ejemplo, la inserción de futuras tecnologías que facilitarán la utilización de los datos. En resumen, la infraestructura de TI debe ser ágil y no puede ser un factor limitante para la transformación digital.

Gobernanza de datos inteligente: en este pilar, entran las soluciones y herramientas que permiten simplificar el cumplimiento de los datos y protegerlos donde sea que estén: en instalaciones o en la nube. Con la gobernanza, los datos no estructurados y, a veces, llamados obscuros, se convierten más claros, mucho en función del trabajo de los ingenieros de datos. Además, entran en escena los metadatos o datos sobre datos, que permiten comprender informaciones que son inteligibles.

 

Insights generados a partir de datos: después de la estructuración, la ciencia de datos entra con profesionales especializados, que pueden ayudar en la lectura y extracción de información y valores de los que, antes, eran una materia bruta, aparentemente sin valor. En ese momento, se hace posible unir los conocimientos humano y artificial para la toma de decisiones asertivas para el negocio.

Monetización de los datos: ese es el estado del arte donde, además de aumentar la eficiencia de la tomada de decisión por medio de insights, los datos permiten también la generación de valor financiero, ya sea con la creación de nuevas fuentes de ingresos o incluso por la reducción de costos y riesgos.

Hoy en día, el principal desafío es tener los cuatro pilares en funcionamiento, algo que, de por sí, requiere la superación de varios obstáculos. Y no hay alternativa.  La transformación digital es un camino sin retorno, que demandará cada vez más exactitud para crear nuevos mercados y responder a demandas creadas con el surgimiento de las nuevas tecnologías. Mientras tanto, los desafíos comunes continúan: enfrentar la competencia, buscar aumento de ingresos y reducción de costo, gestionar riesgos. Ese es nuestro nuevo mundo.

 

Por: Marcelo Sales, Director de Productos y Soluciones de Hitachi Vantara LATAM.

Monitoreo de Redes, clave para los procesos de digitalización

Paessler AG celebró su primer evento en México para clientes, “PRTG -Time to Connect México 2018”, reuniendo a más de 100 profesionales especialistas en monitoreo de redes.

Jürgen Thiel, Jefe de Ventas y Desarrollo de Negocios de Paessler AG, abrió el evento en su también primera visita a México, destacando la importancia que está cobrando el monitorear TI para obtener un proceso de digitalización optimo. El paisaje está cambiando constantemente debido a las tendencias tecnológicas como Internet de la Cosas (IoT), Inteligencia Artificial (IA), y Cloud Computing, entre otros, donde tener una total visualización para poder anticiparse a accidentes y aprovechar datos en tiempo real será clave.

“El futuro del monitoreo estará expandiéndose a la posibilidad de tener instalaciones más grandes para ambientes cada vez mayores y más complejos; a la posibilidad de tener soluciones enfocadas por industria, residiendo en Nube y ofreciéndole valor a clientes con necesidades específicas; y a aprovechar y mejorar la posibilidad de integración con otras herramientas en el mercado para permitir a los usuarios del monitoreo sacar mayor provecho de sus datos de monitoreo y transformarlos información que permita una mejor toma de decisiones en el ámbito de las TI”, afirmó Thiel.

Jürgen Thiel, Jefe de Ventas y Desarrollo de Negocios de Paessler AG.

Por su parte, Carlos Echeverría, Gerente de Preventa de Paessler Latinoamérica, en entrevista para Computerworld México, comentó que la tendencia está en unificar las redes para tener una visualización completa.  “Nuestra propuesta es tener un control absoluto de todo el entorno, independientemente de la red que sea,  producto o servicio”, comentó.

Tal vez le interese: Mida sus KPI con herramientas de monitoreo

PRTG Network Monitor, la apuesta de Paessler AG

Carlos Echeverría, Gerente de Preventa de Paessler Latinoamérica.

Para ayudar a los clientes a alcanzar estos objetivos, Paessler AG cuenta con su herramienta PRTG Networkd Monitor, una solución de monitoreo que ayuda a visualizar la infraestructura de su red las 24 horas del día. No sólo se trata de gestión en el centro de datos y el seguimiento de la IO, PRTG también ofrece visualización en la nube y una gran variedad de sistemas como IoT, publicando métricas y niveles, obteniendo datos en tiempo real de cada uno de ellos y lanzando notificaciones sobre cualquier tipo de cambios al usuario.

 

“El objetivo de esta herramienta también es facilitar el día a día de los encargados de sistemas, quienes además de ahorrar mucho tiempo, pueden anticiparse a problemas con detección oportuna, así como ofrecer un mejor servicio, garantizar la continuidad de la operación”, comentó Carlos Echeverría.

La herramienta de Paessler permite detectar problemas, saber qué componente en específico fue el que falló, para tomar medidas necesarias, mejorando la toma de decisión en tiempo real. “Cuando se tiene un problema suele tomar horas o hasta días saber dónde se originó. Con PRTG esto no sucede, toda la visibilidad que ofrece es precisa, nuestra apuesta es muy agresiva en cuestiones de visibilidad y alcance, así como en el nivel de inversión,” finalizó.

 

¿Qué tan fácil es hackear un dispositivo de IoT?

La digitalización está progresando y con ella también Internet de las Cosas, IoT. Los dispositivos inteligentes se comunican entre sí y conectan en red incluso en áreas muy sensibles, para facilitar la vida de los usuarios. Sin embargo, también tiene una desventaja, ya que en los últimos meses un gran número de ciberataques han demostrado el peligro que puede surgir de estas redes cada vez más amplias. Pero, ¿qué tan fácil es hackear un dispositivo de IoT?

En resumen: es comparativamente simple. Una vez que los ciberdelincuentes descubren dispositivos de IoT vulnerables, sólo necesitan saber cómo hackear el dispositivo, y eso es sorprendentemente rápido. La forma más fácil de ingresar un dispositivo inteligente es utilizar el método de fuerza bruta para determinar la contraseña o utilizar los datos de inicio de sesión predeterminados de fábrica. Los botnets que pueden conseguirse en lo que se denomina “la red oscura” facilitan la infección de miles de dispositivos de una sola vez. Porque está claro que muchos fabricantes usan los mismos datos de inicio de sesión estándar para todos sus dispositivos por razones de costo, en lugar de definir una contraseña diferente para cada uno.

 

¿Qué podemos aprender del pasado?

Lo primero que pensamos es que los dispositivos de IoT nunca han sido realmente seguros. Y es obvio que ciertos riesgos se intensificarán. Una de las peores amenazas en Internet de las Cosas en los últimos dos años ha sido el BotnetMirai, que infectó miles de dispositivos inteligentes al desencadenar ataques DDoS masivos usando inicios de sesión estándar.

Se ha demostrado que los productos chinos baratos, como las webcams, se encuentran entre los dispositivos de IoT más vulnerables.

La mayoría de estos son productos que únicamente deberían usarse en un entorno aislado. Desde que se publicó el código fuente de Mirai, prácticamente todo el mundo puede operar su propio botnet IoT o reescribir el código de programación arbitrariamente, por lo que han surgido numerosas mutaciones de Mirai. Otras formas de infectar un dispositivo de IoT son mucho más complejas y sólo están disponibles por un costo alto y, por lo tanto, son menos comunes. La ingeniería inversa del firmware o del sistema operativo requiere profundos conocimientos técnicos e inversiones de tiempo. Sin embargo, aquí es exactamente donde se pueden aplicar las estrategias de seguridad.

¿Qué hacer al respecto?

Una solución posible y efectiva para mejorar la seguridad en IoT sería permitir a los usuarios cambiar fácilmente los datos de inicio de sesión para sus dispositivos inteligentes. Esto sólo ayuda con los métodos más simples utilizados por los hackers, pero estos han sido y son, precisamente, los más utilizados.

Por ejemplo, los fabricantes podrían “forzar” a sus clientes a cambiar los datos de inicio de sesión de sus dispositivos haciendo que la entrada de una contraseña única y “sólida” sea un paso obligatorio en la puesta en marcha inicial del dispositivo. De hecho, cambiar los datos de inicio de sesión reduciría significativamente la cantidad de dispositivos “vulnerables” y haría que a los hackers y bots les resultara mucho más difícil ingresar a los dispositivos de IoT.

Otra de las alternativas es que los fabricantes de dispositivos IoT podrían asignar una contraseña única y generada aleatoriamente a cada dispositivo y enviarla al cliente junto con el dispositivo.

 

El problema de las contraseñas

Integrar la seguridad en los dispositivos desde el principio es más difícil y tedioso de lo esperado. Esto se aplica igualmente a los dispositivos IoT destinados a usuarios finales que a aquellos utilizados en las empresas. Por lo tanto, sería hipócrita, criticar a todos los fabricantes de dispositivos IoT.

Un ejemplo: cifrado. Existe la capacidad de cifrar datos que un dispositivo IoT recopila mientras está en el dispositivo y también cuando se envía a otro dispositivo (o se analiza en la Nube). En lo que respecta al cifrado, hay muchas recomendaciones muy buenas sobre qué algoritmos son adecuados y están disponibles con qué longitudes de clave. Además, hay varias soluciones de cifrado de código abierto. Pero es mucho más difícil proteger y administrar las claves asociadas a él, y la administración insuficiente de claves invalida todo el proceso de cifrado.

Una clave mal administrada puede inutilizar los datos cifrados, por ejemplo, si la clave utilizada para encriptar los datos en cuestión no puede estar disponible dentro del proceso de autenticación. La gran cantidad de dispositivos en IoT aumenta exponencialmente los desafíos de encriptación y administración de claves.

El punto brillante

Además, debe decirse aquí que, desafortunadamente, muchos dispositivos IoT son bastante débiles para una encriptación poderosa. Con poco espacio de almacenamiento, una buena implementación de SSL generalmente no es posible.

Los fabricantes de dispositivos IoT, especialmente para clientes finales, continuarán llevando dispositivos al mercado que están mal o nada seguros.

Es así, no hay nada que podamos hacer al respecto. Sin embargo, la conciencia de la seguridad del consumidor está creciendo (aunque aún no es lo suficientemente fuerte como para cambiar el comportamiento de compra). Las características más geniales y un precio asequible siguen siendo los factores decisivos para comprar este tipo de dispositivos.

Por primera vez, Amazon Echo y Google Home se encuentran en la parte superior de la lista de deseos de los consumidores conocedores de la tecnología. Por otro lado, existe un pequeño pero creciente grupo de consumidores que tienen serias dudas sobre la seguridad de estos productos. Especialmente con dispositivos que escuchan casi todo lo que se habla dentro de su rango. Las primeras grandes olas de ataques, como el BotnetMirai, han atraído la atención de expertos en seguridad.

El consumidor promedio aún no es consciente del alcance de este tipo de ataques. Sin embargo, la presión sobre los fabricantes está creciendo y con ella la demanda de mejores medidas de seguridad y protección de datos.

 

Por David Montoya, Director de Canales de Paessler Latinoamérica.

Los cuatro retos del Big Data y Analytics, según Gartner

En el marco del primer Gartner Data & Analytics Summit en la Ciudad de México, la consultora destacó que con el surgimiento de tendencias como Internet de las Cosas, Inteligencia Artificial y aprendizaje automático como nuevos pilares de los negocios digitales, los datos y analíticos se están volviendo dominantes, sustentando todos los modelos de negocio.

Para alcanzar este objetivo, los analistas de Gartner señalaron que aún existen cuatro retos que los especialistas deben superar: confianza, diversidad, complejidad y conocimiento.

Donald Feinberg, vicepresidente y analista de Gartner, comentó que existe una oportunidad sin precedentes para ampliar los datos fundamentados y acelerar los descubrimientos analíticos.

 

Confianza

En un mundo en el que aumenta el fraude, la incertidumbre y las fake news, la confianza es un bien escaso pero crucial en los negocios digitales: nada funciona sin ella. Las empresas deben esforzarse por asegurar que todas las partes involucradas confíen en sus datos a la vez que deben permitir un nivel de observación y examen de sus datos que no existe en la mayoría de las organizaciones.

Las nuevas estrategias deben centrarse en la confianza en los datos. “Estas estrategias se basan en dos técnicas: crowdsourcing y automatización. Con el sistema de crowdsourcing, los usuarios etiquetan lo que hacen y proporcionan, durante el proceso, un registro del linaje de datos (Data Lineage). Así se crea un método más dinámico para confiar en los datos. La automatización se refiere al surgimiento de los catálogos de datos como una competencia crítica de la gestión de datos. Al adoptar estas dos técnicas, la confianza en los datos aumentará significativamente gracias a la capacidad de verificar su origen”, comentó Peter Krensky, analista investigador senior de Gartner.

 

Diversidad

La diversidad incluye algoritmos, personas y datos. Como nuestras opiniones y prejuicios se codifican en los algoritmos “las organizaciones deben crear métodos de verificación mejores para las suposiciones y datos usados en los algoritmos que permitan garantizar que sean justos e incluyan los valores atípicos”, afirmó Cindi Howson, vicepresidente de investigaciones de Gartner. “Eso se torna particularmente difícil cuando el sector tecnológico carece de diversidad y suele enfocarse solamente en las diferencias visibles, tales como el género. Además, es necesario que dejemos de integrar solo los datos a los que se accede fácilmente e integremos los datos pertinentes”.

 

Complejidad

La complejidad plantea un desafío porque es difícil comprender cabalmente la dinámica de los negocios y tener el tiempo necesario para responder de manera adecuada.

“Hoy, los líderes en datos y analíticas tienen la oportunidad de construir plataformas de datos y análisis precisas y exactas. Estas plataformas proveerán más contexto, gracias a la recopilación de datos integrales; mayor comprensión, gracias a un sistema de medición y clasificación sólido; y más tiempo para responder, gracias a los sistemas de baja latencia”, explicó Krensky. “Mayor contexto, comprensión y baja latencia transforman una complejidad abrumadora en una ventaja competitiva. Comprender el patrón que subyace a la complejidad acelera el tiempo de respuesta. Dominar esta complejidad es la clave del éxito de las iniciativas analíticas”.

 

Conocimiento

A medida que las empresas se fortalecen con equipos más diversos, que cuentan con datos más complejos, la necesidad de poder “hablar en el idioma de los datos”, de la misma manera, es mayor que nunca antes.

“Si no hay un lenguaje en común que sirva para interpretar los diversos datos de la organización, habrá problemas fundamentales en la comunicación cuando se empleen soluciones basadas en datos y analíticas”, afirmó Howson.

En la tercera encuesta anual de Gartner a los directores de datos, los consultados afirmaron que el obstáculo más grande para lograr el progreso mediante datos y analíticas es el escaso conocimiento sobre los datos. Los líderes en este campo deben aprender a tratar la información como una segunda lengua y el conocimiento es un elemento fundamental para la trasformación digital.

Gartner espera que, para 2020, 80% de las organizaciones ponga en marcha el desarrollo deliberado de competencias en el campo de los datos, tras admitir que hay una gran deficiencia.

“Desarrollar este tipo de conocimientos puede ser perturbador”, manifestó Howson. “Evaluar el conocimiento sobre datos de las personas que crean y consumen información es un paso fundamental para garantizar que la organización esté equipada con las habilidades adecuadas para satisfacer las necesidades presentes y futuras de la sociedad digital”.

 

Veeam y Lenovo se unen para ofrecer Gestión Inteligente de Datos para SDI y SAN

Veeam y Lenovo anunciaron una nueva alianza global para impulsar la Transformación Digital a través de infraestructura, software y soluciones inteligentes que sean capaces de resolver problemas empresariales. Esta asociación permitirá adquirir las soluciones de Gestión Inteligente de Datos de Veeam con la oferta de Infraestructura Definida por Software (SDI) y red de área de almacenamiento (SAN) de Lenovo directamente desde Lenovo y sus distribuidores en una sola transacción.

La integración de Veeam con las soluciones de Lenovo ofrece a las organizaciones una amplia gama de opciones y flexibilidad para ofrecer disponibilidad, simplicidad de TI, rendimiento escalable, eficiencia operativa e innovación acelerada para asegurar la Hiperdisponibilidad Empresarial.

Esta combinación de tecnología pretende simplificar las TI, mitigar riesgos y ofrecer la Gestión Inteligente de Datos necesaria para acelerar y hacer crecer los negocios. Como resultado, los clientes pueden eliminar los costos y complejidad de la infraestructura de legado, virtualización y administración de protección de datos, y proporcionar un ROI incrementado a través de soluciones de Gestión Inteligente de Datos que aceleran el desarrollo e implementación de aplicaciones, soportan analítica de datos y simplifican la recuperación ante desastres.

Las organizaciones también reciben la garantía de que la solución combinada de Veeam y Lenovo es validada por ambas compañías y ofrecerá óptimos beneficios de negocio.

Los clientes de Lenovo podrán aprovechar de una arquitectura fácil de implementar y fácil de administrar de Veeam, para optimizar los niveles de servicio de disponibilidad de todas las aplicaciones y datos a lo largo y ancho de cargas de trabajo físicas, virtuales y en la nube.

Entendiendo el Blockchain de punta a punta

La tecnología blockchain tuvo origen en 1991 cuando Stuart Haber y W. Scott Stornetta describieron el primer trabajo sobre una cadena de bloques asegurados criptográficamente. Sin embargo, ha logrado mayor notoriedad en 2008 debido al bitcoin y, según publicó Market Watch, para el 2022 se proyecta un crecimiento anual de los 51% para varios mercados, como el financiero o el de Internet de las Cosas (IoT).

Su funcionamiento puede resultar complejo de entender si se profundiza en los detalles internos de su implementación, pero la idea básica es sencilla. En el caso de las criptomonedas se podría pensar como el libro contable donde se registra cada una de las transacciones”, comenta Camilo Gutierrez, Jefe del Laboratorio de ESET Latinoamérica.

En cada bloque se almacena una cantidad de registros o transacciones válidas, información referente a ese bloque, su vinculación con el bloque anterior y el bloque siguiente a través del hash de cada bloque ─un código único que sería como la huella digital del bloque. Cada bloque tiene un lugar específico e inamovible dentro de la cadena. La cadena completa se guarda en cada nodo de la red que conforma la blockchain, por lo que se almacena una copia exacta de la cadena en todos los participantes de la red.

A medida que se crean nuevos registros, estos son primeramente verificados y validados por los nodos de la red y luego añadidos a un nuevo bloque que se enlaza a la cadena.

Esquema de la cadena de bloques.

“Al ser una tecnología distribuida, cada nodo de la red almacena una copia exacta de la cadena, se garantiza la disponibilidad de la información en todo momento. En caso de que un atacante quisiera provocar una denegación de servicio, debería anular todos los nodos de la red, ya que basta con que al menos uno esté operativo para que la información esté disponible. Si un atacante quisiera modificar la información en la cadena de bloques, debería modificar la cadena completa en al menos el 51% de los nodos”, explica Gutierrez.

Dado que cada bloque está matemáticamente vinculado al bloque siguiente, una vez que se añade uno nuevo a la cadena, el mismo se vuelve inalterable. Si un bloque se modifica, su relación con la cadena se rompe. Es decir, que toda la información registrada en los bloques es inmutable y perpetua.

La tecnología de blockchain permite almacenar información que jamás se podrá perder, modificar o eliminar.

Además, cada nodo de la red utiliza certificados y firmas digitales para verificar la información y validar las transacciones y los datos almacenados en la blockchain, lo que permite asegurar la autenticidad de dicha información.

Blockchain actúa como un medio para certificar y validar cualquier tipo de información. Un registro confiable, descentralizado, resistente a la manipulación de datos, y donde queda todo registrado.

Los datos están distribuidos en todos los nodos de la red y al no haber un nodo central, todos participan por igual, almacenando y validando toda la información. Es una herramienta potente para comunicarse y almacenar información de forma confiable.

“Blockchain permite verificar, validar, rastrear y almacenar todo tipo de información, desde certificados digitales, sistemas de votación democráticos, servicios de logística y mensajería, contratos inteligentes y, por supuesto dinero y transacciones financieras. Es una tecnología que permite eliminar la confianza de la ecuación y reemplazarla por verdad matemática.”, concluyó Gutierrez.

Cinco beneficios de la emulación y virtualización de sistemas legacy

La emulación y virtualización se han convertido en una real opción para aquellas organizaciones que necesitan comenzar con un proceso de transformación digital pero se encuentran con el obstáculo de aún contar con aplicaciones clásicas legacy y no pueden asumir el riesgo de reinventar la lógica de negocios en una migración de software.

De acuerdo con IDC, en el primer semestre de 2017, el mercado global de servicios en nube pública creció 28.6% en comparación con el mismo período de 2016, con un total de 63.200 millones de dólares. Y para 2018, se pronosticó un crecimiento del 40% en inversiones para soluciones en nube en América Latina.

Eduardo Serrat, Director de Tecnología de Stromasys, nos comparte cinco beneficios que ofrece la emulación y virtualización de los sistemas legacy y destaca como estas soluciones han evolucionado en las últimas décadas y se han adaptado a las nuevas tecnologías.

  1. Reducción del costo: las soluciones de emulación y vitualización tienen un bajo costo durante la migración total y, por lo general, el valor es menor que el costo del soporte de hardware clásico “legacy”.
  2. Reducción de riesgo: elimina el riesgo de tiempo de inactividad no planificado.
  3. Ahorro de energía: la reducción sustancial del consumo de energía reduce el impacto medioambiental de la empresa.
  4. Reducción de espacio físico y disipación de calor asociado a los sistemas clásico, “legacy”.
  5. Protección de la inversión: las aplicaciones seguirán funcionando sin cambios en una plataforma moderna, garantizando la continuidad de los negocios.

 

 

Aspectos a considerar al establecer Cultura de ciberseguridad

Seguramente le suene familiar la frase: “Las personas suelen ser la parte más débil en la cadena de seguridad informática”. Por más anticuada que suene la frase, sigue aplicando en 2018. Los administradores de TI se enfrentan al factor humano todos los días.

Hoy queremos mirar en detalle cuándo los empleados de una compañía representan un riesgo para la seguridad informática y, a partir de esa identificación de riesgos, mostraremos 13 maneras eficientes para fomentar la cultura de ciberseguridad entre colegas y empleados.

Hoy en día, una de cada dos compañías está siendo atacada digitalmente. Los empleados están permitiendo que muchos hackers accedan a información confidencial. Esto facilita el espionaje industrial, el robo de datos y el sabotaje.

 

1. La memoria USB encontrada

¿Alguna vez ha encontrado una memoria USB? No me refiero a una propia, que perdió en algún momento, sino a una, que apareció en algún lado. ¿Sí? ¿Sintió curiosidad e insertó la memoria en su computadora? Si es así, no es la única persona en hacerlo. Según el alcance de un estudio, casi 300 memorias USB se perdieron “accidentalmente”, para descubrir qué pasaría. Casi todas las memorias fueron tomadas por quienes las encontraron, y 45% abrió al menos un archivo contenido en la memoria.

Un hacker que prepara una memoria USB tiene muchas posibilidades. Por ejemplo, puede usar un archivo infectado para espiar datos de acceso y contraseñas (ingeniería social) o difundir amenazas de día cero a través de la red. El atacante incluso puede preparar el dispositivo de tal manera haga creer a la computadora que es un teclado, y luego ejecute comandos a través de simular combinaciones de teclas. Esto se llama HID spoofing.

 

2. La venta de la información de la compañía

Cualquiera que haya trabajado alguna vez en un departamento de desarrollo sabe cuán valiosos pueden ser los datos de la compañía. Vender anteproyectos, recetas, diseños de desarrollo u otros secretos comerciales es un buen negocio para los empleados. Un compañero de trabajo insatisfecho, junto con el justo impulso criminal y que tenga la posibilidad de transferir la información es suficiente para llevar a una empresa a una crisis.

 

3. Robo de información del cliente al cambiar de trabajo

En algunas áreas, parece ser una práctica estándar tomar datos sensibles de clientes de un empleador a otro. Es común escuchar de algún representante de ventas, que fue contratado por un competidor y que se pone en contacto con nosotros poco después para volver a hacer negocios juntos. Lo que sucede en este caso es el robo clásico de información, que no es menos grave que si el empleado se hubiera llevado consigo una laptop de la empresa y el auto al final de su contrato de trabajo.

4. Preferir la comodidad sobre la seguridad

Después de instalar las últimas actualizaciones de Windows, la computadora debe ser reiniciada. El antivirus reduce la velocidad de la computadora. Los empleados que anteponen la comodidad prefieren evitar estos procesos. Si es posible desactivar las actualizaciones o los antivirus, lo harán y la seguridad informática sufre mucho.

 

5. Incertidumbre o “el Fraude del CEO”

En el caso del “Fraude del CEO”, por ejemplo, los atacantes simulan ser el director de la compañía por teléfono o email y logran que un empleado transfiera una suma notable de dinero a otro país. El empleado normalmente es engañado por la figura de autoridad de quien lo solicita, y aprueba la transacción. Esta estafa puede causar daño por varios millones con consecuencias de gran peso para las compañías afectadas o los empleados que caen en el engaño.

 

6. Descargas y streaming desprotegidos

Muchos empleados tienen acceso a Internet desde su lugar de trabajo de forma directa. A pesar de estar constantemente mejorando los sistemas de seguridad informática y filtros Web, los colegas que tienen experiencia y conocimiento tecnológico se las ingenian para tener acceso a contenido inseguro en la Web constantemente. Probablemente no deba explicar cómo funciona este proceso a los administradores de TI que nos leen.

Incluso hay empleados muy sofisticados que logran ver en streaming las películas más recientes en turnos nocturnos desatendidos o que descargan una gran cantidad de archivos cuestionables y posiblemente maliciosos.

 

7. Ocultar incidentes de seguridad

En 40% de las compañías a nivel mundial, los empleados ya han ocultado incidentes relacionados a la seguridad bajo la alfombra. Este fue el resultado de una encuesta hecha por Kaspersky cooperando con B2B International – se encuestaron a 5,000 compañias.

Estos incidentes de seguridad incluyen ataques de Malware, durante los cuales el software malicioso fue transferido a la computadora de un empleado. Si el empleado afectado permanece en silencio sobre estos incidentes, el código malicioso puede llegar a toda la red de la compañía.

8. TTPD (¡Trae tu propio demonio!)

En muchos casos, el empleado lleva al demonio dentro de la compañía. De repente, información sensible de la empresa se escabulle hacia smartphones privados, sin asegurar el dispositivo de forma consistente.

El mismo smartphone en el cual las cifras de ventas actuales se almacenan en la tarde pasa de mano en mano en un bar por la noche, para mostrar fotos de las últimas vacaciones.

La posible pérdida de los dispositivos móviles también juega un rol. Según un estudio, más que la mitad de los incidentes de seguridad en las compañías encuestadas son debido a la pérdida de ese dispositivo.

 

9. Tener buena fe

A muchos atacantes les gusta aprovecharse de la buena fe de las personas ¿Usted como administrador alguna vez llamó a un colega y le pidió su contraseña en el teléfono? ¿Ya sea porque facilita el mantenimiento remoto o porque simplemente ha ahorrado tiempo o distancia en ese momento? Probablemente su colega le haya dicho la contraseña también. ¿Qué sucede si el “colega del departamento de tecnología” no es usted, sino que un atacante desconocido? ¡Este tipo de situaciones ocurren miles de veces al día!

 

10. Descuido

¡Los empleados indiferentes son veneno para las compañías! Raramente contribuyen a la productividad y también son una vulnerabilidad potencial en términos de seguridad tecnológica. La actitud de “no me importa” se puede reflejar en todas las cuestiones relevantes para la seguridad. Ya sea por el manejo laxo de las contraseñas, la divulgación generalizada de información sensible o la distribución demasiado general de los derechos de acceso cuando se comparten archivos con personas externas a la empresa, la seguridad se ve invariablemente comprometida por dichos empleados.

 

11. Spam/Phishing

¡La vulnerabilidad más común relacionada a la seguridad de tecnología sigue siendo muy popular en la actualidad! Hacer click desconsideradamente, o la curiosidad sobre los archivos adjuntos de remitentes desconocidos o el ingreso de información sensible en campos de entrada de formularios no destinados a este propósito continúan causando pérdidas anuales en compañías que alcanzan miles de millones.

 

12. Seguir a tu CEO de cerca

Si, leíste correctamente. Tu CEO no es mucho mejor que el resto del personal. La mujer o el hombre que está al mando de tu compañía también debería estar en la cima de tu lista de seguridad. El FBI estimó que la pérdida monetaria de las estafas de nivel C son cerca de $2.3 millones de dólares en los últimos tres años. Muchos CEO también sienten que están exentos de cometer esos errores, renuncian al software de seguridad y consideran que algo como esto no podría sucederles.

Normalmente, encontramos 5 categorías de vulnerabilidades entre los CEO:

  • Contraseñas con seguridad baja
  • Manejo descuidado de los datos
  • Seguridad del software poco adecuada
  • Gestión ineficaz del acceso a los datos
  • Baja conciencia de seguridad informática

 

Bueno, todo esto no es motivo para perder la esperanza de un entorno de tecnología seguro. Se pueden abordar muchas de estas vulnerabilidades y se puede mejorar la comprensión de los datos y los sistemas de tecnología de sus colegas.

 

Por: David Montoya, Director General de Paessler Latinoamérica.

Cuatro aspectos a considerar antes de migrar todo a la nube

Organizaciones de todo el mundo están optando por migrar a la nube, parcial o totalmente, sus cargas de trabajo a nubes públicas. El cambio resulta lógico, ya que los beneficios de esta estrategia son evidentes. Sin embargo, una nube pública no funciona de la misma forma que una red física alojada en las instalaciones. Por lo tanto, es necesario comprender que hacer la migración a la nube no consiste meramente en “cambiar algo de lugar”. Es más, podría arrepentirse de no considerar todos los aspectos que conlleva esta tarea.

Ante este panorama, una estrategia sólida para crear su nueva arquitectura consistiría en hacerse estas cuatro preguntas antes de comenzar:

  • ¿Cuál es el alcance de su estrategia de migración y el plazo previsto?
  • ¿De qué manera gestionará la disminución de visibilidad de la red mientras realiza la migración a la nube?
  • ¿Será necesario implementar herramientas de seguridad y monitoreo en línea?
  • ¿De qué manera piensa medir el rendimiento de la red con precisión?

Estos aspectos conllevan importantes desafíos para las empresas que consideren la implementación de la nube. No obstante, existen soluciones y procesos viables para mitigar estas cuestiones y contribuir a que la migración a la nube sea lo más beneficiosa posible. Analicemos en profundidad las cuatro preguntas.

 

La estrategia de migración y su planificación, esenciales para el éxito

Varios profesionales de TI se sienten decepcionados luego de hacer el cambio a la nube. De acuerdo con los resultados de una encuesta realizada por Dimensional Research, nueve de cada diez participantes afirman haber notado un impacto negativo directo en el negocio debido a la falta de visibilidad de tráfico de la nube pública. Esto abarca cuestiones de resolución de problemas de red y de aplicación, problemas de rendimiento y también demoras en la resolución de alertas de seguridad derivadas de la falta de visibilidad.

En diciembre de 2017, en la Conferencia de Centros de Datos organizada por Gartner, Sanjit Ganguli (Gartner Research) también hizo un sondeo y descubrió que el 62 % de los encuestados no estaba conforme con los datos de monitoreo proporcionados por su proveedor de nube luego de haber migrado a este paradigma. Asimismo, el 53 % de los encuestados afirmó ignorar lo que sucede en su red en la nube.

Un error muy común es creer que todos los componentes de su red física tienen un equivalente en la nube. No es así.

Al migrar a la nube, pasa de un entorno en el que usted tiene el control total a otro en el que el control es limitado. Esta situación es similar a la de mudarse de una casa propia a una rentada. Seguirá viviendo en una casa, pero sujeto a las normas de alguien más, mientras le paga a cambio del privilegio.

Por ejemplo, si antes de migrar a la nube no diseñó un buen plan para el cambio, le resultará difícil monitorear el rendimiento de la aplicación. No podrá obtener de manera nativa la información que necesita desde el proveedor de servicios de nube. Es necesario realizar una planificación para mitigar o remediar esta pérdida de información.

Las redes de la nube no ofrecen visibilidad de forma nativa

Una vez que migre a la nube, y durante el proceso de migración, no tendrá una visibilidad clara del nivel de red. La única manera de obtener información sobre la red de la nube y algunas partes del sistema operativo será a través de proveedores de servicios basados en la nube. Estos proveedores proporcionan metadatos resumidos sobre información centrada en la nube (red, procesamiento, almacenamiento), entre los que se incluyen datos de la nube de alto nivel (por ejemplo rendimiento de CPU, consumo de memoria, etc.) y ciertos datos de registro.

Un paquete de datos de red es algo que ni los proveedores de servicios de nube ni otras herramientas de la nube ofrecen. Estos datos resultan fundamentales para las investigaciones de seguridad y para la resolución de problemas mediante el análisis de las causas raíz. Las herramientas de prevención de pérdida de datos (DLP) y gran parte de las herramientas de gestión del rendimiento de aplicaciones (APM) dependen del paquete de datos para el análisis de problemas. Las herramientas típicas de la nube proporcionan datos limitados y, generalmente, con retraso, lo cual puede afectar drásticamente el rendimiento de la herramienta. Por ejemplo, al cabo de 30 minutos, los datos tácticos pierden el 70 % de su valor para el monitoreo del rendimiento.

Además, los proveedores de nube tampoco proporcionan datos sobre la experiencia de los usuarios ni la capacidad de mirar conversaciones.  Esto quiere decir puntualmente que no se puede medir con precisión la calidad de la experiencia del cliente mediante los datos que brindan los proveedores de nube. Asimismo, por medio del flujo de datos, se puede ver quiénes son los participantes, pero no así los detalles de la conversación.

Una solución sencilla a este problema es agregar sensores de monitoreo de datos en la nube (también denominados “taps virtuales”) a su red allí. Estos sensores permiten replicar copias del paquete de datos y enviarlas a las herramientas de resolución de problemas, seguridad o rendimiento. Así, las herramientas pueden obtener la información necesaria para desempeñar sus funciones como corresponde. Sin embargo, es fundamental que los sensores de datos puedan escalar la información automáticamente cuando sea necesario. Dadas las particularidades de los entornos de nube, también es necesario que los sensores tengan la capacidad de escalar la información en la medida en que haga falta.

Las herramientas de monitoreo y seguridad en línea alojadas en las instalaciones no funcionan de la misma forma en la nube

Debido a la naturaleza de la nube pública, las herramientas en línea no suelen considerarse como una opción. Los proveedores de nubes públicas no permiten que los clientes accedan a sus niveles de red y de sistema para implementar cualquier tipo de herramienta de seguridad en línea (por ejemplo, el sistema de prevención de intrusiones [IPS], la prevención de pérdida de datos [DLP] o el firewall de aplicaciones web [WAF]), ya que esto podría representar un riesgo de seguridad para su propia red. Si usted piensa implementar protección de seguridad en línea, debe entender que no será una configuración común como la de los dispositivos alojados en sus instalaciones (por ejemplo, la de un típico IPS).

La falta de implementación de herramientas en línea lógicamente supone un riesgo en el entorno de la nube que será necesario afrontar. Entonces, ¿cómo puede asegurar su entorno desde ahora? En primer lugar, es necesario implementar una arquitectura que le permita adoptar una actitud proactiva y anticiparse a los riesgos. Esto abarca los componentes de visibilidad (como los sensores) que permiten recopilar datos de seguridad y monitoreo de interés para llevar a cabo determinados análisis.

Otra opción para mitigar la amenaza sería aplicar una arquitectura híbrida que le permita conservar las herramientas existentes de seguridad alojadas en las instalaciones físicas para inspeccionar datos de alto riesgo (o datos generales, sí así lo desea). Es posible que esta opción, si se basa en su planificación de riesgos, le proporcione la protección necesaria y minimice el riesgo comercial a un nivel aceptable. Recuerde que la mayoría de los proveedores de procesamiento de nube efectúan cargos por exportar datos. No obstante, los costos de ancho de banda de los datos pueden limitarse transfiriendo solamente los datos relevantes a las herramientas alojadas en las instalaciones.

La medición del rendimiento en la nube depende del proveedor

Otra pregunta importante que debe hacerse es la siguiente: ¿de qué manera piensa medir con precisión el impacto que tiene un bajo rendimiento de red en la aplicación de cargas de trabajo en la nube? Los problemas de rendimiento son un aspecto importante a considerar en redes nuevas en la nube. Cuando migre a la nube, y durante el proceso de migración, no tendrá datos de rendimiento de red claros dentro de su entorno. Depende de usted realizar la implementación para obtener visibilidad. En términos específicos, esto quiere decir que no podrá saber de manera nativa el rendimiento real de sus aplicaciones ni el rendimiento de su entorno en la nube. ¿La medición de rendimiento cumple o supera lo establecido según el Contrato de nivel de servicio (SLA)? Su proveedor de nube probablemente dirá que es así, pero usted no cuenta con datos independientes para controlar y comprobar esta información.

Durante el proceso de migración, el monitoreo proactivo de los entornos, tanto de sus instalaciones como de la nube, será de utilidad. Muchas organizaciones que migran servicios y aplicaciones a la nube sin considerar todos los aspectos involucrados en este proceso enseguida se encuentran con problemas de red en la nube, particularmente problemas de rendimiento.