Categoría: Administración de datos

Monitoreo de Redes, clave para los procesos de digitalización

Paessler AG celebró su primer evento en México para clientes, “PRTG -Time to Connect México 2018”, reuniendo a más de 100 profesionales especialistas en monitoreo de redes.

Jürgen Thiel, Jefe de Ventas y Desarrollo de Negocios de Paessler AG, abrió el evento en su también primera visita a México, destacando la importancia que está cobrando el monitorear TI para obtener un proceso de digitalización optimo. El paisaje está cambiando constantemente debido a las tendencias tecnológicas como Internet de la Cosas (IoT), Inteligencia Artificial (IA), y Cloud Computing, entre otros, donde tener una total visualización para poder anticiparse a accidentes y aprovechar datos en tiempo real será clave.

“El futuro del monitoreo estará expandiéndose a la posibilidad de tener instalaciones más grandes para ambientes cada vez mayores y más complejos; a la posibilidad de tener soluciones enfocadas por industria, residiendo en Nube y ofreciéndole valor a clientes con necesidades específicas; y a aprovechar y mejorar la posibilidad de integración con otras herramientas en el mercado para permitir a los usuarios del monitoreo sacar mayor provecho de sus datos de monitoreo y transformarlos información que permita una mejor toma de decisiones en el ámbito de las TI”, afirmó Thiel.

Jürgen Thiel, Jefe de Ventas y Desarrollo de Negocios de Paessler AG.

Por su parte, Carlos Echeverría, Gerente de Preventa de Paessler Latinoamérica, en entrevista para Computerworld México, comentó que la tendencia está en unificar las redes para tener una visualización completa.  “Nuestra propuesta es tener un control absoluto de todo el entorno, independientemente de la red que sea,  producto o servicio”, comentó.

Tal vez le interese: Mida sus KPI con herramientas de monitoreo

PRTG Network Monitor, la apuesta de Paessler AG

Carlos Echeverría, Gerente de Preventa de Paessler Latinoamérica.

Para ayudar a los clientes a alcanzar estos objetivos, Paessler AG cuenta con su herramienta PRTG Networkd Monitor, una solución de monitoreo que ayuda a visualizar la infraestructura de su red las 24 horas del día. No sólo se trata de gestión en el centro de datos y el seguimiento de la IO, PRTG también ofrece visualización en la nube y una gran variedad de sistemas como IoT, publicando métricas y niveles, obteniendo datos en tiempo real de cada uno de ellos y lanzando notificaciones sobre cualquier tipo de cambios al usuario.

 

“El objetivo de esta herramienta también es facilitar el día a día de los encargados de sistemas, quienes además de ahorrar mucho tiempo, pueden anticiparse a problemas con detección oportuna, así como ofrecer un mejor servicio, garantizar la continuidad de la operación”, comentó Carlos Echeverría.

La herramienta de Paessler permite detectar problemas, saber qué componente en específico fue el que falló, para tomar medidas necesarias, mejorando la toma de decisión en tiempo real. “Cuando se tiene un problema suele tomar horas o hasta días saber dónde se originó. Con PRTG esto no sucede, toda la visibilidad que ofrece es precisa, nuestra apuesta es muy agresiva en cuestiones de visibilidad y alcance, así como en el nivel de inversión,” finalizó.

 

¿Qué tan fácil es hackear un dispositivo de IoT?

La digitalización está progresando y con ella también Internet de las Cosas, IoT. Los dispositivos inteligentes se comunican entre sí y conectan en red incluso en áreas muy sensibles, para facilitar la vida de los usuarios. Sin embargo, también tiene una desventaja, ya que en los últimos meses un gran número de ciberataques han demostrado el peligro que puede surgir de estas redes cada vez más amplias. Pero, ¿qué tan fácil es hackear un dispositivo de IoT?

En resumen: es comparativamente simple. Una vez que los ciberdelincuentes descubren dispositivos de IoT vulnerables, sólo necesitan saber cómo hackear el dispositivo, y eso es sorprendentemente rápido. La forma más fácil de ingresar un dispositivo inteligente es utilizar el método de fuerza bruta para determinar la contraseña o utilizar los datos de inicio de sesión predeterminados de fábrica. Los botnets que pueden conseguirse en lo que se denomina “la red oscura” facilitan la infección de miles de dispositivos de una sola vez. Porque está claro que muchos fabricantes usan los mismos datos de inicio de sesión estándar para todos sus dispositivos por razones de costo, en lugar de definir una contraseña diferente para cada uno.

 

¿Qué podemos aprender del pasado?

Lo primero que pensamos es que los dispositivos de IoT nunca han sido realmente seguros. Y es obvio que ciertos riesgos se intensificarán. Una de las peores amenazas en Internet de las Cosas en los últimos dos años ha sido el BotnetMirai, que infectó miles de dispositivos inteligentes al desencadenar ataques DDoS masivos usando inicios de sesión estándar.

Se ha demostrado que los productos chinos baratos, como las webcams, se encuentran entre los dispositivos de IoT más vulnerables.

La mayoría de estos son productos que únicamente deberían usarse en un entorno aislado. Desde que se publicó el código fuente de Mirai, prácticamente todo el mundo puede operar su propio botnet IoT o reescribir el código de programación arbitrariamente, por lo que han surgido numerosas mutaciones de Mirai. Otras formas de infectar un dispositivo de IoT son mucho más complejas y sólo están disponibles por un costo alto y, por lo tanto, son menos comunes. La ingeniería inversa del firmware o del sistema operativo requiere profundos conocimientos técnicos e inversiones de tiempo. Sin embargo, aquí es exactamente donde se pueden aplicar las estrategias de seguridad.

¿Qué hacer al respecto?

Una solución posible y efectiva para mejorar la seguridad en IoT sería permitir a los usuarios cambiar fácilmente los datos de inicio de sesión para sus dispositivos inteligentes. Esto sólo ayuda con los métodos más simples utilizados por los hackers, pero estos han sido y son, precisamente, los más utilizados.

Por ejemplo, los fabricantes podrían “forzar” a sus clientes a cambiar los datos de inicio de sesión de sus dispositivos haciendo que la entrada de una contraseña única y “sólida” sea un paso obligatorio en la puesta en marcha inicial del dispositivo. De hecho, cambiar los datos de inicio de sesión reduciría significativamente la cantidad de dispositivos “vulnerables” y haría que a los hackers y bots les resultara mucho más difícil ingresar a los dispositivos de IoT.

Otra de las alternativas es que los fabricantes de dispositivos IoT podrían asignar una contraseña única y generada aleatoriamente a cada dispositivo y enviarla al cliente junto con el dispositivo.

 

El problema de las contraseñas

Integrar la seguridad en los dispositivos desde el principio es más difícil y tedioso de lo esperado. Esto se aplica igualmente a los dispositivos IoT destinados a usuarios finales que a aquellos utilizados en las empresas. Por lo tanto, sería hipócrita, criticar a todos los fabricantes de dispositivos IoT.

Un ejemplo: cifrado. Existe la capacidad de cifrar datos que un dispositivo IoT recopila mientras está en el dispositivo y también cuando se envía a otro dispositivo (o se analiza en la Nube). En lo que respecta al cifrado, hay muchas recomendaciones muy buenas sobre qué algoritmos son adecuados y están disponibles con qué longitudes de clave. Además, hay varias soluciones de cifrado de código abierto. Pero es mucho más difícil proteger y administrar las claves asociadas a él, y la administración insuficiente de claves invalida todo el proceso de cifrado.

Una clave mal administrada puede inutilizar los datos cifrados, por ejemplo, si la clave utilizada para encriptar los datos en cuestión no puede estar disponible dentro del proceso de autenticación. La gran cantidad de dispositivos en IoT aumenta exponencialmente los desafíos de encriptación y administración de claves.

El punto brillante

Además, debe decirse aquí que, desafortunadamente, muchos dispositivos IoT son bastante débiles para una encriptación poderosa. Con poco espacio de almacenamiento, una buena implementación de SSL generalmente no es posible.

Los fabricantes de dispositivos IoT, especialmente para clientes finales, continuarán llevando dispositivos al mercado que están mal o nada seguros.

Es así, no hay nada que podamos hacer al respecto. Sin embargo, la conciencia de la seguridad del consumidor está creciendo (aunque aún no es lo suficientemente fuerte como para cambiar el comportamiento de compra). Las características más geniales y un precio asequible siguen siendo los factores decisivos para comprar este tipo de dispositivos.

Por primera vez, Amazon Echo y Google Home se encuentran en la parte superior de la lista de deseos de los consumidores conocedores de la tecnología. Por otro lado, existe un pequeño pero creciente grupo de consumidores que tienen serias dudas sobre la seguridad de estos productos. Especialmente con dispositivos que escuchan casi todo lo que se habla dentro de su rango. Las primeras grandes olas de ataques, como el BotnetMirai, han atraído la atención de expertos en seguridad.

El consumidor promedio aún no es consciente del alcance de este tipo de ataques. Sin embargo, la presión sobre los fabricantes está creciendo y con ella la demanda de mejores medidas de seguridad y protección de datos.

 

Por David Montoya, Director de Canales de Paessler Latinoamérica.

Los cuatro retos del Big Data y Analytics, según Gartner

En el marco del primer Gartner Data & Analytics Summit en la Ciudad de México, la consultora destacó que con el surgimiento de tendencias como Internet de las Cosas, Inteligencia Artificial y aprendizaje automático como nuevos pilares de los negocios digitales, los datos y analíticos se están volviendo dominantes, sustentando todos los modelos de negocio.

Para alcanzar este objetivo, los analistas de Gartner señalaron que aún existen cuatro retos que los especialistas deben superar: confianza, diversidad, complejidad y conocimiento.

Donald Feinberg, vicepresidente y analista de Gartner, comentó que existe una oportunidad sin precedentes para ampliar los datos fundamentados y acelerar los descubrimientos analíticos.

 

Confianza

En un mundo en el que aumenta el fraude, la incertidumbre y las fake news, la confianza es un bien escaso pero crucial en los negocios digitales: nada funciona sin ella. Las empresas deben esforzarse por asegurar que todas las partes involucradas confíen en sus datos a la vez que deben permitir un nivel de observación y examen de sus datos que no existe en la mayoría de las organizaciones.

Las nuevas estrategias deben centrarse en la confianza en los datos. “Estas estrategias se basan en dos técnicas: crowdsourcing y automatización. Con el sistema de crowdsourcing, los usuarios etiquetan lo que hacen y proporcionan, durante el proceso, un registro del linaje de datos (Data Lineage). Así se crea un método más dinámico para confiar en los datos. La automatización se refiere al surgimiento de los catálogos de datos como una competencia crítica de la gestión de datos. Al adoptar estas dos técnicas, la confianza en los datos aumentará significativamente gracias a la capacidad de verificar su origen”, comentó Peter Krensky, analista investigador senior de Gartner.

 

Diversidad

La diversidad incluye algoritmos, personas y datos. Como nuestras opiniones y prejuicios se codifican en los algoritmos “las organizaciones deben crear métodos de verificación mejores para las suposiciones y datos usados en los algoritmos que permitan garantizar que sean justos e incluyan los valores atípicos”, afirmó Cindi Howson, vicepresidente de investigaciones de Gartner. “Eso se torna particularmente difícil cuando el sector tecnológico carece de diversidad y suele enfocarse solamente en las diferencias visibles, tales como el género. Además, es necesario que dejemos de integrar solo los datos a los que se accede fácilmente e integremos los datos pertinentes”.

 

Complejidad

La complejidad plantea un desafío porque es difícil comprender cabalmente la dinámica de los negocios y tener el tiempo necesario para responder de manera adecuada.

“Hoy, los líderes en datos y analíticas tienen la oportunidad de construir plataformas de datos y análisis precisas y exactas. Estas plataformas proveerán más contexto, gracias a la recopilación de datos integrales; mayor comprensión, gracias a un sistema de medición y clasificación sólido; y más tiempo para responder, gracias a los sistemas de baja latencia”, explicó Krensky. “Mayor contexto, comprensión y baja latencia transforman una complejidad abrumadora en una ventaja competitiva. Comprender el patrón que subyace a la complejidad acelera el tiempo de respuesta. Dominar esta complejidad es la clave del éxito de las iniciativas analíticas”.

 

Conocimiento

A medida que las empresas se fortalecen con equipos más diversos, que cuentan con datos más complejos, la necesidad de poder “hablar en el idioma de los datos”, de la misma manera, es mayor que nunca antes.

“Si no hay un lenguaje en común que sirva para interpretar los diversos datos de la organización, habrá problemas fundamentales en la comunicación cuando se empleen soluciones basadas en datos y analíticas”, afirmó Howson.

En la tercera encuesta anual de Gartner a los directores de datos, los consultados afirmaron que el obstáculo más grande para lograr el progreso mediante datos y analíticas es el escaso conocimiento sobre los datos. Los líderes en este campo deben aprender a tratar la información como una segunda lengua y el conocimiento es un elemento fundamental para la trasformación digital.

Gartner espera que, para 2020, 80% de las organizaciones ponga en marcha el desarrollo deliberado de competencias en el campo de los datos, tras admitir que hay una gran deficiencia.

“Desarrollar este tipo de conocimientos puede ser perturbador”, manifestó Howson. “Evaluar el conocimiento sobre datos de las personas que crean y consumen información es un paso fundamental para garantizar que la organización esté equipada con las habilidades adecuadas para satisfacer las necesidades presentes y futuras de la sociedad digital”.

 

Veeam y Lenovo se unen para ofrecer Gestión Inteligente de Datos para SDI y SAN

Veeam y Lenovo anunciaron una nueva alianza global para impulsar la Transformación Digital a través de infraestructura, software y soluciones inteligentes que sean capaces de resolver problemas empresariales. Esta asociación permitirá adquirir las soluciones de Gestión Inteligente de Datos de Veeam con la oferta de Infraestructura Definida por Software (SDI) y red de área de almacenamiento (SAN) de Lenovo directamente desde Lenovo y sus distribuidores en una sola transacción.

La integración de Veeam con las soluciones de Lenovo ofrece a las organizaciones una amplia gama de opciones y flexibilidad para ofrecer disponibilidad, simplicidad de TI, rendimiento escalable, eficiencia operativa e innovación acelerada para asegurar la Hiperdisponibilidad Empresarial.

Esta combinación de tecnología pretende simplificar las TI, mitigar riesgos y ofrecer la Gestión Inteligente de Datos necesaria para acelerar y hacer crecer los negocios. Como resultado, los clientes pueden eliminar los costos y complejidad de la infraestructura de legado, virtualización y administración de protección de datos, y proporcionar un ROI incrementado a través de soluciones de Gestión Inteligente de Datos que aceleran el desarrollo e implementación de aplicaciones, soportan analítica de datos y simplifican la recuperación ante desastres.

Las organizaciones también reciben la garantía de que la solución combinada de Veeam y Lenovo es validada por ambas compañías y ofrecerá óptimos beneficios de negocio.

Los clientes de Lenovo podrán aprovechar de una arquitectura fácil de implementar y fácil de administrar de Veeam, para optimizar los niveles de servicio de disponibilidad de todas las aplicaciones y datos a lo largo y ancho de cargas de trabajo físicas, virtuales y en la nube.

Entendiendo el Blockchain de punta a punta

La tecnología blockchain tuvo origen en 1991 cuando Stuart Haber y W. Scott Stornetta describieron el primer trabajo sobre una cadena de bloques asegurados criptográficamente. Sin embargo, ha logrado mayor notoriedad en 2008 debido al bitcoin y, según publicó Market Watch, para el 2022 se proyecta un crecimiento anual de los 51% para varios mercados, como el financiero o el de Internet de las Cosas (IoT).

Su funcionamiento puede resultar complejo de entender si se profundiza en los detalles internos de su implementación, pero la idea básica es sencilla. En el caso de las criptomonedas se podría pensar como el libro contable donde se registra cada una de las transacciones”, comenta Camilo Gutierrez, Jefe del Laboratorio de ESET Latinoamérica.

En cada bloque se almacena una cantidad de registros o transacciones válidas, información referente a ese bloque, su vinculación con el bloque anterior y el bloque siguiente a través del hash de cada bloque ─un código único que sería como la huella digital del bloque. Cada bloque tiene un lugar específico e inamovible dentro de la cadena. La cadena completa se guarda en cada nodo de la red que conforma la blockchain, por lo que se almacena una copia exacta de la cadena en todos los participantes de la red.

A medida que se crean nuevos registros, estos son primeramente verificados y validados por los nodos de la red y luego añadidos a un nuevo bloque que se enlaza a la cadena.

Esquema de la cadena de bloques.

“Al ser una tecnología distribuida, cada nodo de la red almacena una copia exacta de la cadena, se garantiza la disponibilidad de la información en todo momento. En caso de que un atacante quisiera provocar una denegación de servicio, debería anular todos los nodos de la red, ya que basta con que al menos uno esté operativo para que la información esté disponible. Si un atacante quisiera modificar la información en la cadena de bloques, debería modificar la cadena completa en al menos el 51% de los nodos”, explica Gutierrez.

Dado que cada bloque está matemáticamente vinculado al bloque siguiente, una vez que se añade uno nuevo a la cadena, el mismo se vuelve inalterable. Si un bloque se modifica, su relación con la cadena se rompe. Es decir, que toda la información registrada en los bloques es inmutable y perpetua.

La tecnología de blockchain permite almacenar información que jamás se podrá perder, modificar o eliminar.

Además, cada nodo de la red utiliza certificados y firmas digitales para verificar la información y validar las transacciones y los datos almacenados en la blockchain, lo que permite asegurar la autenticidad de dicha información.

Blockchain actúa como un medio para certificar y validar cualquier tipo de información. Un registro confiable, descentralizado, resistente a la manipulación de datos, y donde queda todo registrado.

Los datos están distribuidos en todos los nodos de la red y al no haber un nodo central, todos participan por igual, almacenando y validando toda la información. Es una herramienta potente para comunicarse y almacenar información de forma confiable.

“Blockchain permite verificar, validar, rastrear y almacenar todo tipo de información, desde certificados digitales, sistemas de votación democráticos, servicios de logística y mensajería, contratos inteligentes y, por supuesto dinero y transacciones financieras. Es una tecnología que permite eliminar la confianza de la ecuación y reemplazarla por verdad matemática.”, concluyó Gutierrez.

Cinco beneficios de la emulación y virtualización de sistemas legacy

La emulación y virtualización se han convertido en una real opción para aquellas organizaciones que necesitan comenzar con un proceso de transformación digital pero se encuentran con el obstáculo de aún contar con aplicaciones clásicas legacy y no pueden asumir el riesgo de reinventar la lógica de negocios en una migración de software.

De acuerdo con IDC, en el primer semestre de 2017, el mercado global de servicios en nube pública creció 28.6% en comparación con el mismo período de 2016, con un total de 63.200 millones de dólares. Y para 2018, se pronosticó un crecimiento del 40% en inversiones para soluciones en nube en América Latina.

Eduardo Serrat, Director de Tecnología de Stromasys, nos comparte cinco beneficios que ofrece la emulación y virtualización de los sistemas legacy y destaca como estas soluciones han evolucionado en las últimas décadas y se han adaptado a las nuevas tecnologías.

  1. Reducción del costo: las soluciones de emulación y vitualización tienen un bajo costo durante la migración total y, por lo general, el valor es menor que el costo del soporte de hardware clásico “legacy”.
  2. Reducción de riesgo: elimina el riesgo de tiempo de inactividad no planificado.
  3. Ahorro de energía: la reducción sustancial del consumo de energía reduce el impacto medioambiental de la empresa.
  4. Reducción de espacio físico y disipación de calor asociado a los sistemas clásico, “legacy”.
  5. Protección de la inversión: las aplicaciones seguirán funcionando sin cambios en una plataforma moderna, garantizando la continuidad de los negocios.

 

 

Aspectos a considerar al establecer Cultura de ciberseguridad

Seguramente le suene familiar la frase: “Las personas suelen ser la parte más débil en la cadena de seguridad informática”. Por más anticuada que suene la frase, sigue aplicando en 2018. Los administradores de TI se enfrentan al factor humano todos los días.

Hoy queremos mirar en detalle cuándo los empleados de una compañía representan un riesgo para la seguridad informática y, a partir de esa identificación de riesgos, mostraremos 13 maneras eficientes para fomentar la cultura de ciberseguridad entre colegas y empleados.

Hoy en día, una de cada dos compañías está siendo atacada digitalmente. Los empleados están permitiendo que muchos hackers accedan a información confidencial. Esto facilita el espionaje industrial, el robo de datos y el sabotaje.

 

1. La memoria USB encontrada

¿Alguna vez ha encontrado una memoria USB? No me refiero a una propia, que perdió en algún momento, sino a una, que apareció en algún lado. ¿Sí? ¿Sintió curiosidad e insertó la memoria en su computadora? Si es así, no es la única persona en hacerlo. Según el alcance de un estudio, casi 300 memorias USB se perdieron “accidentalmente”, para descubrir qué pasaría. Casi todas las memorias fueron tomadas por quienes las encontraron, y 45% abrió al menos un archivo contenido en la memoria.

Un hacker que prepara una memoria USB tiene muchas posibilidades. Por ejemplo, puede usar un archivo infectado para espiar datos de acceso y contraseñas (ingeniería social) o difundir amenazas de día cero a través de la red. El atacante incluso puede preparar el dispositivo de tal manera haga creer a la computadora que es un teclado, y luego ejecute comandos a través de simular combinaciones de teclas. Esto se llama HID spoofing.

 

2. La venta de la información de la compañía

Cualquiera que haya trabajado alguna vez en un departamento de desarrollo sabe cuán valiosos pueden ser los datos de la compañía. Vender anteproyectos, recetas, diseños de desarrollo u otros secretos comerciales es un buen negocio para los empleados. Un compañero de trabajo insatisfecho, junto con el justo impulso criminal y que tenga la posibilidad de transferir la información es suficiente para llevar a una empresa a una crisis.

 

3. Robo de información del cliente al cambiar de trabajo

En algunas áreas, parece ser una práctica estándar tomar datos sensibles de clientes de un empleador a otro. Es común escuchar de algún representante de ventas, que fue contratado por un competidor y que se pone en contacto con nosotros poco después para volver a hacer negocios juntos. Lo que sucede en este caso es el robo clásico de información, que no es menos grave que si el empleado se hubiera llevado consigo una laptop de la empresa y el auto al final de su contrato de trabajo.

4. Preferir la comodidad sobre la seguridad

Después de instalar las últimas actualizaciones de Windows, la computadora debe ser reiniciada. El antivirus reduce la velocidad de la computadora. Los empleados que anteponen la comodidad prefieren evitar estos procesos. Si es posible desactivar las actualizaciones o los antivirus, lo harán y la seguridad informática sufre mucho.

 

5. Incertidumbre o “el Fraude del CEO”

En el caso del “Fraude del CEO”, por ejemplo, los atacantes simulan ser el director de la compañía por teléfono o email y logran que un empleado transfiera una suma notable de dinero a otro país. El empleado normalmente es engañado por la figura de autoridad de quien lo solicita, y aprueba la transacción. Esta estafa puede causar daño por varios millones con consecuencias de gran peso para las compañías afectadas o los empleados que caen en el engaño.

 

6. Descargas y streaming desprotegidos

Muchos empleados tienen acceso a Internet desde su lugar de trabajo de forma directa. A pesar de estar constantemente mejorando los sistemas de seguridad informática y filtros Web, los colegas que tienen experiencia y conocimiento tecnológico se las ingenian para tener acceso a contenido inseguro en la Web constantemente. Probablemente no deba explicar cómo funciona este proceso a los administradores de TI que nos leen.

Incluso hay empleados muy sofisticados que logran ver en streaming las películas más recientes en turnos nocturnos desatendidos o que descargan una gran cantidad de archivos cuestionables y posiblemente maliciosos.

 

7. Ocultar incidentes de seguridad

En 40% de las compañías a nivel mundial, los empleados ya han ocultado incidentes relacionados a la seguridad bajo la alfombra. Este fue el resultado de una encuesta hecha por Kaspersky cooperando con B2B International – se encuestaron a 5,000 compañias.

Estos incidentes de seguridad incluyen ataques de Malware, durante los cuales el software malicioso fue transferido a la computadora de un empleado. Si el empleado afectado permanece en silencio sobre estos incidentes, el código malicioso puede llegar a toda la red de la compañía.

8. TTPD (¡Trae tu propio demonio!)

En muchos casos, el empleado lleva al demonio dentro de la compañía. De repente, información sensible de la empresa se escabulle hacia smartphones privados, sin asegurar el dispositivo de forma consistente.

El mismo smartphone en el cual las cifras de ventas actuales se almacenan en la tarde pasa de mano en mano en un bar por la noche, para mostrar fotos de las últimas vacaciones.

La posible pérdida de los dispositivos móviles también juega un rol. Según un estudio, más que la mitad de los incidentes de seguridad en las compañías encuestadas son debido a la pérdida de ese dispositivo.

 

9. Tener buena fe

A muchos atacantes les gusta aprovecharse de la buena fe de las personas ¿Usted como administrador alguna vez llamó a un colega y le pidió su contraseña en el teléfono? ¿Ya sea porque facilita el mantenimiento remoto o porque simplemente ha ahorrado tiempo o distancia en ese momento? Probablemente su colega le haya dicho la contraseña también. ¿Qué sucede si el “colega del departamento de tecnología” no es usted, sino que un atacante desconocido? ¡Este tipo de situaciones ocurren miles de veces al día!

 

10. Descuido

¡Los empleados indiferentes son veneno para las compañías! Raramente contribuyen a la productividad y también son una vulnerabilidad potencial en términos de seguridad tecnológica. La actitud de “no me importa” se puede reflejar en todas las cuestiones relevantes para la seguridad. Ya sea por el manejo laxo de las contraseñas, la divulgación generalizada de información sensible o la distribución demasiado general de los derechos de acceso cuando se comparten archivos con personas externas a la empresa, la seguridad se ve invariablemente comprometida por dichos empleados.

 

11. Spam/Phishing

¡La vulnerabilidad más común relacionada a la seguridad de tecnología sigue siendo muy popular en la actualidad! Hacer click desconsideradamente, o la curiosidad sobre los archivos adjuntos de remitentes desconocidos o el ingreso de información sensible en campos de entrada de formularios no destinados a este propósito continúan causando pérdidas anuales en compañías que alcanzan miles de millones.

 

12. Seguir a tu CEO de cerca

Si, leíste correctamente. Tu CEO no es mucho mejor que el resto del personal. La mujer o el hombre que está al mando de tu compañía también debería estar en la cima de tu lista de seguridad. El FBI estimó que la pérdida monetaria de las estafas de nivel C son cerca de $2.3 millones de dólares en los últimos tres años. Muchos CEO también sienten que están exentos de cometer esos errores, renuncian al software de seguridad y consideran que algo como esto no podría sucederles.

Normalmente, encontramos 5 categorías de vulnerabilidades entre los CEO:

  • Contraseñas con seguridad baja
  • Manejo descuidado de los datos
  • Seguridad del software poco adecuada
  • Gestión ineficaz del acceso a los datos
  • Baja conciencia de seguridad informática

 

Bueno, todo esto no es motivo para perder la esperanza de un entorno de tecnología seguro. Se pueden abordar muchas de estas vulnerabilidades y se puede mejorar la comprensión de los datos y los sistemas de tecnología de sus colegas.

 

Por: David Montoya, Director General de Paessler Latinoamérica.

Cuatro aspectos a considerar antes de migrar todo a la nube

Organizaciones de todo el mundo están optando por migrar a la nube, parcial o totalmente, sus cargas de trabajo a nubes públicas. El cambio resulta lógico, ya que los beneficios de esta estrategia son evidentes. Sin embargo, una nube pública no funciona de la misma forma que una red física alojada en las instalaciones. Por lo tanto, es necesario comprender que hacer la migración a la nube no consiste meramente en “cambiar algo de lugar”. Es más, podría arrepentirse de no considerar todos los aspectos que conlleva esta tarea.

Ante este panorama, una estrategia sólida para crear su nueva arquitectura consistiría en hacerse estas cuatro preguntas antes de comenzar:

  • ¿Cuál es el alcance de su estrategia de migración y el plazo previsto?
  • ¿De qué manera gestionará la disminución de visibilidad de la red mientras realiza la migración a la nube?
  • ¿Será necesario implementar herramientas de seguridad y monitoreo en línea?
  • ¿De qué manera piensa medir el rendimiento de la red con precisión?

Estos aspectos conllevan importantes desafíos para las empresas que consideren la implementación de la nube. No obstante, existen soluciones y procesos viables para mitigar estas cuestiones y contribuir a que la migración a la nube sea lo más beneficiosa posible. Analicemos en profundidad las cuatro preguntas.

 

La estrategia de migración y su planificación, esenciales para el éxito

Varios profesionales de TI se sienten decepcionados luego de hacer el cambio a la nube. De acuerdo con los resultados de una encuesta realizada por Dimensional Research, nueve de cada diez participantes afirman haber notado un impacto negativo directo en el negocio debido a la falta de visibilidad de tráfico de la nube pública. Esto abarca cuestiones de resolución de problemas de red y de aplicación, problemas de rendimiento y también demoras en la resolución de alertas de seguridad derivadas de la falta de visibilidad.

En diciembre de 2017, en la Conferencia de Centros de Datos organizada por Gartner, Sanjit Ganguli (Gartner Research) también hizo un sondeo y descubrió que el 62 % de los encuestados no estaba conforme con los datos de monitoreo proporcionados por su proveedor de nube luego de haber migrado a este paradigma. Asimismo, el 53 % de los encuestados afirmó ignorar lo que sucede en su red en la nube.

Un error muy común es creer que todos los componentes de su red física tienen un equivalente en la nube. No es así.

Al migrar a la nube, pasa de un entorno en el que usted tiene el control total a otro en el que el control es limitado. Esta situación es similar a la de mudarse de una casa propia a una rentada. Seguirá viviendo en una casa, pero sujeto a las normas de alguien más, mientras le paga a cambio del privilegio.

Por ejemplo, si antes de migrar a la nube no diseñó un buen plan para el cambio, le resultará difícil monitorear el rendimiento de la aplicación. No podrá obtener de manera nativa la información que necesita desde el proveedor de servicios de nube. Es necesario realizar una planificación para mitigar o remediar esta pérdida de información.

Las redes de la nube no ofrecen visibilidad de forma nativa

Una vez que migre a la nube, y durante el proceso de migración, no tendrá una visibilidad clara del nivel de red. La única manera de obtener información sobre la red de la nube y algunas partes del sistema operativo será a través de proveedores de servicios basados en la nube. Estos proveedores proporcionan metadatos resumidos sobre información centrada en la nube (red, procesamiento, almacenamiento), entre los que se incluyen datos de la nube de alto nivel (por ejemplo rendimiento de CPU, consumo de memoria, etc.) y ciertos datos de registro.

Un paquete de datos de red es algo que ni los proveedores de servicios de nube ni otras herramientas de la nube ofrecen. Estos datos resultan fundamentales para las investigaciones de seguridad y para la resolución de problemas mediante el análisis de las causas raíz. Las herramientas de prevención de pérdida de datos (DLP) y gran parte de las herramientas de gestión del rendimiento de aplicaciones (APM) dependen del paquete de datos para el análisis de problemas. Las herramientas típicas de la nube proporcionan datos limitados y, generalmente, con retraso, lo cual puede afectar drásticamente el rendimiento de la herramienta. Por ejemplo, al cabo de 30 minutos, los datos tácticos pierden el 70 % de su valor para el monitoreo del rendimiento.

Además, los proveedores de nube tampoco proporcionan datos sobre la experiencia de los usuarios ni la capacidad de mirar conversaciones.  Esto quiere decir puntualmente que no se puede medir con precisión la calidad de la experiencia del cliente mediante los datos que brindan los proveedores de nube. Asimismo, por medio del flujo de datos, se puede ver quiénes son los participantes, pero no así los detalles de la conversación.

Una solución sencilla a este problema es agregar sensores de monitoreo de datos en la nube (también denominados “taps virtuales”) a su red allí. Estos sensores permiten replicar copias del paquete de datos y enviarlas a las herramientas de resolución de problemas, seguridad o rendimiento. Así, las herramientas pueden obtener la información necesaria para desempeñar sus funciones como corresponde. Sin embargo, es fundamental que los sensores de datos puedan escalar la información automáticamente cuando sea necesario. Dadas las particularidades de los entornos de nube, también es necesario que los sensores tengan la capacidad de escalar la información en la medida en que haga falta.

Las herramientas de monitoreo y seguridad en línea alojadas en las instalaciones no funcionan de la misma forma en la nube

Debido a la naturaleza de la nube pública, las herramientas en línea no suelen considerarse como una opción. Los proveedores de nubes públicas no permiten que los clientes accedan a sus niveles de red y de sistema para implementar cualquier tipo de herramienta de seguridad en línea (por ejemplo, el sistema de prevención de intrusiones [IPS], la prevención de pérdida de datos [DLP] o el firewall de aplicaciones web [WAF]), ya que esto podría representar un riesgo de seguridad para su propia red. Si usted piensa implementar protección de seguridad en línea, debe entender que no será una configuración común como la de los dispositivos alojados en sus instalaciones (por ejemplo, la de un típico IPS).

La falta de implementación de herramientas en línea lógicamente supone un riesgo en el entorno de la nube que será necesario afrontar. Entonces, ¿cómo puede asegurar su entorno desde ahora? En primer lugar, es necesario implementar una arquitectura que le permita adoptar una actitud proactiva y anticiparse a los riesgos. Esto abarca los componentes de visibilidad (como los sensores) que permiten recopilar datos de seguridad y monitoreo de interés para llevar a cabo determinados análisis.

Otra opción para mitigar la amenaza sería aplicar una arquitectura híbrida que le permita conservar las herramientas existentes de seguridad alojadas en las instalaciones físicas para inspeccionar datos de alto riesgo (o datos generales, sí así lo desea). Es posible que esta opción, si se basa en su planificación de riesgos, le proporcione la protección necesaria y minimice el riesgo comercial a un nivel aceptable. Recuerde que la mayoría de los proveedores de procesamiento de nube efectúan cargos por exportar datos. No obstante, los costos de ancho de banda de los datos pueden limitarse transfiriendo solamente los datos relevantes a las herramientas alojadas en las instalaciones.

La medición del rendimiento en la nube depende del proveedor

Otra pregunta importante que debe hacerse es la siguiente: ¿de qué manera piensa medir con precisión el impacto que tiene un bajo rendimiento de red en la aplicación de cargas de trabajo en la nube? Los problemas de rendimiento son un aspecto importante a considerar en redes nuevas en la nube. Cuando migre a la nube, y durante el proceso de migración, no tendrá datos de rendimiento de red claros dentro de su entorno. Depende de usted realizar la implementación para obtener visibilidad. En términos específicos, esto quiere decir que no podrá saber de manera nativa el rendimiento real de sus aplicaciones ni el rendimiento de su entorno en la nube. ¿La medición de rendimiento cumple o supera lo establecido según el Contrato de nivel de servicio (SLA)? Su proveedor de nube probablemente dirá que es así, pero usted no cuenta con datos independientes para controlar y comprobar esta información.

Durante el proceso de migración, el monitoreo proactivo de los entornos, tanto de sus instalaciones como de la nube, será de utilidad. Muchas organizaciones que migran servicios y aplicaciones a la nube sin considerar todos los aspectos involucrados en este proceso enseguida se encuentran con problemas de red en la nube, particularmente problemas de rendimiento.

 

Oficinas remotas y sucursales: ¿Cómo dar el salto hacia la hiperdisponibilidad?

Las oficinas remotas y sucursales son pilares importantes en las empresas, dada su cercanía con los clientes y su exposición hacia el mercado objetivo. Con todo, históricamente han padecido una especie de desatención cuando se trata de infraestructura tecnológica: suelen tener grandes limitaciones presupuestarias y poco espacio físico para armarse de servidores y equipos para cubrir sus necesidades, e incluso en ocasiones ni siquiera cuentan con un staff de TI calificado.

Si bien quisieran tener mayores recursos para hacerse de una infraestructura de TI que habilite la gestión de datos inteligentes y la hiperdisponibilidad, necesarias para anticiparse a las necesidades de los clientes y cumplir sus expectativas, habitualmente sólo reciben atención de las oficinas centrales cuando ocurre algún problema de grandes dimensiones. Conforme las organizaciones adoptan más tecnologías digitales este enfoque se vuelve inaceptable, sobre todo porque siempre existe el riesgo de una falla en los sistemas, errores humanos y ataques maliciosos, como el Ransomware, que ponen en peligro la confiabilidad y accesibilidad de los datos, aplicaciones e infraestructura y, por ende, del negocio.

De acuerdo con el Reporte de Disponibilidad 2017 de Veeam, en México el 77% de las empresas consideran que tienen una brecha de disponibilidad que no les permite estar permanentemente activas, y esto incluye a las oficinas remotas y sucursales, ocasionando costos aproximados de $23.1 millones de dólares, a causa de que el equipo de TI no logra brindar el servicio que esperan las unidades de negocio.

Para que puedan cumplir con las exigencias del mundo conectado actual y dar mejores resultados de negocio a sus corporativos, las oficinas remotas y sucursales deben resolver el desafío de satisfacer su demanda de TI e ir más allá hacia una exitosa transformación digital, impulsando la continuidad Always-On del negocio y la colaboración total a través de estrategias de TI disruptivas e innovadoras.

Seguir estas acciones puede ayudarles a lograrlo:

1. Imitar el centro de datos centralizado

La virtualización reduce drásticamente las limitaciones en TI de las oficinas remotas y sucursales, y minimiza también sus gastos de capital. De igual forma, este entorno les permite tener una capacidad de almacenamiento adecuada y admite sistemas de respaldo y recuperación más avanzados, lo que se traduce en mayor protección.

2. Contar con almacenamiento inteligente

Los sistemas unificados admiten tanto almacenamiento basado en archivos como en bloques, lo que no sucede con las soluciones tradicionales. Esta flexibilidad habilita a las oficinas remotas y sucursales a sacar el mayor provecho de la tecnología y brindar una mejor respuesta a las unidades de negocio.

 

3. Asegurar una visibilidad completa

Una consola que gestione la solución de disponibilidad de forma efectiva y simple, y que provea visibilidad de los respaldos y ambientes virtuales desde cualquier lugar, ayuda a que el equipo de TI sea más eficiente en la entrega de servicios a sus usuarios, y a responder mejor ante la necesidad de recuperar archivos o aplicaciones críticos.

 

4. Aplicar mejores prácticas para una hiperdisponibilidad

La tecnología por sí sola no resuelve el tema de la disponibilidad. La Regla 3-2-1, que establece la necesidad de tener 3 copias diferentes de los datos en 2 medios distintos, con 1 de ellos fuera de las instalaciones, es una práctica imprescindible para las oficinas remotas y sucursales .

5. Hacer más actividades locales

Ejecutar el respaldo y replicación de forma local, en lugar de depender del soporte externo, facilita el manejo de archivos y aplicaciones, lo que redunda en una respuesta más eficiente a las solicitudes de las áreas de negocio.

Con base en las posibilidades y características de cada oficina remota, queda del lado de las organizaciones decidir cuáles de estas acciones pueden llevar a cabo para acercarse al objetivo de un manejo inteligente de sus datos y aplicaciones de misión crítica, lo cual es sumamente importante para garantizar el éxito del negocio en esta era enmarcada por la actividad permanente, la agilidad de respuesta y la hiperdisponibilidad empresarial.

Por: Jan Ryniewicz, director de Marketing de Veeam para Latinoamérica.

Modernización de aplicaciones, la ruta exprés a la digitalización

Reaccionar y adaptarse rápidamente a las nuevas realidades del mercado y satisfacer a sus clientes y ser rentables, son desafíos que deben superar las empresas de prácticamente todas las industrias.

Este escenario activa mecanismos interdependientes -tanto empresariales como técnicos-, los cuales son impulsados por la necesidad de tomar decisiones en tiempo real, así como moldear la infraestructura de TI y construir sistemas para un nuevo escenario que exige inmediatez y efectividad, así como reemplazar los programas legados que podrían convertirse en un lastre.

Tecnologías como la nube, los contenedores y los microservicios, en conjunción con metodologías ágiles, DevOps y la integración/implementación continua, están acelerando el desarrollo de aplicaciones modernas, además de facilitar su mantenimiento y gestión en los actuales entornos de nube (privada y pública).

Asimismo, están allanando la ruta hacia la transformación digital. De acuerdo con IDC, uno de cada tres directores generales (CEOs) centrará sus estrategias corporativas alrededor de la digitalización con el objetivo de hacer las funciones existentes más efectivas y, principalmente, lograr innovar y utilizar los datos de nuevas formas.

Según una encuesta realizada por Puppet y DevOps Research and Assessment (DORA) las empresas de alto rendimiento pueden implementar aplicaciones con mayor frecuencia (hasta 200 veces) que sus contrapartes.

No obstante, 72% del actual gasto de TI se dedica a mantener los sistemas existentes, lo que crea tensión entre lo que necesita hacerse hoy lo que debe realizarse en el futuro. A esto se suma el hecho de que, si se utilizan plataformas y procesos legados para desarrollar nuevas aplicaciones, en el momento de sacarlas a producción ya serán obsoletas.

Red Hat nos comparte seis pasos para llevar con éxito sus planes de modernización de aplicaciones.

1. Vaya a la nube. El cómputo en la nube se ha convertido en el centro de los entornos de TI modernos debido a su escalabilidad y capacidad de añadir y restar nodos bajo demanda -lo que no es posible con sistemas físicos o virtuales.

 

2. Haga las preguntas correctas. La forma de determinar la mejor opción para su entorno es equilibrar el riesgo del cambio y sus objetivos. La estrategia digital debe reflejar su estrategia de negocio (metas, dirección, talento, el contexto que soporte las aplicaciones).

 

3. Decida qué modernizar y cómo hacerlo. Existen varias formas de llevar a cabo la modernización: rediseñar las actuales aplicaciones para un nuevo entorno, migrar una aplicación de un marco a otro, reemplazar las aplicaciones existentes con nuevas o crear ambientes paralelos.

 

4. Enfóquese en sus equipos. Existe escasez de talento tecnológico en todo el mundo, lo que dificulta a los directores de sistemas (CIOs) superar sus retos de TI y de negocio. La recomendación es enfocar la estrategia de TI en identificar dos o tres capacidades centrales que la organización debe ofrecer como un objetivo; utilizar soluciones basadas en estándares abiertos; y seleccionar aquellas cuyo mantenimiento sea sencillo.

5. Dé a los desarrolladores las herramientas adecuadas. Esto ayuda a hacer el ciclo de desarrollo más ágil, especialmente con la realización de pruebas o la automatización.

 

6. Integre un ecosistema. Diseñe un ecosistema de TI que soporte la integración, la escalabilidad y la interoperabilidad. Un proveedor de soluciones que pueda ofrecer experiencia y asesoría en tecnologías y habilidades puede ayudar desde la planeación de la arquitectura hasta el aprovisionamiento.

 

¿Sus aplicaciones pueden sustentar el crecimiento de su negocio?