Categoría: Administración de datos

México, entre los más afectados por ransomware este 2018

Según las conclusiones que dejó la última edición del ESET Security Report, la principal preocupación para las empresas de la región es el ransomware. Es por esto por lo que desde el laboratorio de ESET se analizaron las familias con mayor presencia en cuanto a detecciones en América Latina durante el 2018, concluyendo que el ransomware sigue estando activo y reinventándose en busca de nuevas víctimas.

Luego de analizar una gran cantidad de familias, ESET afirma que el primer puesto en cantidad de detecciones, incluso duplicando al que le sigue, es WanaCryptor; sobre todo en Venezuela, donde presenta un total de 2407 detecciones. Este código malicioso, el más nombrado a nivel mundial durante 2017, se propaga a través de vulnerabilidades conocidas y aún se encuentra muy activo.

El siguiente gráfico muestra la relación entre familias de ransomware más destacadas y detecciones totales a nivel Latinoamérica.

Las 10 familias de ransomware con mayor cantidad de detecciones en América Latina en lo que va de 2018.

Los ransomware que parecen en segundo y tercer puesto son Teslacryp y Crysis. La última muestra a la víctima a través de una ventana que sus archivos fueron cifrados y cuáles son los pasos a seguir para recuperar la información. Es importante destacar la actividad de una cuarta familia, la cual además de cifrar los archivos de la víctima es capaz de robar cierta información sensible.

El mensaje característico de rescate generado por Crysis una vez cifrada la información en el sistema de la víctima.

Venezuela, Perú y México son los países que presentan mayor cantidad de detecciones en Latinoamérica. Muy seguido por Colombia y Brasil.

Pese a que el ransomware parece ser la principal preocupación de los usuarios en nuestra región, aún queda un largo camino por recorrer para que esa inquietud se traslade a medidas específicas de prevención.

Según el estudio de ESET, sólo el 68% de las grandes empresas realiza backup de su información y solo el 56% entre las más pequeñas. Asimismo, solo el 40% de las grandes empresas clasifica la información ─es decir que hace un buen backup.

Teniendo en cuenta que Wanacryptor, el ransomware más popular (y que como vimos en este artículo sigue activo) se aprovechó de una vulnerabilidad de Windows para la cual existía un parche que había sido lanzado dos meses antes del momento del brote, las empresas deberían haber tomado nota de la importante que es tener los equipos actualizados. Sin embargo, de las grandes empresas solo un 43% utiliza una solución para la administración de parches y actualizaciones de software y apenas un 20% de las pequeñas empresas. 

Estas amenazas llegaron para quedarse y día a día intentan evolucionar y reinventarse. Las tendencias no son alentadoras y la rentabilidad de estos códigos maliciosos se mantiene favorable para los ciberdelincuentes. Por ello, resulta necesario proteger la información y otros activos.

 

¿Qué es la híperdisponibilidad empresarial y por qué es imprescindible?

En la actualidad, las empresas tienen el compromiso de garantizar una experiencia digital siempre activa para los clientes mientras, al interior, deben reconstruirse tomando ventaja de tecnologías y prácticas enfocadas en la continuidad del negocio Always-On, la reducción de riesgos y el aceleramiento de la innovación para poder mantenerse vigentes.

La meta es sumamente complicada debido a que los datos, motor de la transformación digital, continúan creciendo de manera impresionante.

IDC estima que en 7 años habrá 163 zettabytes (esto es, 163 trillones de gigabytes) de datos, cuando en 2016 la esfera de datos a nivel mundial ascendía a 16.1 zettabytes. De igual forma la hiper criticidad de los datos va en aumento: según cálculos de la firma analista, para 2025 el 30% del cúmulo total serán críticos o hiper críticos.

Además, los datos provienen de una variedad de fuentes más amplia que nunca, según indica Deloitte, tales como sistemas tradicionales, maquinaria industrial, social media y sensores de IoT, entre otros. Además, a los formatos tradicionales se suman imágenes, audios y videos, de manera que no es difícil suponer que su gestión, almacenamiento y explotación inteligente y ágil, prioritarios para asegurar una operación continua y eficiente, son desafíos de cada vez mayores proporciones.

Por si eso fuera poco, de acuerdo con el Reporte de Disponibilidad 2017 de Veeam, el 67% de las empresas en México presentan alguna inactividad no planificada de 1 a 10 veces al año, ya sea por errores humanos, fuerzas externas u otros factores, y en el 31% de los casos, dichas interrupciones duran de 31 a 59 minutos, lo cual es inaceptable en la era de la digitalización y las operaciones permanentemente activas.

Por ende, el 77% de ellas afirman tener una brecha de disponibilidad al no cumplir con los acuerdos de niveles de servicio (SLA, por sus siglas en inglés) esperados, y 7 de cada 10 experimentan una brecha de protección ya que no pueden proteger los datos de manera frecuente y confiable.

Por todo lo anterior, hoy en día contar con una estrategia enfocada en respaldar, asegurar y mantener disponibles los datos no es suficiente. Para avanzar en la transformación digital, las organizaciones deben ocuparse de que los datos se muevan con seguridad a través de las infraestructuras multi-nube, cumplan las expectativas de un mundo siempre conectado y móvil, y se lleven a nuevos niveles de inteligencia para ser capaces de anticiparse de manera automática a las necesidades y satisfacer la demanda. En otras palabras, deben implementar la hiperdisponibilidad empresarial.

Las empresas hiperdisponibles cuentan con lo que se requiere para llevar a cabo su transformación digital con éxito, pues dominan los desafíos relacionados con los datos al automatizar de forma segura el aprovisionamiento y gestión del flujo masivo y constante de datos que se ejecuta en su infraestructura, en la cual comúnmente conviven múltiples nubes.

El mercado de la hiperdisponibilidad involucra diferentes soluciones, a saber: infraestructura como servicio (IaaS, por sus siglas en inglés) en la nube, control y visibilidad, protección de datos on-premise, gestión de datos, e-Discovery, seguridad de correo electrónico y respaldo empresarial. En combinación, de acuerdo con Veeam (basado en reportes de analistas), es un segmento que vale actualmente $30,000 millones de dólares y se estima que su rango de crecimiento anual compuesto (CAGR) a 3 años es de 9.4%.

La hiperdisponibilidad aporta nuevos conocimientos a partir de los datos e incrementa rápidamente la productividad para que las empresas puedan acelerar su ritmo de innovación y la entrega de nuevos servicios y experiencias digitales que mejoren la forma en que vivimos y trabajamos. No es gratuito que se trate de la nueva expectativa de las organizaciones.

 

Por Aarón Sánchez, Gerente de Cuentas Corporativas de Veeam México.

Big Data e Inteligencia Artificial para ofrecer un mejor contenido digital: Cultura Colectiva.

Cultura Colectiva (CC) ha crecido a grandes números desde su fundación en 2011, como un medio de apoyo a artistas independientes, siendo hoy en día una de las principales plataformas generadoras de contenido digital en México, América Latina y público hispanohablante en Estados Unidos, todo esto logrado gracias al uso y aprovechamiento de herramientas tecnológicas.

Sin embargo, algo que les ha ayudado a mejorar el engagment con sus usuarios ha sido la salido a producción una herramienta totalmente desarrollada in house, basada en análisis de datos e inteligencia artificial de contenido en la web, no sólo de texto sino de imágenes y sentimientos, con la finalidad de entregar contenido más enfocado a audiencias específicas, ofreciendo marketing digital de un modo menos invasivo.

“Nos dimos cuenta de que la tecnología nos funciona como un impulsor de la creatividad y la cultura en todos los sectores. Ahora, con esta herramienta nuestros colaboradores podrán ofrecer un contenido con más viralización, lo cual a su vez nos ayuda a ser un medio diferente”, comentó  Adolfo Cano, cofundador y Chief Business Developer  de Cultura Colectiva.

Por su parte, Luis Enríquez, cofundador y CEO de Cultura Colectiva, destacó el interés de las compañías de hoy en día por un acercamiento más directo a sus consumidores, especialmente los millennials, donde ven una gran oportunidad de negocio en el uso combinado de la tecnología con el desarrollo de contenidos. “En CC hemos integrado esta tecnología desarrollada por nuestro equipo de más de 25 Data Science, al talento creativo de toda la compañía para ayudar a nuestro clientes a alcanzar su objetivos de negocio. A este proceso le llamamos ConTech”, comentó.

Gracias a su sistema de big data e IA, la empresa puede no sólo realizar un análisis en internet, desde redes sociales, hasta el tráfico de la red, a fin de identificar tendencias, sino que gracias a su IA puede incluso anticipar aquello que será viral y tendencia. “Nuestro software posibilita contar con un entendimiento tan profundo de audiencias que se pueden obtener insights y redireccionar estrategias en tiempo real, generando hasta cuatro veces más engagement”, comentó Jorge del Villar, Chief Content Officer de Cultura Colectiva.

Cultura Colectiva: Adolfo Cano, cofundador y Chief Business Developer; Luis Enríquez, cofundador y CEO; y Jorge del Villar, Chief Content Officer.

La herramienta fue lanzada este año, donde el desarrolló tomo unos tres meses para su salida en producción en versión piloto, sin embargo, se trata de una herramienta que se encuentra en constante aprendizaje y actualización para seguir mejorando. “Desde su lanzamiento ha tenido infinidad de cambios para mejorar los resultados”, agregó Luis Enríquez.

Si bien ahora la herramienta sólo está disponible para proyectos de Content Marketing y venta de publicidad mediante Programmatic a través de Cultura Colectiva, no descartan la posibilidad de perfeccionar la herramienta para su venta independiente. Sin embargo, no se tratan de unos planes inmediatos.

-Karina Rodríguez, Computerworld México.

La tecnología es más que cables y fierros

A lo largo de la historia de la humanidad, hemos visto cómo el hombre ha desarrollado objetos con el fin de facilitar el trabajo y mejorar su calidad de vida; desde la invención de herramientas para cazar y cosechar, hasta la utilización del ya famoso cloud computing, observamos cómo el conocimiento aplicado a su alrededor ha provocado grandes cambios.

Si pensamos en la tecnología como la manufactura de simples herramientas, dejamos a un lado dos aspectos muy importantes: a) el objetivo por el que se desarrolló, es decir, la tarea que debía facilitar y, b) beneficios adicionales, es decir, la preocupación por mejorar servicios o beneficios circundantes.

Para explicarlo mejor, tomemos dos ejemplos claros.

Primero tenemos que hablar de un modelo de negocio que, ya existiendo, cambió completamente gracias a la tecnología. El servicio de taxi.

Es común que para trasladarnos utilicemos una aplicación que nos envía un taxi; el servicio ya existía desde hace mucho tiempo, incluso los empresarios más aventurados tenían flotillas de automóviles que rentaban por horas, días o semanas, existían también los famosos sitios de taxis seguros que, al hablar con una operadora nos podía enviar el transporte.

Ahora sólo con unos cuantos clics podemos no sólo pedir el automóvil sino también, conocer el costo del viaje, saber datos del conductor y del vehículo, saber la ruta que seguirá, compartir con alguien más nuestra ubicación en tiempo real y hasta calificar el servicio. Como vemos, esta transformación de un solo servicio a sub-servicios, nos ayudan a entender las necesidades del usuario, creando verdaderas experiencias, gracias al conocimiento que la herramienta nos ofrece.

Asimismo, podemos mencionar un ejemplo futuro (lo comento así porque es una idea que surgió entre pláticas). La zona sur de México, en específico: Yucatán. Una región que en los últimos años se ha convertido en uno de los atractivos turísticos más importantes del país, cuenta con miles de hectáreas que no están siendo utilizadas.

Si bien, en dichas hectáreas se cosechaba el henequén, ahora su utilidad original no está siendo aprovechada, por ello, porqué no pensar en una zona que podríamos denominar Invernaderos de energía. Es decir, utilizar esta región para crear energía sustentable como un campo eólico o solar, que no sólo ayudarán a la región para tener energía, sino que ayudarán para crear empleos a los lugareños y, fomentar el conocimiento de los jóvenes que, tras estudiar, no cuentan con apoyos para aplicar soluciones en la vida real.

Como vemos en estos dos ejemplos, no sólo hablamos de fierros y cables, sino de conocimiento aplicado para el mejoramiento de la vida.

No hablamos de interfases, desarrollos, etcétera, sino que hablamos de lo que verdaderamente esta en juego en la actualidad: Experiencias creadas a partir de la herramienta.

Con todo lo anterior, quiero especificar que tenemos que dejar de pensar en la tecnología como una simple herramienta que nos ayudará para una sola cosa, sino que transformemos nuestro pensamiento para ampliar los alcances que la tecnología nos puede brindar, y eso es lo que está en juego actualmente, la generación de servicios y experiencias adicionales a la tecnología y a lo ya existente.

 

Por: José Luis Zurita, Director General de AK Consulting. 

Ocho características del ladrón corporativo

Actualmente el panorama de la corrupción en México es una de las problemáticas más importantes de atender en el país, que no solo está relacionada con entes gubernamentales; la práctica es cada vez mayor en las compañías, por ello, Kroll México nos da a conocer el perfil que tiene un ladrón corporativo, aquel que decide realizar fraudes en las empresas donde trabajan.

De acuerdo al Reporte Global de Fraude y Riesgo 2017-2018 elaborado por Kroll, los empleados juniors o en entrenamiento (49%); así como ex empleados (37%), y proveedores de servicios de tecnología (34%) son los responsables de llevar a cabo algún tipo de fraude en las compañías.

Kroll detectó acciones y comportamientos comunes de los defraudadores. “Sabemos que no todos los ladrones corporativos son iguales, quieren ser invisibles la mayor parte del tiempo, sin embargo, hay ciertas características que podemos notar se repiten en cada uno de los casos trabajados y nos permiten hablar de un perfil del ladrón corporativo”, comentó Brian Weihs, Director General de Kroll México.

Estas son las ocho las características que identifica Kroll:

  • No se suelen tomar vacaciones. Prefieren no tomar un receso para no ser descubiertos cuando no están en la oficina.
  • Son empleados de confianza. Generalmente se acercan a los dueños o presidentes de empresas y ganan su confianza rápidamente.
  • Son los últimos que salen de la oficina al terminar la jornada. Es en esos periodos de tiempo en los que la oficina está vacía o con menor afluencia de público y empleados, es cuando se cometen las arbitrariedades.
  • Mantienen un bajo perfil dentro de la empresa. Con el fin de encubrir sus actividades, los defraudadores tratan de seguir con su “vida normal” al interior de las empresas, de tal manera que su conducta no despierte sospechas entre sus compañeros de trabajo ni superiores.
  • Logran despistar por completo. Los defraudadores, en general tienden a tener una educación por encima de la media, son de trato agradable y representan al ciudadano común al simular una vida familiar estable.
  • Van más adelante que todos. Los defraudadores día a día se están adelantando a los controles, pues suelen tener un conocimiento muy detallado de la forma en cómo opera la organización y sus sistemas de información.
  • Se manejan como “dueños” del sector donde trabajan. Al tener conocimiento de todo tipo de controles y la confianza de sus superiores, se manejan dentro de su sector de forma muy natural y rápida.
  • Rechazan injustificadamente ascensos o rotaciones. Generalmente no buscan ser promovidos ni cambiados de sector para no perder la relación con el proveedor con el que está haciendo su negocio paralelo.

Este tipo de características, es un parte del panorama, hay otros puntos a analizar. La fórmula que puede llegar a desencadenar algún tipo de fraude en las compañías contiene cuatro elementos importantes: el incentivo, la racionalización, oportunidad, y la capacidad. Estos forman el “Diamante del Fraude” desarrollado por David T. Wolfe, y Dona R. Hermanson.

¿Cómo solucionar esto? Son necesarios los controles permanentes, y el castigo legal a quienes estén cometiendo alguna falta. Si las empresas identifican al ladrón corporativo y en lugar de denunciarlo solo lo despiden sin causa y con indemnización, en definitiva, están generando un escenario de fraudes continuos ya que el resto de sus compañeros se sentirán impunes.

Las empresas deben estar atentas no solo a no generar ambientes propicios para el fraude, sino también a identificarlos rápidamente. “Con un castigo legal podemos terminar con el problema de raíz. Lo importante es que la empresa esté dispuesta a invertir dinero y tiempo en los procesos judiciales”, concluye Brian Weihs.

 

Mida su rendimiento con herramientas de monitoreo

Existen varios estándares de TI que se centran en garantizar que las redes y los sistemas sean seguros y ofrezcan cierto nivel de estabilidad. Algunos ejemplos son ISO/IEC 27000 y PCI DSS. Para que las organizaciones o entornos cumplan con los estándares requeridos por las certificaciones, se deben cumplir varios Indicadores Clave de Rendimiento (KPIs).

Y aunque diferentes certificaciones pueden enfocarse en aspectos específicos, como la seguridad, muchos KPIs son iguales o similares en todos los aspectos.

Éstos Indicadores Claves de Rendimiento a menudo también se centran en la infraestructura TI, las cuales, explícita o implícitamente, requieren de un monitoreo de red. A continuación veremos algunos ejemplos de estos KPIs y evaluaremos cómo una buena herramienta de monitoreo puede ayudarle a vigilarlos.

 

Configuración de Firewall

Por ser el firewall la primera línea de defensa contra todo tipo de amenazas, es también uno de los principales aspectos a vigilar. Si bien la forma más ortodoxa de monitorear un firewall es verificar regularmente que esté en funcionamiento, la forma en que está configurado es igual de importante. Una configuración incorrecta del firewall o un cambio en la configuración del mismo pueden ocasionar un tráfico imprevisto, involuntario y potencialmente dañino.

Por esta razón, se debe estar alerta del tráfico entrante y saliente para descubrir características y comportamiento fuera de lo normal, como picos en la actividad.

Su herramienta de monitoreo también debería permitirle crear una lista de las conexiones más utilizadas, remitentes más activos y protocolos más usados.

Con esta información, usted puede obtener una visión más clara acerca del estado y la configuración de su firewall.

publirreportaje-paessler-agosto-ilustracion-1

Seguridad de Red

Más allá del firewall, la seguridad general de red es normalmente un componente central de la mayoría de los estándares TI. Esto significa vigilar el tráfico inusual en la red y mantener un registro de los puertos que estén abiertos. Adicionalmente, un factor importante en la seguridad tiene que ver con cerciorarse de que siempre se tenga el sistema operativo con su versión más reciente, las actualizaciones del firmware instaladas, así como que el antivirus esté siempre al día. Una buena herramienta de monitoreo de red puede brindar toda esta información, ayudándole a controlar su nivel general de seguridad en la red.

 

Control de registro

Numerosos estándares prescriben el control de registro como un requisito para el cumplimiento. En esencia, esto quiere decir que controle los registros producidos por diversos sistemas y aplicaciones. Algunos incluso requieren que se tenga un monitoreo de registro para información específica, por ejemplo, el Estándar de Seguridad de Datos de las Tarjetas de Pago (PCI DSS, por sus siglas en inglés), el cual requiere de un monitoreo de los usuarios que acceden al sistema para asegurarse que, en efecto, sean usuarios únicos.

Una herramienta centralizada de control de registro, preferentemente con funcionalidad syslog –un estándar para envío de mensajes de registro en una red informática IP– puede ayudarle a controlar archivos de registro y explorar en busca de problemas. Esto implica escanear archivos de registro con características o eventos específicos, y entonces desplegar alertas y notificaciones cuando los problemas se resuelvan.

publirreportaje-paessler-agosto-ilustracion-2

Estado Óptimo General del Sistema

Muchos KPIs requieren estabilizar ciertos niveles de tiempo de actividad o asegurar velocidades de red específicas. El software de monitoreo proporciona un modo de llevar el registro de un número importante de métricas. Las herramientas de monitoreo permiten observar dispositivos cruciales para asegurarse de que se encuentren funcionando correctamente, verificar los niveles de energía de los proveedores de energía de respaldo, verificar que exista suficiente almacenamiento, y mucho, mucho más.

PRTG Network Monitor es una herramienta de monitoreo que puede ser utilizada para seguir muchos aspectos de su red que están vinculados a los KPI prescritos por los estándares TI.

Para entender más al respecto, haga clic aquí.

Ventajas de adoptar una arquitectura SD-WAN

Dentro de las denominadas infraestructuras definidas por software, las cuales pasan por su mejor momento, se encuentran las arquitecturas SD-WAN, que reemplazan a las redes tradicionales que conectaban varias redes locales gracias a su propuesta software-defined. Estas soluciones están siendo especialmente atrayentes para las empresas que cuentan con instalaciones en distintos puntos geográficos, al aportarles una opción segura y centralizada para el control de la red y del tráfico entre las ubicaciones.

El mercado de este tipo de herramientas tiene una proyección positivas según las principales consultoras. Se calcula que para 2021 moverán unos 8.050 millones de dólares, gracias a una tasa media de crecimiento anual del 69,6%.

Para el vicepresidente de infraestructura de redes de la compañía, Rohit Mehra, el éxito de estas es que ofrecen un modelo más consumado. “Las WAN tradicionales no tenían una arquitectura para cloud, y además están pobremente adaptados a los requerimientos de seguridad asociados a las aplicaciones distribuidas y con base en la nube. Y mientras las WAN híbridas surgen para enfrentarse a algunos de estos desafíos de conectividad de la próxima generación, las SD-WAN se basan en las WAN híbridas para ofrecer una solución más completa”.

Gartner es otra de las consultoras que percibe una crecimiento en este tipo de soluciones, al menos así lo explica uno de sus analistas, Andrew Lerner. “Mientras que muchas tecnologías de red se han sobredimensionado como ‘la próxima gran revolución’, SD-WAN está cumpliendo la promesa, despegando su adopción en poco menos de tres años”, comentó.

Entre los beneficios reales y tangibles que distingue Lerner está el costo, un mejor desempeño y más sencillo, y la disponibilidad, que garantizan un buen retorno de inversión, comparando con otras alternativas.

Lerner aclara que no siempre son todo ventajas, sino que se pueden encontrar varios baches o retos. Entre ellos cita las brechas entre tecnologías, ya que no siempre se pueden conectar todas las redes e interfaces. Además, las complicaciones de gestionar distintas formas de conectividad pueden llegar a hacer que la empresa termine por contratar a terceros, lo que puede repercutir en costes añadidos.

La creciente adopción de redes WAN software-defined está contribuyendo a fusionar dos mercados tradicionalmente separados, como son el de las empresas distribuidas y el de las sucursales.

El SD-WAN está erigiéndose como una tecnología clave para acabar con el software heredado y contribuir a la puesta al día de las herramientas de redes, uno de los elementos primordiales para permitir abordar los procesos de digitalización de las organizaciones.

 

IDG.es

¿Realmente aprovechas la data digital a beneficio de tu empresa?

Diariamente en el mundo digital se produce aproximadamente 1 petabyte de información, el equivalente a llenar más de mil piscinas olímpicas con folios, una impactante cifra que la tecnología ha convertido en un recurso para que las empresas obtengan mejores resultados.

Y es que hoy en día, la información arrojada por las herramientas digitales con las que cuenta una compañía es fundamental para conocer mejor a sus clientes y defina con mayor precisión los objetivos de sus estrategias de marketing. Sin embargo, ¿estás seguro de estar aprovechando realmente toda esa data digital para tu negocio? Puede ser que la respuesta sea un categórico no.

Ariadna Communications Group define a esta información como “la otra data”, datos que no se analizan de manera tradicional pero que tienen un gran valor para tu empresa.

Analizar información no estructurada, aquella que no puede ser incorporada directamente a una base de datos, será clave para el negocio, ya que la capacidad de medir lo “inmedible”, le dará a la empresa ventaja frente a las demás.

Se estima que para el 2025, las empresas generarán el 60% de la información a nivel mundial, y el volumen de datos aumentará 10 veces; además de que la persona promedio conectada a Internet en cualquier parte del mundo interactuará con dispositivos conectados casi 4.800 veces al día, de acuerdo con IDC.

Estas cifras indican que los datos se volverán un potencial a explotar que permitirá descubrir necesidades de los clientes, definir productos, servicios para cada nicho, mantener comunicación enfocada, entender sus perfiles, las rutas que siguen y cómo avanzan en su vida digital.

En una era donde las redes sociales y consultas en línea marcan la pauta en la relación usuario–empresa, la oportunidad de analizar esta información y desmenuzarla es un verdadero diamante en bruto.

Es importante no crear barreras en los equipos digitales de las compañías para que puedan acceder a esa data no convencional, que se vislumbra como una puerta abierta a miles de oportunidades.

Cómo es que confiar en los usuarios permite mejorar la seguridad

El cambio en la seguridad cibernética a un enfoque centrado en el factor humano reconoce que las personas siguen una rutina de tareas identificable para hacer su trabajo. Entender su comportamiento “normal”, ayuda a los equipos de seguridad a detectar e investigar rápidamente las anomalías, como la impresión de una enorme cantidad de datos de los clientes.

El nuevo concepto llamado Protección que se Adapta al Riesgo se centra en cómo, cuándo y por qué las personas interactúan con datos críticos, es decir, correlacionando el comportamiento del usuario con el contexto de sus actividades para analizar el riesgo de manera integral. Y, en lugar de trabar la productividad, la Protección que se Adapta al Riesgo brinda a los usuarios más libertad para hacer cumplir las políticas que son específicas del usuario y que se aplican proporcionalmente solo cuando es necesario, es decir, adaptándose al riesgo presente.

Con este enfoque, el monitoreo continuo y el análisis del comportamiento centrado en el factor humano cobra protagonismo, lo que permite a los equipos de seguridad ver y organizar el riesgo a medida que ocurre, y administrarlo en tiempo real de manera más inteligente a nivel del usuario final. Con la capacidad de administrar los protocolos de seguridad a nivel del usuario individual, las organizaciones pueden personalizar la respuesta de seguridad de acuerdo con el nivel de riesgo que la empresa esté dispuesta a aceptar.

De distintas maneras, el mismo principio se usa en el programa TSA PreCheck (proceso de pre inspección de pasajeros que permite acelerar el paso por los puntos de inspección de seguridad en los aeropuertos). Antes de la existencia del programa TSA PreCheck, todos los pasajeros que volaban en aerolíneas de E.U. eran tratados como posibles amenazas y sometidos a un minucioso control de seguridad para poder acceder a su puerta de embarque.

La TSA (Administración de Seguridad en el Transporte) reconoció que la mayoría de los viajeros no son en realidad una amenaza. Esto llevó al programa TSA PreCheck a crear una nueva clase de “viajeros conocidos” que se someten a un proceso de inspección más simple y más rápido a cambio de proporcionar información de antecedentes detallada. Esta información permite a TSA comprender mejor al viajero individual y establece un nivel de confianza que facilita un proceso de inspección acelerado.

Por todo esto se necesita un cambio de modelo en el razonamiento de la industria de la seguridad cibernética. Los equipos de seguridad se enfrentan a miles de alertas por día: actualmente hay un interminable flujo de amenazas y vulnerabilidades ocultas que pueden activarse en cualquier momento.

Hoy en día, la función de los equipos de seguridad que se encargan de las alertas se ha visto limitada a tratar de encontrar una aguja en un pajar. En este modelo, no es de sorprender que pueda demorarse semanas, meses o hasta años descubrir una intrusión en los sistemas y se hace extremadamente complicado saber a qué alarma se debe hacer caso.

Se necesita un nuevo enfoque para el tema de la seguridad. Uno que no dependa únicamente de soluciones de protección de datos instalados en el pasado, basadas en políticas estáticas en un mundo dinámico y una cultura del “no” que solo sirve para crear fricción, generar frustración en los usuarios y desacelerar la empresa. Es por eso que vemos soluciones de DLP (Data Loss Prevention) que ya no se utilizan más.

Hay dos formas de lograr este objetivo. La primera es diseñar un mejor algoritmo para encontrar esa aguja mientras que la segunda es simplemente deshacerse del pajar. Y todo esto comienza por entender quién está accediendo a los datos.

Sí, confiar en el individuo en lo que respecta a seguridad y al mismo tiempo reducir los roces en la seguridad. Repensar la estrategia de seguridad cibernética en toda la empresa es ahora una obligación de los líderes ejecutivos, del consejo directivo y de todos. La Protección que se Adapta al Riesgo es el camino estratégico a seguir.

 

Por: Ramón Salas, Director Regional para México y Centroamérica en Forcepoint.

¿De qué manera ha progresado la seguridad en la nube en los últimos años?

La incorporación de la tecnología en la forma de hacer negocios y operar las empresas hace mucho no es una tendencia, sino una realidad, y los servicios de nube han jugado un rol significativo no solo en facilitarla, sino en acelerarla. A la par, los ataques cibernéticos se han convertido en noticias destacadas, en donde millones de dólares están en juego, poniendo en riesgo la supervivencia de las empresas y su capacidad de seguir haciendo negocios.

Esto genera preguntas valiosas sobre el estado de seguridad en la nube. Por ello, se trata de entender cómo ésta ha progresado en los últimos años y en cómo alinear los requisitos de seguridad de las empresas, así como la regulación y controles que deben cumplir en el proceso de adopción de servicios en una o más nubes, de las que invierten muchos recursos en desarrollar nuevos servicios y adoptar estándares de seguridad. Esto incluye funciones de autenticación, encriptación y gestión de identidad.

Este esfuerzo ha sido reconocido por empresas en todo el mundo, considerando que el total de organizaciones que desconfían de las nubes ha disminuido aproximadamente de 50 para el 29 %, según el informe del 2017 de McAfee “Construir confianza en un cielo nublado”. Entonces, si en su organización han decidido o están evaluando adoptar servicios de nube, y la seguridad parece ser un obstáculo o es una preocupación, existen algunas medidas que pueden ser tomadas para reducir los riesgos.

  1. Entender sus propios requisitos de seguridad. Existen distintos tipos de datos y por lo tanto, no todos deben tener el mismo tratamiento. Por ejemplo, la información de identificación personal (PII, por sus siglas en inglés) debe cifrarse con una mayor seguridad, dentro y fuera de la nube. Asimismo, existe una posibilidad de que puedan surgir problemas de rendimiento con el uso excesivo de los servicios de cifrado. En resumen, las empresas que adoptan servicios de nube, sean públicas, híbridas o privadas, deben adoptar aquellos estándares y tecnologías que empaten con cada servicio en particular.

 

  1. Clasificar los datos que se alojarán en la nube. Es vital tener un enfoque detallado de la clasificación de datos que existirá en la nube. Igualmente, considerar en el contexto factores relacionados al cumplimiento de regulaciones en la gestión de los mismos, como es el caso de la ley de protección de datos personales y sus variantes en diferentes partes del mundo, para evitar su uso indebido. Para esto, es primordial construir un conjunto de políticas en torno a los datos y ser capaz de automatizar la ejecución de dichas políticas dentro de los sistemas de seguridad en la nube, con base en el ámbito regulatorio al que esté sujeta la empresa, tanto por su actividad de negocios, como por los mercados en los que opera.

  1. Mapeo de una ruta a la seguridad en la nube. Este paso resulta sencillo si se ha realizado correctamente el paso anterior. Significa elegir los servicios de cifrado correctos, que efectuarán los requisitos de cumplimiento y política. Por otro lado, es importante contar con un sistema de gestión de identidades y accesos, que se integre dentro de los sistemas de directorio existentes.

Por último, es sustancial tener todo esto bajo un sistema sólido de gestión de seguridad, que proporcione un monitoreo proactivo y defensa propia. Asimismo, también es conveniente asociarse con un proveedor de servicios de seguridad con experiencia y conocimiento necesario para la implementación, para que los planes de seguridad cibernética estén sincronizados con los objetivos comerciales de la empresa.

El estado de la seguridad en la nube permite cumplir con las exigencias de empresas de todos los rubros, tamaños y origen, siempre y cuando se establezcan políticas adecuadas y se asegure su implementación y cumplimiento. La seguridad es algo que se planifica y administra día a día, e incluye la comprensión de sus requisitos a detalle.

 

Por: Juan José Calderón, gerente de Data Center y Seguridad de CenturyLink Perú.