Autor: Karina Rodríguez

Red Hat cumple 25 años

Jim Whitehurst, presidente y CEO de Red Hat se encuentra de visita en México en el marco del 25º aniversario de la fundación de la compañía.

Según la compañía, México es un terreno fértil de negocio que han hecho de los valores de integración, participación y colaboración parte de sus prácticas cotidianas, las cuales distinguen a la cultura abierta y al modelo corporativo de Red Hat.

“En México he conocido a visionarios y profesionales que han entendido cómo lograr que estos pilares de trabajo, que nos han conducido hasta aquí durante los últimos 25 años, impulsen la evolución de sus organizaciones durante las próximas décadas”, aseguró Jim Whitehurst, quien ha dirigido a Red Hat desde 2008. “Industrias como salud, telecomunicaciones, servicios financieros y sector público, entre otras, han replanteado la manera en que se organizan y trabajan, y encuentran en el código abierto las respuestas para superar los desafíos digitales. Es clave entender que la mayor parte de las compañías, independientemente de su rubro, serán compañías de software en el mediano plazo”.

“La presencia de Jim Whitehurst en nuestro país es una muestra clara del compromiso de Red Hat con las organizaciones mexicanas para impulsar su crecimiento por medio de la innovación abierta”, señaló Alejandro Raffaele, director general de Red Hat México. “El país reúne las condiciones idóneas para crecer y alcanzar su potencial mediante el uso de tendencias clave como son la movilidad, la nube, la virtualización, el middleware, el desarrollo ágil de nuevas aplicaciones y software, así como el uso del open source en el camino de las empresas hacia su transformación digital”, añadió.

El Gobierno del Estado de Jalisco, Banco Azteca, el Instituto de la Función Registral del Estado de México (IFREM) y Axera, entre muchos otros, son ejemplos de organizaciones mexicanas que han aprovechado las ventajas del código abierto y que han iniciado un proceso de modernización que les están permitiendo brindar servicios y productos innovadores a clientes y ciudadanos.

Red Hat llegó a México en 2007 con el objetivo de ofrecer sus soluciones empresariales de código abierto para ayudarle a las empresas locales a generar valor para su negocio y tener la agilidad para responder y adaptarse a los cambios de su mercado.

 

Momentos clave

Entre los hitos más destacados de Red Hat a lo largo de este cuarto de siglo se destacan:

1993: Fundación de Red Hat.

1995: Red Hat publica la primera versión non-beta de Linux.

1998: Nace el término “código abierto”.

1999: Red Hat rompe el récord del valor de las acciones IPO.

2003: Red Hat Enterprise Linux se lanza al mercado. 8 de las 10 principales compañías de servicios financieros son clientes de Red Hat.

2007: Red Hat inicia operaciones en México.

2010: La Bolsa de Valores de Nueva York elige la plataforma y Middleware de Red Hat para su sistema de trading financiero.

2012: Red Hat ocupa el cuarto lugar en la lista de Forbes de “Las empresas más innovadoras del mundo”.

2014: Microsoft y Red Hat se asocian para colaborar en Microsoft Azure.

2016: Red Hat duplica su tamaño en 4 años reportando ingresos por $2,000 millones de dólares en un año fiscal.

2018: Red Hat reporta un crecimiento positivo por 65 trimestres consecutivos (1Q2019).

 

A 25 años de su creación, la compañía cuenta actualmente con 11,000 empleados en todo el mundo, distribuidos en más de 90 oficinas en 35 países.

Dark Tequila, malware bancario que ataca a México desde 2013

Una compleja operación cibernética llamada Dark Tequila ha estado atacando a usuarios en México durante, por lo menos, los últimos cinco años, rodándoles credenciales bancarias y datos personales al incrustar código malicioso que puede moverse lateralmente a través de las computadoras de las víctimas sin conexión a Internet.

Según los investigadores de Kaspersky Lab, ese código malicioso se propaga a través de dispositivos USB infectados y de spear-phishing, e incluye funcionalidades especiales para evadir la detección. Se cree que el agente de amenaza detrás de Dark Tequila es de origen hispanohablante y latinoamericano.

El malware Dark Tequila y su infraestructura de apoyo son inusualmente avanzados para las operaciones de fraude financiero.

La amenaza se centra, principalmente, en robar información financiera, pero una vez dentro de una computadora también sustrae credenciales de otras páginas, incluso sitios web populares, recolectando direcciones corporativas y personales de correo electrónico, cuentas de registros de dominio, de almacenamiento de archivos y más, posiblemente para ser vendidas o usadas en operaciones futuras. Algunos ejemplos incluyen los clientes de correo electrónico de Zimbra y las cuentas de los sitios Bitbucket, Amazon, GoDaddy, Network Solutions, Dropbox, RackSpace, y otros.

El malware lleva una carga útil de varias etapas e infecta los dispositivos de usuarios a través de USB infectados y correos electrónicos de phishing.

Una vez dentro de una computadora, el malware se comunica con su servidor de mandos para recibir instrucciones. La carga útil se entrega a la víctima solo cuando se cumplen ciertas condiciones. Si el malware detecta que hay una solución de seguridad instalada, monitoreo de red o signos de que la muestra se ejecuta en un entorno de análisis (por ejemplo, una sandbox virtual), detiene su rutina de infección y se auto-elimina del sistema.

Si no encuentra ninguna de estas condiciones, el malware activa la infección y copia un archivo ejecutable en una unidad extraíble para que se ejecute automáticamente. Esto permite que el malware se traslade a través de la red de la víctima, aunque no esté conectada a Internet o incluso cuando la red tiene varios segmentos no conectados entre sí. Cuando se conecta otro USB a la computadora infectada, este se infecta automáticamente y así puede infectar otro objetivo, cuando el mismo USB sea conectado.

El implante malicioso contiene todos los módulos necesarios para su operación, incluyendo un detector de pulsaciones en el teclado y el módulo vigilante en Windows para capturar detalles de inicio de sesión y otra información personal. Cuando el servidor de mandos envíe el comando respectivo, nuevos diferentes módulos se instalarán y se activarán. Todos los datos robados de la víctima, se transmiten al servidor del atacante en forma cifrada.

Dark Tequila ha estado activo desde al menos 2013, atacando a usuarios en México o conectados a este país. Según el análisis de Kaspersky Lab, la presencia de palabras en español en el código y la evidencia del conocimiento local del país, sugieren que el actor que se encuentra detrás de esta operación es de América Latina

Video: ¡Larga vida a la Infraestructura de Cableado!

Panduit, fabricante y proveedor de soluciones de Infraestructura Física da un giro innovador en esta era inalámbrica, con propuestas de ahorro y mejor uso.

“Cuando uno construye una casa, lo más importante son los cimientos. En este símil, la infraestructura de cableado siempre ha sido y es el cimiento de la red en una organización, sin el cual nada funciona”, así lo expresa, Juan Pablo Borray Jiménez, Gerente de Desarrollo de Negocios en Latinoamérica de Panduit, al resaltar la importancia que está teniendo la infraestructura física y de red como elemento clave de esta era digital y el destacado papel que tiene su compañía para impulsar este mercado.

El contraste es claro, dice, pues antes sólo bastaba con conectar computadoras a las redes; hoy en día, lo más común es conectar también los sistemas de seguridad, de iluminación, de aire acondicionado, las redes inalámbricas y todo lo que vendrá en el futuro. Por ello es importante que esta infraestructura esté preparada para soportar las tecnologías que surjan.

Dos roles para un mismo “actor”

Los orígenes de Panduit Corp. (combinación de las palabras PAN-el + conDUIT) se remontan a la década de los años 50, cuando su fundador Jack E. Caveney inventa el Ducto Ranurado Panduit, un dispositivo para controlar páneles industriales y cuyo primer cliente fue General Electric (GE). Desde entonces, Panduit ha sido considerada como una autoridad en soluciones de infraestructura de red y eléctrica, por sus adelantos logrados en el Centro de Investigación de Tinley Park, Illinois, su principal sede.

Para estos tiempos de convergencia –cuando se habla tanto de movilidad e Internet de las Cosas–no sólo transporta datos sino también es el medio para llevar energía a los dispositivos que constituyen los sistemas de una red. “Este es uno de nuestros principales mensajes: la relevancia que tiene hoy la infraestructura para jugar ambos roles –el energético y el informático– dentro de una organización”, afirma Borray.

En este sentido, destaca a Power over Ethernet (PoE) como una de las principales tecnologías que están revolucionando este mercado debido a los voltajes bajos que necesita, y que la hacen más segura de instalar y controlar.

El cableado no desaparecerá

La estrategia de negocio de Panduit en México se enfoca hacia tres áreas definidas: las soluciones para Industria, para Centros de Datos y Edificios (Enterprise), y una de sus principales tareas es fortalecer el grupo de partners que tiene en el país, así como la relación directa con usuarios finales, con la intención de difundir conocimiento sobre nuevas tendencias tecnológicas y, en su caso, cambiar paradigmas de uso para un mejor aprovechamiento de su infraestructura.

“Por ejemplo, con la omnipresencia de tecnologías como la inalámbrica, algunos creen que el cableado va a desaparecer, cuando en realidad está evolucionando”, afirma el directivo. “Hoy lo estamos llevando a lugares donde antes no se hacía: a los techos para conectar access points, a cámaras de seguridad o a sensores de diferentes tipos para controlar la temperatura o la iluminación en un lugar de trabajo para incrementar así la productividad del personal. Podemos afirmar que ya es posible instalar hasta cuatro veces más cantidad de puntos de red que lo que hacíamos antes”.

Ahorro de 30% en aire acondicionado

La infraestructura física no sólo se refiere a conectividad, sino también a soluciones que puedan hacer más eficiente y efectiva la operación de un centro de datos, y que permitan monitorear la infraestructura desde el punto de vista ambiental como la humedad, la temperatura, así como efectuar un adecuado manejo térmico.

En este caso, la contención de pasillos que propone Panduit hace posible mantener el aire frío o caliente entre filas de servidores en un centro de datos para así obtener ahorros hasta del 30% del consumo en aire acondicionado. “Esto es realmente significativo si consideramos que más de la mitad del consumo de energía en un centro de datos proviene precisamente del aire acondicionado”.

Elemento de “menos peso”, pero de mayor importancia

“Hemos visto que cuando se empieza a trabajar en un proyecto de tecnologías de la información dentro de las organizaciones hay otros componentes que se les da otra importancia. Por ejemplo, si se quiere tener un sistema que soporte cierto tipo de aplicación, lo primero que le importará al responsable de tal implementación será el software, los equipos y es frecuente que hasta el final se pregunte: “¿Y cómo puedo conectarlos?”.

Borray destaca que si hablamos de costos, el cableado es el elemento que “menos peso” dentro de un proyecto de tecnología; sin embargo, es también el más importante porque si no funciona adecuadamente, ningún otro elemento lo hará. “Se pueden tener las mejores aplicaciones, dispositivos o switches de red, pero si no se cuenta con una infraestructura de cableado que conecte adecuada y eficientemente tales dispositivos, nada de lo que esté por encima podrá funcionar”.

De acuerdo con Borray, es común escuchar que “todos los cableados son iguales”, pero en realidad no es así. “La apariencia podrá ser similar, mas su tecnología de diseño y construcción los hará diferentes. Con innovación y calidad, esto es lo que promueve y propone Panduit, y también lo que nos distingue”, concluye el directivo.

La tecnología es más que cables y fierros

A lo largo de la historia de la humanidad, hemos visto cómo el hombre ha desarrollado objetos con el fin de facilitar el trabajo y mejorar su calidad de vida; desde la invención de herramientas para cazar y cosechar, hasta la utilización del ya famoso cloud computing, observamos cómo el conocimiento aplicado a su alrededor ha provocado grandes cambios.

Si pensamos en la tecnología como la manufactura de simples herramientas, dejamos a un lado dos aspectos muy importantes: a) el objetivo por el que se desarrolló, es decir, la tarea que debía facilitar y, b) beneficios adicionales, es decir, la preocupación por mejorar servicios o beneficios circundantes.

Para explicarlo mejor, tomemos dos ejemplos claros.

Primero tenemos que hablar de un modelo de negocio que, ya existiendo, cambió completamente gracias a la tecnología. El servicio de taxi.

Es común que para trasladarnos utilicemos una aplicación que nos envía un taxi; el servicio ya existía desde hace mucho tiempo, incluso los empresarios más aventurados tenían flotillas de automóviles que rentaban por horas, días o semanas, existían también los famosos sitios de taxis seguros que, al hablar con una operadora nos podía enviar el transporte.

Ahora sólo con unos cuantos clics podemos no sólo pedir el automóvil sino también, conocer el costo del viaje, saber datos del conductor y del vehículo, saber la ruta que seguirá, compartir con alguien más nuestra ubicación en tiempo real y hasta calificar el servicio. Como vemos, esta transformación de un solo servicio a sub-servicios, nos ayudan a entender las necesidades del usuario, creando verdaderas experiencias, gracias al conocimiento que la herramienta nos ofrece.

Asimismo, podemos mencionar un ejemplo futuro (lo comento así porque es una idea que surgió entre pláticas). La zona sur de México, en específico: Yucatán. Una región que en los últimos años se ha convertido en uno de los atractivos turísticos más importantes del país, cuenta con miles de hectáreas que no están siendo utilizadas.

Si bien, en dichas hectáreas se cosechaba el henequén, ahora su utilidad original no está siendo aprovechada, por ello, porqué no pensar en una zona que podríamos denominar Invernaderos de energía. Es decir, utilizar esta región para crear energía sustentable como un campo eólico o solar, que no sólo ayudarán a la región para tener energía, sino que ayudarán para crear empleos a los lugareños y, fomentar el conocimiento de los jóvenes que, tras estudiar, no cuentan con apoyos para aplicar soluciones en la vida real.

Como vemos en estos dos ejemplos, no sólo hablamos de fierros y cables, sino de conocimiento aplicado para el mejoramiento de la vida.

No hablamos de interfases, desarrollos, etcétera, sino que hablamos de lo que verdaderamente esta en juego en la actualidad: Experiencias creadas a partir de la herramienta.

Con todo lo anterior, quiero especificar que tenemos que dejar de pensar en la tecnología como una simple herramienta que nos ayudará para una sola cosa, sino que transformemos nuestro pensamiento para ampliar los alcances que la tecnología nos puede brindar, y eso es lo que está en juego actualmente, la generación de servicios y experiencias adicionales a la tecnología y a lo ya existente.

 

Por: José Luis Zurita, Director General de AK Consulting. 

Las preguntas más frecuentes realizadas en una entrevista de trabajo en México

Una entrevista de trabajo es uno de los primeros filtros que un trabajador debe pasar para poder conseguir un empleo dentro de una determinada empresa, y es uno de los mecanismos que tienen las organizaciones para evaluar a los candidatos y verificar que poseen las habilidades descritas en su CV.

Prepararse para una entrevista de trabajo es, por lo tanto, un paso muy importante para poder asegurar el empleo al cual se está aplicando. Ensayar un diálogo, investigar a la empresa para la cual se quiere trabajar y las tareas fundamentales del puesto al que se está postulando son aspectos a tomar en cuenta para estar listo ante la entrevista.

“En LoveMondays, es posible leer sobre los procesos selectivos en miles de empresas y descubrir informaciones como las preguntas hechas durante las entrevistas”, comenta Dave Curran, cofundador y COO de LoveMondays.

Con base en los datos de la plataforma, LoveMondays elaboró una lista con las 10 preguntas más comunes realizadas en entrevistas de trabajo. “Al estar preparado para una entrevista, el mensaje que se manda al reclutador es el de ser una persona lista para comenzar a trabajar en ese momento, que conoce su campo profesional y está preparada para el puesto al que está aplicando”, señala Curran.

El listado de las 10 preguntas más frecuentes realizadas en entrevistas de empleo se elaboró a partir de más de 1000 evaluaciones de entrevistas realizadas en la plataforma de LoveMondays, y se consideraron las preguntas que más usuarios reportaron haber recibido durante los últimos meses. La lista completa quedó de la siguiente manera:

  1. ¿Por qué te interesa trabajar con nosotros?
  2. ¿Por qué debería contratarte a ti?
  3. ¿Cómo te visualizas en 5 años?
  4. ¿Cuáles son tus debilidades y fortalezas?
  5. ¿Por qué quieres cambiarte de empleo?
  6. ¿Qué experiencia tienes?
  7. ¿Qué te gusta hacer en tus tiempos libres?
  8. ¿Vives con tu familia?
  9. ¿Cómo llevas los conflictos en un trabajo?
  10. ¿Cómo manejas la frustración?

 

La Inteligencia Artificial podría reducir efectos secundarios de Quimioterapias

Uno de los campos más fértiles de aplicación de la inteligencia artificial es el de la medicina. Tanto en los modelos de gestión de la sanidad como en la detección y tratamiento de los distintos tipos de enfermedades. Prueba de ello es la última técnica descubierta por investigadores del MIT (Massachusetts Institute of Technology) que mejora la calidad de vida de los pacientes con glioblastoma, una variante muy agresiva de cáncer cerebral.

Mediante herramientas de aprendizaje automático, los expertos han conseguido reducir las dosis tóxicas de quimioterapia y radioterapia –medicamentos que todavía causan fuertes efectos secundarios que debilitan la salud de las personas ­sin que dejen de ser efectivas.

El modelo basado en inteligencia artificial analiza los regímenes de tratamiento actuales y ajusta las cantidades de forma iterativa. De este modo, se introducen dosis con frecuencias y potencias más bajas que las habituales pero con un grado de reducción de los tumores comparable a los tratamientos tradicionales.

El proyecto, que será presentado la semana que viene en la conferencia Machine Learning for Healthcare 2018 en la Universidad de Stanford (Estados Unidos) ha sido probado ya en 50 pacientes que han sido testigos del éxito y avance de esta nueva técnica.

Los ciclos de tratamiento llegaron a reducir la potencia en una cuarta parte o la mitad de casi todos los tratamientos. E incluso en varias ocasiones se omitió la dosis por completo, programándolas solo dos veces al año en lugar de mensualmente, como es habitual.

El estudio del MIT tiene su origen en el Aprendizaje Reforzado, un método inspirado en la psicología del comportamiento en el que un modelo aprende a favorecer cierto comportamiento que conduce a los resultados deseados.

La técnica cuenta con agentes revestidos de inteligencia artificial que completan acciones en un entorno impredecible y complejo para alcanzar los objetivos. Cada vez que completa una acción, éste recibe una recompensa o penalización, dependiendo del resultado obtenido. Después, el agente ajusta sus actividades en consecuencia para obtener éxito. Para cada paciente, el modelo realizó unos 20,000 ensayos de prueba y error. Asimismo, los investigadores también diseñaron el modelo para tratar a cada persona de forma individualizada.

Este enfoque ya fue utilizado para entrenar al programa informático DeepMind en 2016. El software dio la vuelta al mundo tras lograr vencer a uno de los mejores jugadores del mundo en el juego Go. Además, también se utiliza para entrenar a coches autónomos en maniobras como el estacionamiento.

 

IDG.es

Apple avanza en su proyecto de conducción autónoma

Apple está a punto de recuperar a uno de los ingenieros más importantes dentro de la industria de la conducción autónoma, se trata de Doug Field. El directivo dejó su cargo de vicepresidente de ingeniería de Tesla para reincorporarse con los de Cupertino, concretamente a Project Titan, el brazo inversor en tecnologías especializadas en los futuros vehículos sin conductor. Éste trabajará, según Reuters, junto a otro de los primeras espadas de la firma en este campo, Bob Mansfield, con quien ya lideró los primeros diseños de computadorass Mac en los inicios de Apple.

El movimiento refuerza el proyecto de Apple para los automóviles autónomos. Una estrategia que la empresa mantiene bajo la más estricta confidencialidad, aunque según distintos informes ya involucra hasta a 5,000 de sus empleados.

Field ha trabajado los últimos cinco años en Tesla dentro del equipo de producción del Modelo 3. Pero en el mes de julio se dio la noticia de que abandonaba la firma dirigida por el ínclito Elon Musk. Ahora, regresa a la que fue su casa, Apple.

El propio Tim Cook, CEO de Apple, ya ha manifestado en varias ocasiones la importancia que han cobrado los sistemas de autoconducción para la compañía a los que ha tachado de “muy importantes” para el futuro de las nuevas tecnologías.

Solo queda saber si los de la manzana están trabajando en la fabricación de su propio automóvil, aunque lo más seguro, hasta ahora, es que estén realizando alguna asociación con otros fabricantes expertos en esta área. “Vemos este campo como la madre de todos los proyectos sobre inteligencia artificial”, llegó a comentar Cook, y agregó que Titan ha sido probablemente uno de los campos más difíciles de explotar.

En cualquier caso, el regreso de Field reafirma la apuesta de Apple al mercado de los automóviles inteligentes y autónomos, donde quiere reducir le brecha competitiva con Tesla, actual líder destacado en el segmento.

Apple entró en este mercado en 2014 con CarPlay, un sistema basado en iPhone que se integra con los sistemas de navegación existentes para mostrar mensajes, llamadas, mapas y música.

 

IDG.es

Ocho características del ladrón corporativo

Actualmente el panorama de la corrupción en México es una de las problemáticas más importantes de atender en el país, que no solo está relacionada con entes gubernamentales; la práctica es cada vez mayor en las compañías, por ello, Kroll México nos da a conocer el perfil que tiene un ladrón corporativo, aquel que decide realizar fraudes en las empresas donde trabajan.

De acuerdo al Reporte Global de Fraude y Riesgo 2017-2018 elaborado por Kroll, los empleados juniors o en entrenamiento (49%); así como ex empleados (37%), y proveedores de servicios de tecnología (34%) son los responsables de llevar a cabo algún tipo de fraude en las compañías.

Kroll detectó acciones y comportamientos comunes de los defraudadores. “Sabemos que no todos los ladrones corporativos son iguales, quieren ser invisibles la mayor parte del tiempo, sin embargo, hay ciertas características que podemos notar se repiten en cada uno de los casos trabajados y nos permiten hablar de un perfil del ladrón corporativo”, comentó Brian Weihs, Director General de Kroll México.

Estas son las ocho las características que identifica Kroll:

  • No se suelen tomar vacaciones. Prefieren no tomar un receso para no ser descubiertos cuando no están en la oficina.
  • Son empleados de confianza. Generalmente se acercan a los dueños o presidentes de empresas y ganan su confianza rápidamente.
  • Son los últimos que salen de la oficina al terminar la jornada. Es en esos periodos de tiempo en los que la oficina está vacía o con menor afluencia de público y empleados, es cuando se cometen las arbitrariedades.
  • Mantienen un bajo perfil dentro de la empresa. Con el fin de encubrir sus actividades, los defraudadores tratan de seguir con su “vida normal” al interior de las empresas, de tal manera que su conducta no despierte sospechas entre sus compañeros de trabajo ni superiores.
  • Logran despistar por completo. Los defraudadores, en general tienden a tener una educación por encima de la media, son de trato agradable y representan al ciudadano común al simular una vida familiar estable.
  • Van más adelante que todos. Los defraudadores día a día se están adelantando a los controles, pues suelen tener un conocimiento muy detallado de la forma en cómo opera la organización y sus sistemas de información.
  • Se manejan como “dueños” del sector donde trabajan. Al tener conocimiento de todo tipo de controles y la confianza de sus superiores, se manejan dentro de su sector de forma muy natural y rápida.
  • Rechazan injustificadamente ascensos o rotaciones. Generalmente no buscan ser promovidos ni cambiados de sector para no perder la relación con el proveedor con el que está haciendo su negocio paralelo.

Este tipo de características, es un parte del panorama, hay otros puntos a analizar. La fórmula que puede llegar a desencadenar algún tipo de fraude en las compañías contiene cuatro elementos importantes: el incentivo, la racionalización, oportunidad, y la capacidad. Estos forman el “Diamante del Fraude” desarrollado por David T. Wolfe, y Dona R. Hermanson.

¿Cómo solucionar esto? Son necesarios los controles permanentes, y el castigo legal a quienes estén cometiendo alguna falta. Si las empresas identifican al ladrón corporativo y en lugar de denunciarlo solo lo despiden sin causa y con indemnización, en definitiva, están generando un escenario de fraudes continuos ya que el resto de sus compañeros se sentirán impunes.

Las empresas deben estar atentas no solo a no generar ambientes propicios para el fraude, sino también a identificarlos rápidamente. “Con un castigo legal podemos terminar con el problema de raíz. Lo importante es que la empresa esté dispuesta a invertir dinero y tiempo en los procesos judiciales”, concluye Brian Weihs.

 

Mida su rendimiento con herramientas de monitoreo

Existen varios estándares de TI que se centran en garantizar que las redes y los sistemas sean seguros y ofrezcan cierto nivel de estabilidad. Algunos ejemplos son ISO/IEC 27000 y PCI DSS. Para que las organizaciones o entornos cumplan con los estándares requeridos por las certificaciones, se deben cumplir varios Indicadores Clave de Rendimiento (KPIs).

Y aunque diferentes certificaciones pueden enfocarse en aspectos específicos, como la seguridad, muchos KPIs son iguales o similares en todos los aspectos.

Éstos Indicadores Claves de Rendimiento a menudo también se centran en la infraestructura TI, las cuales, explícita o implícitamente, requieren de un monitoreo de red. A continuación veremos algunos ejemplos de estos KPIs y evaluaremos cómo una buena herramienta de monitoreo puede ayudarle a vigilarlos.

 

Configuración de Firewall

Por ser el firewall la primera línea de defensa contra todo tipo de amenazas, es también uno de los principales aspectos a vigilar. Si bien la forma más ortodoxa de monitorear un firewall es verificar regularmente que esté en funcionamiento, la forma en que está configurado es igual de importante. Una configuración incorrecta del firewall o un cambio en la configuración del mismo pueden ocasionar un tráfico imprevisto, involuntario y potencialmente dañino.

Por esta razón, se debe estar alerta del tráfico entrante y saliente para descubrir características y comportamiento fuera de lo normal, como picos en la actividad.

Su herramienta de monitoreo también debería permitirle crear una lista de las conexiones más utilizadas, remitentes más activos y protocolos más usados.

Con esta información, usted puede obtener una visión más clara acerca del estado y la configuración de su firewall.

publirreportaje-paessler-agosto-ilustracion-1

Seguridad de Red

Más allá del firewall, la seguridad general de red es normalmente un componente central de la mayoría de los estándares TI. Esto significa vigilar el tráfico inusual en la red y mantener un registro de los puertos que estén abiertos. Adicionalmente, un factor importante en la seguridad tiene que ver con cerciorarse de que siempre se tenga el sistema operativo con su versión más reciente, las actualizaciones del firmware instaladas, así como que el antivirus esté siempre al día. Una buena herramienta de monitoreo de red puede brindar toda esta información, ayudándole a controlar su nivel general de seguridad en la red.

 

Control de registro

Numerosos estándares prescriben el control de registro como un requisito para el cumplimiento. En esencia, esto quiere decir que controle los registros producidos por diversos sistemas y aplicaciones. Algunos incluso requieren que se tenga un monitoreo de registro para información específica, por ejemplo, el Estándar de Seguridad de Datos de las Tarjetas de Pago (PCI DSS, por sus siglas en inglés), el cual requiere de un monitoreo de los usuarios que acceden al sistema para asegurarse que, en efecto, sean usuarios únicos.

Una herramienta centralizada de control de registro, preferentemente con funcionalidad syslog –un estándar para envío de mensajes de registro en una red informática IP– puede ayudarle a controlar archivos de registro y explorar en busca de problemas. Esto implica escanear archivos de registro con características o eventos específicos, y entonces desplegar alertas y notificaciones cuando los problemas se resuelvan.

publirreportaje-paessler-agosto-ilustracion-2

Estado Óptimo General del Sistema

Muchos KPIs requieren estabilizar ciertos niveles de tiempo de actividad o asegurar velocidades de red específicas. El software de monitoreo proporciona un modo de llevar el registro de un número importante de métricas. Las herramientas de monitoreo permiten observar dispositivos cruciales para asegurarse de que se encuentren funcionando correctamente, verificar los niveles de energía de los proveedores de energía de respaldo, verificar que exista suficiente almacenamiento, y mucho, mucho más.

PRTG Network Monitor es una herramienta de monitoreo que puede ser utilizada para seguir muchos aspectos de su red que están vinculados a los KPI prescritos por los estándares TI.

Para entender más al respecto, haga clic aquí.