Día: 20 julio, 2018

¿Por qué es importante la Fibra Óptica para las empresas?

Con la gran demanda de conectividad y las mayores velocidades de transmisión de datos, las cargas de trabajo en los Centros de Datos crecen rápidamente año con año. Los operadores y administradores ya no sólo deben preocuparse por soportar la carga y velocidades actuales, sino que deben preparar la infraestructura de red para soportar aplicaciones a futuro, un panorama donde la Fibra Óptica se presenta como una solución eficiente.

“Las empresas deben empezar a considerar más el uso de la fibra óptica debido a los requerimientos cada vez mayores de las nuevas generaciones como millennials y la Generación Z”, menciona Stephen Kowal, VP de ventas de Enterprise en CommScope. “Los proveedores de servicio de entretenimiento como Netflix, cuyo principal enfoque es acercar el contenido al consumidor, requieren de una excelente conectividad y la mejor manera de tenerla es a través de la fibra óptica”.

Para poder aprovechar todos los beneficios que la fibra puede traer son necesarios despliegues rápidos y eficientes. Implementaciones de fibra óptica más rápidas significan un tiempo más corto de salida al mercado, lo cual con la estrategia correcta puede tener un efecto positivo tanto en la inversión inicia como en los gastos operativos.

Construir una infraestructura de fibra no debe significar incluir más complejidad; si se hace de la manera correcta puede ofrecer lo último en simplicidad, no sólo en la administración, sino también desde la planificación y la operación en toda la red.

A medida que las empresas continúen visualizando a la fibra óptica como una solución a las nuevas necesidades de conectividad y mayor ancho de banda, de mejor forma podrán hacer frente a los problemas de latencia y alta densificación de sus redes, ya no sólo en los centros de datos, sino de igual forma en la infraestructura de los llamados Edificios Inteligentes.

Ya no basta con implementar soluciones de fibra en los centros de datos, en la actualidad las empresas también deben considerar a la fibra óptica a lo largo de los edificios dada la gran variedad de dispositivos que pueden estar conectados, ya sea de forma cableada o inalámbricamente.

“No importa si se trata de un sensor de bajo rendimiento, un servidor de banda ancha o cámaras de seguridad (AV), todos los dispositivos instalados se conectan a la red y eso se convierte en un problema porque es tanto el tráfico de datos, que se crea un cuello de botella, y es aquí es donde la fibra óptica cobra vital relevancia”, añadió Stephen Kowal.

De igual forma, mientras las necesidades de los usuarios sigan creciendo y con ello continúe evolucionando la industria, se siguen desarrollando nuevos estándares mundiales que regulen el uso y despliegue de la fibra. Por ejemplo, en los últimos años la Fibra OM5 multimodo se ha convertido en un nuevo estándar que proporciona un punto de convergencia no sólo en los centros de datos, sino al mismo tiempo, para la conectividad inalámbrica y tendencias como la IoT.

Para Kowal, el hecho de que la mayoría de los edificios cuenten con conectividad Wi-Fi y demás soluciones inalámbricas implica un mayor número de usuarios haciendo uso de la red, al mismo tiempo; esto hace necesario una mayor banda ancha y, por tanto, más densificación de las redes, cuestiones que la Fibra OM5 ha podido solucionar.

Mientras la IoT sigue creciendo y 5G amenaza con su llegada, el funcionamiento correcto de la infraestructura de red de las empresas será una misión crítica para la fibra óptica, por lo que incluso hoy en día los administradores y operadores de éstas no se pueden dar el lujo de no contemplarla para sus despliegues de red.

“Es importante desarrollar hoy la tecnología con la cual se pueda innovar y afrontar el futuro, por ello cuando hablamos de edificios o ciudades inteligentes es vital hablar sobre fibra, ya que su rol es crítico teniendo en cuenta que se avecina un futuro totalmente tecnológico”, finalizó Stephen Kowal, VP de ventas de Enterprise en CommScope.

Consecuencias de las fallas del hardware y cómo solucionarlo

Todos los sistemas clásicos “legacy” tienen al menos un punto en común y el más importante: están envejeciendo y, con ello, se vuelven más vulnerables y menos confiables. Además, los fabricantes ya no ofrecen servicios de soporte a estos sistemas, dejando a las compañías que los tienen muy desprotegidas.  

La vida útil del hardware es limitada, sin embargo, el software y las aplicaciones ejecutadas sobre él tienden a tener una vida útil más larga.

Muchas empresas ignoran este hecho a favor de otros proyectos que parecen ser más urgentes. Sin embargo, cuando el hardware clásico falla, estas mismas organizaciones se arrepienten de no haber anticipado un plan de contingencia, ya que no hay margen de tiempo para resolverlo y el funcionamiento del sistema es crucial para el éxito del negocio. Los ingresos de la compañía, su reputación y posibles penalidades están en juego. Entonces, ¿por qué las empresas esperan hasta último momento para adoptar un plan cuando los riesgos son tan significativos y las pérdidas pueden ser millonarias?

 

¿Por qué las empresas esperan?

Los presupuestos son limitados e invertir más en sistemas clásicos “legacy” puede ser difícil. Algunos departamentos de TI obtienen piezas de repuesto y creen que es más barato que una solución a largo plazo.

Muchas empresas tienen la mentalidad de “si no está roto, no hay que reparar”. Y en la medida en que el sistema clásico sigue siendo ejecutado, la compañía le va dando prioridad a otras áreas.

 

¿Por qué no se debe esperar?

En la mayoría de los casos, el costo de esperar es mayor que el costo de invertir a largo plazo. En algunas industrias, incluidas las de gobierno y finanzas, el 80-90% de los presupuestos de tecnología están destinados al mantenimiento de los sistemas de hardware clásicos ¨legacy¨.

Esto se debe a que estos sistemas son fundamentales para el éxito de una organización. Las empresas de servicios financieros, por ejemplo, pueden recibir altas multas si un fallo en el sistema clásico los deja sin acceso a los registros que necesitan almacenar por un determinado tiempo.

Además del riesgo de penalidades legales o procesos judiciales, las organizaciones pueden enfrentar el costo de piezas de recambio, (y sus costos adicionales cuando esas piezas no funcionan bien), el costo cada vez más elevado de mantenimiento debido a que los expertos en estos sistemas están dedicándose a otras funciones y el costo que genera el tiempo de inactividad del sistema cuando el hardware clásico falla. 

 

Las consecuencias de la espera

Una estimación de Gartner muestra que las organizaciones pueden enfrentarse a 87 horas de inactividad del sistema al año. Se estima que el costo por hora es de US$ 42.000, lo que significa pérdidas superiores a los US$ 3,6 millones anuales para las grandes corporaciones. Otras fuentes citan costos más altos de US$ 84.000 a US$ 108.000 por hora.

Migrar a una plataforma totalmente nueva puede ser caro. Esto implica crear una nueva aplicación, entrenar empleados, convertir, traducir datos de la plataforma clásica a la nueva y los posibles gastos si los datos se pierden durante el proceso.

Una búsqueda hecha por Bloor Research mostró que el presupuesto promedio para un proyecto de migración de datos es de US$ 875.000, pero sólo el 62% de los proyectos se hicieron dentro del plazo y del presupuesto inicialmente planteado.

Por otro lado, a medida que el hardware clásico envejece, el soporte empieza a escasear. Muchos expertos en hardware clásico se están retirando o enfocando en nuevos espacios tecnológicos. Y a raíz de esto el costo para mantener esas plataformas legadas está subiendo.

 

Creación de un plan, “como mitigamos el riesgo de estos sistemas”

Al entender los riesgos, las empresas evalúan las opciones y se ven frente a tres alternativas:

Opción A: mantener el hardware obsoleto

Esto significa estar enterado de los colapsos y ordenar una pieza de repuesto lo más rápido posible cuando hay un fallo. Es necesario, sin embargo, estar cómodo con el tiempo de inactividad que ello implica. La opción es más aceptable para las empresas con bajo costo de tiempo de inactividad o que sólo utilizan el sistema como archivo.

Opción B: migrar el software

Las migraciones tardan meses y requieren reescrituras parciales o completas de la aplicación. Además, parte de la información se puede perder en el proceso y hay renovación de empleados. El tiempo, los costos y los riesgos involucrados pueden hacer que esta opción sea prohibitiva.

Opción recomendable: emulación de hardware

La solución más económica y de bajo riesgo es virtualizar el hardware clásico, permitiendo que aplicaciones legadas se ejecuten sin modificación en servidores estándar. La emulación tiene un corto proceso de implementación – las empresas pueden mantener sus aplicaciones intactas. Además, el equipo de soporte está disponible para diagnóstico, solución de problemas y mantenimiento general. 

Los sistemas clásicos no deben quedar desprotegidos. Con la emulación, las organizaciones pueden mejorar el ROI de los sistemas, mantener aplicaciones de misión crítica en acción, eliminar riesgos, reducir costos y evitar excesos presupuestarios. Invertir en el futuro de los sistemas clásicos es una garantía de éxito continuo del negocio.

 

Por: Robert Ruiz, Director General de Stromasys para Latinoamérica.

La importancia del monitoreo de sistemas de seguridad física

Los principios básicos de los sistemas de seguridad física existen desde hace décadas y no han cambiado tanto: la vigilancia, la detección de intrusos y la activación de alarmas en caso de daños o anomalías siguen formando la base de cualquier instalación de seguridad. Sin embargo, lo que ha cambiado es la tecnología que impulsa estos principios básicos, ya que la digitalización ha cambiado las bases de los sistemas de seguridad. Junto con esta digitalización, han surgido nuevos desafíos. Es importante, entonces, tenerlos en cuenta y saber cómo mitigarlos. 

 

Seguridad digitalizada

Pero ¿cuáles son estas nuevas tecnologías (“nuevas” es relativo, considerando que algunas han existido por más de una década) que están cambiando la industria de la seguridad física? Aquí hay unos ejemplos:

  • Cámaras IP: A finales de los años 90, las primeras cámaras en red iniciaron el movimiento de la videovigilancia alejándose de lo analógico y entrando en lo digital. Más tarde, las cámaras, que adoptaron la tecnología de red IP, Power over Ethernet (PoE) y varios tipos de compresión de video, proporcionaron una mejor manera de conectar y administrar cámaras de vigilancia. Como una ventaja adicional, se ha vuelto más fácil acceder a las transmisiones de video de forma remota a través de dispositivos móviles. 
  • Control de acceso IP: No sólo las cámaras aprovecharon la tecnología de red IP; los controladores de acceso IP pueden conectarse directamente a la red y ya no necesitan un servidor terminal como lo hacían en los viejos tiempos.
  • Almacenamiento de datos digitales: Anteriormente, los datos como las videograbaciones se enviaban a cinta. Hoy en día, los datos se almacenan digitalmente en discos duros o en la Nube.
  • Otras “Cosas”: En la era del IoT, muchos otros dispositivos están habilitados para la red. Los botones de pánico, los detectores de movimiento, los sistemas HVAC (calefacción, ventilación y aire acondicionado) y los detectores de humo son solo algunos ejemplos. 

Una mezcla heterogénea de tecnologías

En Suecia llaman “smorgasbord” a un buffet que consta de ingredientes muy variados, y esa puede ser una descripción adecuada para los sistemas de seguridad modernos. Debido a la heterogeneidad de sus componentes, estos sistemas, a menudo, son un mosaico de tecnologías, protocolos y una variedad de dispositivos de múltiples marcas. El primer desafío al que se enfrentan los integradores de sistemas de seguridad es que necesitan obtener todos estos dispositivos dispares en una red y luego configurar y optimizar esa red. Sí, podría tomar más de unos días. 

Pero establecer y configurar el entorno es solo la primera parte de la lucha.

 

El nuevo eslabón más débil: la red

La naturaleza digitalizada de los sistemas de seguridad modernos introduce nuevos puntos de falla además de los tradicionales. Por ejemplo, la pérdida de datos se ha convertido en un factor. Con los datos de video almacenados digitalmente, si algo sale mal, como un dispositivo de almacenamiento que falle, o si la red no transmite bien los datos, se pueden perder las grabaciones.

Pero quizás el mayor punto débil para los sistemas de seguridad modernos es la red subyacente. Los cuellos de botella, problemas de banda ancha o problemas de enrutamiento que impiden que los datos se envíen o reciban correctamente, todas ellas son situaciones que pueden comprometer un sistema de seguridad. Y si los hackers obtienen acceso a la red o dispositivos, tienen la capacidad de anular la seguridad de todo el sistema. Esto podría implicar que se apaguen algunos aspectos del sistema o el uso de dispositivos para fines distintos a los previstos. 

Los riesgos que mencionamos anteriormente representan un peligro crítico para cualquier sistema de seguridad. Entonces, ¿cómo evitar que estas cosas sucedan?

La respuesta corta es: no se pueden eludir por completo estos riesgos. Los dispositivos electrónicos funcionarán mal, las redes tendrán problemas de banda ancha y los dispositivos de almacenamiento fallarán. Estas son las verdades eternas del mundo digital. Todo lo que se puede hacer es tomar medidas preventivas siempre que sea posible y configurar alertas para cuando hay una falla. Aquí entra el monitoreo de la red.

Monitorear el sistema de seguridad

Al igual que con otras industrias, los sistemas de seguridad modernos han visto una convergencia con las TI tradicionales: usted tiene los dispositivos de seguridad especializados que se ejecutan en la misma infraestructura que otros dispositivos de TI operativos, como switches, servidores, routers, etc. Si bien esto se agrega a la complejidad de los sistemas de seguridad, también significa que existe la posibilidad de monitorear todo en un solo lugar, a pesar de las tecnologías dispares. 

Los mismos pasos generales que se aplican al monitoreo de entornos de TI tradicionales también se aplican a la supervisión de una red de sistema de seguridad:

  1. Establezca las métricas para un sistema de funcionamiento saludable. Por ejemplo, ¿cuánto ancho de banda usan los dispositivos específicos cuando funcionan normalmente? ¿Cómo se ve el flujo de tráfico en diferentes partes de la red en diferentes momentos del día? ¿Qué tipo de uso de la CPU es normal para los servidores?
  2. En función de las métricas del paso 1, configure umbrales y alertas. Cuando los valores van por encima o por debajo de los valores “normales”, entonces sabe que tiene un problema potencial.

Usando una buena solución de monitoreo de red, es posible obtener una vista de toda la red en un tablero. Además, la información que obtiene al monitorear la red puede contribuir a hacer ajustes para ayudar a prevenir la pérdida de datos o fallas críticas. Eche un vistazo a algunos ejemplos en la tabla a continuación de problemas potenciales que puede detectar al monitorear un sistema de seguridad.

Una de las ventajas del monitoreo de red es que los tipos de sistemas que puede monitorear son bastante variados, siempre que los dispositivos conectados ofrezcan tecnologías estándar (como SNMP, NetFlow, WMI, etc.). Si bien el enfoque de monitoreo sigue siendo el mismo: configurar un sensor para un dispositivo y obtener estadísticas, la red real puede verse muy diferente de una instalación a otra. Entonces, con el mismo principio de monitoreo de red, usted podrá supervisar un hospital, una casa inteligente, una ciudad inteligente, o un sistema de seguridad física.

Por: David Montoya, Director de Paessler de Latinoamérica.

 

 

everis abre laboratorio de Inteligencia Artificial en México

everis anunció la apertura de su Artificial Intelligence Digital Lab, basado en la Ciudad de México, creado con el fin de investigar, probar y promover las últimas tecnologías que, en un futuro, puedan ser más rentables y disruptivas para los principales sectores económicos en América Latina. 

Para este laboratorio digital, fue necesario traer a México a un equipo de innovación especializado, que ayudara a las compañías de la región a adoptar la Inteligencia Artificial (IA), al tiempo que impulsara la generación de talento mexicano.

“Nuestro objetivo es fomentar el ecosistema de IA en el país, a través de la formación de especialistas, quienes puedan aportar a nuestros clientes una visión, a tres años, de cómo utilizar las últimas técnicas para el éxito en los retos de negocio”, comentó Alberto Otero, socio responsable de Arquitectura, Tecnologías e Inteligencia Artificial en everis.

everis Artificial Intelligence Digital Lab fue de los primeros que introdujo la utilización de asistentes virtuales inteligentes, y actualmente, trabaja en la unión de la IA e Internet de las Cosas; las últimas técnicas de deep learning; y cómo utilizar la visión por computadora de una manera práctica.   

Los everis Digital Labs deben estar a la vanguardia y trabajar en desarrollar tecnologías que impacten positivamente al negocio de compañías líderes en su sector.

Bajo este punto de vista, Alberto Otero agregó: “Un Digital Lab tiene sentido siempre y cuando la tecnología trabajada esté en constante cambio y exija un nivel de talento e investigación muy elevado, impulsando la creación de nuevos centros que aborden lo que el futuro nos depare, como el uso de la computación cuántica o la robótica social”, enfatizó.

Estos laboratorios digitales se integran por equipos de trabajo multidisciplinarios, que se enfocan en el desarrollo de innovación que pueda ser aplicada a diferentes negocios.

En América Latina, everis cuenta con los laboratorios digitales especializados en: Blockchain en Perú; Realidad Virtual en Brasil; y en Internet de las Cosas, ubicado en Chile. 

Manufactura 4.0, un futuro viable en México

La Industria 4.0 o Manufactura 4.0, es un término acuñado por los organizadores de la Feria de Hannover, realizada en Alemania, donde la tecnología es el eje principal como medio para robustecer la capacidad de manufactura de las empresas, en esta feria surgió dicho concepto, su importancia y ahora su adopción en el mundo entero. 

Esta nueva tendencia, conlleva no solo a la transformación de la planta industrial, para posicionarse en esta ola tecnológica, sino de las mismas universidades que ahora se encuentran obligadas a modificar sus planes y programas de estudios, pero sobre todo tiene un compromiso con la innovación para garantizar el talento humano.

En México, la manufactura representa cerca de 20% del Producto Interno Bruto (PIB), procedentes de sectores como el automotriz, bebidas, alimentos y electrónica, entre otros.

Datos de la Organización Mundial de Comercio (OMC) indican que México es el cuarto país del mundo que más importa robots industriales, información que nos deja ver como el país está dando sus primeros pasos firmes en esta nueva era de Manufactura 4.0.

La Asociación para la Tecnología Manufacturera (AMT por sus siglas en inglés), señaló que durante el 2018, el sector manufacturero de México invertiría dos mil millones de dólares en soluciones tecnológicas que impulsen el crecimiento de la producción, lo que sin duda incrementará una simplificación en procesos y por lo tanto en los negocios.

Como opciones para estas inversiones hay plataformas de tecnología que ayudan, por ejemplo, a visualizar los inicios de la línea de producción, contar con un portal de ventas, recepción de pedidos y, claro, interfaz con el sistema ERP de la empresa, que además guarda datos de productos, estructura de materiales, costos y pedidos de producción, además son capaces de realizar un análisis preventivo de la posibilidad de un fallo en la línea, tendencias de problemas con los productos y equipos productivos, y un análisis de productividad de las líneas de producción.

Con dichas soluciones se puede obtener información para la toma de decisiones y la realización de proyectos de mejora continua, lo cual permite la mejora de plazos de entrega, calidad y reducción de costos operacionales.

Otras aplicaciones más innovadoras son el levantamiento del pedido a través de un reconocimiento facial que identifica y valida al solicitante, confirmaciones y configuraciones personales del producto, permitiendo el concepto de alto grado de personalización de la industria 4.0.

Finalmente, además de tener un control del producto, se puede contar una base de datos para recolectar la información para la toma de decisiones y de una operación eficaz que beneficia a la producción del producto manufacturado. 

Así que, si su empresa tiene o está en planes de abrir operaciones manufactureras en este país, mi recomendación es encontrar el aliado de tecnología que lo ayude a simplificar su negocio y optimizar su producción.

Por: Oscar González, Gerente General Norte de América Latina de TOTVS.