Categoría: Centro de Datos

Desafíos y oportunidades de expansión del mercado de fibra FTTH

La demanda de banda ancha crece cada día y, con ello, el mercado de fibra óptica continúa expandiéndose en países de América Latina, como Brasil y México, en especial cuando el asunto es llevar grandes bandas anchas a residencias, el llamado FTTH (Fiber to home por sus siglas en inglés). Lo que percibimos es que independientemente del momento económico ese mercado se fortalece. Esta necesidad por grandes velocidades viene de diversos factores, ya sea por el aumento en el uso de servicios de streaming, número de dispositivos conectados o juegos en línea.

En el último año, Brasil tuvo un crecimiento acentuado de dos dígitos en este sector, mientras que el mercado de México fue menor que el brasileño por regulaciones internas que crearon algunos obstáculos. Sin embargo, estas dos regiones todavía se encuentran detrás de países desarrollados y, para superarlos y subir en ese ranking, deben atender las cuestiones primordiales, como lo son la velocidad en las instalaciones e implementaciones en las redes de fibra óptica. Este obstáculo tiende a disminuir conforme la construcción de la red pasa a ser vez confiable, fácil y rápida.

Otra ventaja en el uso de esta tecnología es la disminución del costo para la capilarización de la red, pues cuando la fibra sale del edificio del operador necesita ser repartida en miles de otros puntos, con la utilización de equipos costosos para hacer la fusión de una fibra en la otra. Sin embargo, con la tecnología preconectorizada, este proceso para llevar internet a las residencias se vuelve mucho más dinámico y barato, atrayendo el interés de las empresas.

Para el año 2019, vemos un gran cambio en el acceso a Internet y una aceleración en las inversiones de las principales empresas de telecomunicaciones y operadoras de televisión por cable en el sector de fibra óptica. Muchas de estas empresas proporcionan Internet a través de cable coaxial. Pero, en términos de capacidad, esta tecnología es limitada, siendo necesario el uso de la fibra para llegar a velocidades superiores a 100Mbps. Mientras las empresas de telecomunicaciones ya venían, a lo largo de los años, haciendo inversiones en fibra, ahora las de televisión por cable también están siguiendo esa tendencia.

No sólo las gigantes de las telecomunicaciones están invirtiendo en este sector, sino que los proveedores regionales de Internet también están siguiendo la misma estrategia.

Según datos de la encuesta TIC Prodiadores 2017, lanzada en diciembre de 2018, el mayor crecimiento en la oferta de conexiones de fibra óptica en Brasil se debe a los proveedores regionales. En 2014, sólo el 49% de los proveedores ofrecían ese tipo de conexión. En 2017, esta proporción aumentó significativamente y alcanzó el 78% de las empresas.

Para 2019, se espera que Brasil y México continúen creciendo en el mercado de fibra FTTH, usando las tecnologías preconectorizadas e invirtiendo cada vez más en este sector, tanto las grandes empresas como los ISP (siglas de la denominación inglesa para Internet Service Provider) regionales, tanto para ampliar los números de casas conectadas como para el aumento de velocidad.

 

Por: Tadeu Viana, Sales Director CALA en Corning Optical Communications.

Panduit sigue apostando por México: los casos de la IFT, Heineken y CPM

En el marco del GSIC, el evento anual de Panduit que se está llevando a cabo en la Rivera Maya, la compañía especialista en infraestructura para el mundo conectado destacó el papel que tiene México para la compañía a nivel global.

“México se ha vuelto clave para nosotros ya que representa el 61% de los ingresos anuales en Latinoamérica, esto quiere decir que México es uno de los países más importantes desde el punto de vista estratégico del desarrollo del negocio”, aseveró Kaleb Ávila, Vicepresidente para Panduit Latinoamérica.

Por su parte, Dennis Renaud, CEO de Panduit, agregó que México a nivel global es un mercado clave, al ser el principal motor para llegar al resto de Latinoamérica, siendo sede de su evento año con año, así como sede de su Solution Center en Ciudad de México, donde dan soporte a nivel latam. “El mercado que tenemos aquí es muy importante, estamos en constante crecimiento, e invirtiendo en innovación. Definitivamente es de nuestros principales mercados objetivos”, comentó.

Dentro de las nuevas estrategias de Panduit para expandirse a empresas mexicanas es el entender las necesidades del CIO, los retos que enfrentan en su día a día ante toda la disrupción tecnológica. Basada en esta primicia, la compañía puede crear o adaptar soluciones que cumplan con estas expectativas reales de los usuarios.

 

Sustentables y eficientes, los casos de éxito en México

Los esfuerzos que ha realizado la compañía en el país han destacado en fuertes e importantes casos de referencia. En GSIC, asistentes pudieron conocer de voz de sus mismos clientes los diferentes proyectos llevados con Panduit. Se trata del Instituto Federal de Telecomunicaciones (IFT), Heineken y Caja Popular Mexicana.

Guillermo Fernández, CIO del Instituto Federal de Telecomunicaciones.

El primero de ellos desarrolló desde cero un centro de datos verde y certificado Tier III, a fin de ofrecer un mejor servicio a este organismo regulador de las telecomunicaciones de México, sin perder la continuidad de operaciones, logrando resguardar información sensible y garantizar la constancia en los servicios.

Esta implementación, además, está logrando una reducción en consumos energéticos, a pesar de ser el nuevo data center del doble de tamaño que el anterior, ahorrando hasta un 30% de eficiencia energética bajo uso de tecnologías verdes. Gracias a las nuevas opciones de almacenamiento y ahorro de espacios, se puede ampliar la capacidad conforme las exigencias del negocio lo demanden.

Gracias a esta implementación, se lograron beneficios como lograr un mantenimiento concurrente, asegurar la continuidad y disponibilidad del negocio, redundancia eficaz en equipos eléctricos y mecánicos, así como en trayectorias eléctricas, mecánicas y de telecomunicaciones. El centro de datos está construido casi en su totalidad con tecnología de Panduit y sus partners.

Heineken, una de las cerveceras con mayor presencia en México y el mundo, desarrolló una nueva planta sustentable en Meoqui, Chihuahua. Para lograrlo, se apoyaron de las soluciones de Panduit, desde la fibra de cableado hasta gabinetes, todo pensado en contar con sistemas de energía eficiente, sustentable y amigable con el medio ambiente, a fin de contar con las principales normas nacionales e internacionales.

Se trató de un proyecto de infraestructura muy ambicioso al contar con una red de alta disponibilidad, confiablidad y lista para adoptar las tecnologías y todos los retos que conlleva la industria 4.0. Para llegar a ellos se implementaron varias etapas de construcción: centro de datos verde, disponible y altamente redundante; cuartos de distribución secundaria, distribuidos de manera estratégica para espacios de telecomunicaciones para asegurar la conexión en toda la planta; fibra óptica, para la red industrial de la empresa; y canalizaciones, para asegurar la protección de información y continuidad del negocio.

Por último, la Caja Popular Mexicana desarrolló Primer edificio Leed en Bajío basado en la consultoría y apoyo de Panduit y sus socios estratégicos. Este edificio fue pensado desde su construcción en ser amigable con el medio ambiente, buscando la certificación LEDD, otorgado a edificaciones que comprueben estar diseñados, construidos y operados bajo estándares sustentables de alto rendimiento.

Esta edificación ha significado reducción de un 30% a 50% en consumo energético, reducción del impacto negativo al medio ambiente, ahorro de hasta 40% en uso de agua potable, y reducción también en desechos enviados a vertederos.

 

-Karina Rodríguez, Computerworld México.

Cables submarinos son esenciales para transmisión de datos en el mundo

Cuando usamos el celular para realizar una llamada a otro continente generalmente pensamos en nuestros datos siendo enviados a través de un satélite. Sin embargo, lo más probable es que esa llamada esté pasando por un cable submarino. Cerca del 99% de los datos transmitidos entre continentes pasan a través de estos cables, de acuerdo con el libro “The Undersea Network” de Nicole Starosielski, profesora de medios, cultura y comunicaciones.

Los cables submarinos se han vuelto una opción mucho más popular para transmitir información debido a que pueden soportar un mayor volumen de datos que un satélite.

Los cables más modernos pueden mandar hasta 64 terabytes de datos por segundo. Para ponerlo en perspectiva, en México hay cerca de 129 millones de personas. Si todos ellos hicieran una llamada al mismo tiempo, solamente se usaría menos del 15% de la capacidad de ese cable.

Además de sus ventajas técnicas, los cables han demostrado ser superiores a los satélites porque no están sujetos a las condiciones atmosféricas; siguen funcionando a pesar de que haya un huracán. Incluso han probado ser de ayuda para otras cosas además de las telecomunicaciones. Por ejemplo, se han instalado sismógrafos y detectores de tsunamis en muchos de estos cables. Gracias a que la información que viaja a través de ellos va a la velocidad de la luz, los cables submarinos se han convertido en la mejor red de detección de sismos.

Sin darnos cuenta, esta tecnología se ha convertido en parte fundamental de nuestro consumo de datos y se prevé que estos cables se vuelvan más eficientes en el futuro.

En miras de la implementación de redes 5G, NEC ha diseñado un nuevo cable para que pueda transmitir hasta 80 Terabytes por segundo, lo cual significa un gran incremento con respecto a la capacidad actual. Es por ello que esta nueva tecnología será el futuro para las telecomunicaciones.

 

Por: Gabriel Ortiz, subdirector de telecomunicaciones en NEC

Panduit da inicio a su 20va. edición de GSIC

Panduit inició actividades de su evento anual, GSIC, en la Rivera Maya, que en su veinte aniversario obtiene un registro de marca, así como un nuevo significado, y más retos para impulsar el mundo conectado.

El anteriormente llamado Global Systems Integrators Congress, cambia hacia un concepto más representativo de la marca al englobar cuatro principios del evento: Grow (crecer), Share (compartir), Inspire (inspirar), y Connect (conectar), con lo cual Panduit le da un nuevo aire a este evento.

Bajo un registro de más de 650 asistentes, conformados por integradores, distribuidores, usuarios finales y partners, provenientes de más de veinte países, 60% de ellos desde México, la compañía ofrece una visión sobre las amplias soluciones y alianzas con las que cuenta a fin de ayudar a las empresas a habilitar un mundo cada vez más digitalizado y conectado, desde la infraestructura.

“Hablar de 20 años de GSIC es muy relevante porque fue el primer evento que reúne el OT con IT, y que ha logrado permanecer por tantos años, avanzando y creciendo. Tras estos 20 años, hemos decidido implementar GSIC como una marca a nivel mundial”, comentó Kaleb Ávila, Vicepresidente para Latinoamérica de Panduit.

 

Edge Computing, uno de los protagonistas

Internet de las Cosas, Redes 5G, Big Data, Inteligencia Artificial, entre otras tendencias que conlleva la transformación digital de las empresas, están obligando a robustecer la infraestructura con sistemas como el Edge Computing, que llevan los datos a donde el usuario los necesita. “Hemos estado reforzando nuestra oferta en Centro de Datos Edge, tomando en cuenta el papel que están tomando las compañías y sus usuarios para poder adoptarlos”, comentó Kaleb Ávila.

Kaleb Ávila, Vicepresidente para Latinoamérica de Panduit.

Panduit se encuentra trabajando en entregar el centro de datos al borde en modo de “plug and play”, es decir, listo para funcionar en donde el usuario lo requiera, con un Edge eficiente, garantizado por hasta 25 años y soporte unificado. Para esto, se ha unido a partners estratégicos bajo la alianza ICE: Cisco, Eaton y Stulz.

“Panduit puede hacer mucho en pro del desarrollo de centro de datos, pero al hacer alianzas con partners como Cisco, Stulz y Eaton, lo que estamos logrando es consolidar una solución garantizada para el usuario final ofreciendo una apuesta eficiente. Todas las soluciones y toda la hiperconectividad que veremos en los siguientes tres años, sin duda va a necesitar centro de datos en el borde y en Panduit estamos listos para enfrentarlo”, finalizó Ávila.

 

-Karina Rodríguez, Computerworld México.

3 formas de hacer invisible tu infraestructura de red

La idea de contar con nuevas e innovadoras tecnologías asombra al ser humano. La evolución de los dispositivos al grado de utilizar luz incandescente como un medio inalámbrico de transmisión de datos, el sueño hecho realidad sobre los teléfonos inteligentes plegables o la velocidad de transmisión de 1TBps, son ejemplos de como la tecnología evoluciona y a la gente le emociona, sin embargo, la infraestructura de red no es muy querida, mucho menos si se encuentra a la vista de todos.

“El hecho aquí es que la única vez que la infraestructura LAN de una empresa es novedad es cuando falla. A los encargados de redes no se les reconoce por mantener el 99.9% de tiempo de actividad, pero sí se les busca cuando pasa ese 0.01 cuando se cae la red”, mencionó Jason Reasor, Director de Estrategia y Tecnologías para Sistemas empresariales en CommScope. “Y es que el impacto de una interrupción no planificada en la conectividad en las empresas es enorme: según estimaciones del Instituto Ponemon son alrededor de $3.86 millones de USD por cada uno de estos incidentes”. Sin embargo, el impacto que puede tener esto en los resultados de la compañía es solo parte del daño.

Cualquier interrupción no planificada también afecta la productividad del negocio, las relaciones con otras empresas con las que se trabaja en conjunto, la logística de la cadena de suministro y muchos otros procesos más. La confiabilidad de la red y la continuidad del negocio van de la mano, es una relación causa y efecto.

Pero como un árbitro durante un partido de baloncesto o un partido de fútbol, las mejores infraestructuras de cableado son las que nunca se notan a la vista. Entonces, ¿cómo hacer invisible la red LAN de un edificio? Aunque podría parecer sencillo, no es por arte de magia. Para Jason Reasor se requiere de una buena planificación, así como una comprensión de cómo las diversas áreas de la infraestructura de red de su edificio pueden afectar la confiabilidad de la red:

Escalabilidad modular: Toda red exitosa está en continua evolución. Ser capaz de adaptarse al cambio con un impacto mínimo en la continuidad del negocio requiere una infraestructura escalable y componentes modulares, lo que le permitirá simplemente cambiar piezas para admitir nuevas tecnologías y velocidades más rápidas.

 

Convergencia de la red: En la actualidad se están redefiniendo cómo se diseñan y se implementan las redes LAN empresariales, y ya no es solo específico de las redes de proveedores de servicios. Cada vez más sistemas confían en la red de cableado estructurado para la transmisión de energía y datos: seguridad, iluminación, sistemas inalámbricos integrados, etcétera. “Los sistemas energizados de cableado, como la alimentación a través de Ethernet (PoE) y la fibra energizada, implementados en cobre de Categoría 6A, le permiten perfectamente extender la red hasta el borde. Debido a que estos sistemas se alimentan con el interruptor (que generalmente es compatibles con las baterías de UPS), no se apagan si pierde la energía”, agregó Jason Reasor.

 

Gestión Automatizada de la Infraestructura (AIM): Los sistemas AIM le brindan mayor visibilidad a nivel de dispositivos conectados a puertos. Estos sistemas monitorean constantemente todas las conexiones de la capa física y pueden alertar al personal sobre cualquier cambio o posible circunstancia que pueda afectar el estado de la red, ahorrando tiempo valioso al solucionar o detectar problemas.

 

“Una infraestructura de red resistente, redundante e inteligente puede contribuir en gran medida a minimizar las posibilidades de una interrupción no planificada y maximizar la productividad en toda la empresa”, finalizó Jason Reasor, Director de Estrategia y Tecnologías para Sistemas empresariales en CommScope.

Cómo la IA está dando forma a la industria de los Centro de Datos

Los avances tecnológicos continúan deslumbrándonos con nuevos productos y técnicas anteriormente pensadas como futuristas o imposibles. Entre los avances tecnológicos más modernos de la actualidad se encuentra la inteligencia artificial (IA) y la automatización que habilita. Este ha sido un tema de interés recurrente, con compañías apuntando a aprovechar el aprendizaje automático en sus soluciones para negocios mejorados. Pero ¿cómo puede la IA afectar la administración del centro de datos, y qué tan lejos estamos para ser verdaderamente capaces de incorporarlo a nuestros negocios?

No debe sorprendernos que el error humano y la capacidad de respuesta en tiempo real pueden, y a menudo lo hacen, afectar la continuidad del negocio. La administración manual de los centros de datos virtuales y tradicionales puede ser tediosa y prolongada debido a la cantidad de tareas administrativas necesarias para garantizar la seguridad del centro de datos y el funcionamiento sin interrupciones.

Las empresas simplemente no pueden permitirse tiempos de inactividad, y aquí es donde entran en acción las soluciones de aprendizaje automático de IA.

Con el aprendizaje automático, la administración del centro de datos se puede simplificar para corregir automáticamente problemas rutinarios. La supervisión y el control de aplicaciones, el almacenamiento y el enfriamiento de las instalaciones ya no requerirían el trabajo práctico de los equipos de TI.

A pesar de ser aparentemente inalcanzable, la industria ya ha logrado un progreso increíble en este sentido. Google comenzó a utilizar el aprendizaje automático en 2014 para disminuir la complejidad en la gestión de sus centros de datos, reduciendo el uso de la energía por un 40%. HPE anunció a finales del 2017 el primer motor de recomendación de IA de la industria.

Si bien aún podemos estar a años de distancia, los centros de datos totalmente auto-gestionados nunca han sido más tangibles de lo que son hoy en día. En algún momento del futuro, los centros de datos auto-administrados permitirán una escalabilidad operativa y eficiencia de centros de datos nunca antes vista.

 

Por: José Javier Santos, Director de COGECO Peer 1 Latam

Dominion y Huawei impulsan la digitalización de los negocios mexicanos

Dominion Digital y Huawei anunciaron alianza para proveer soluciones que impulsen y mejoren estrategias de Transformación Digital en los negocios mexicanos. En concreto se trata de tres gamas enfocadas a Protección de Datos, Comunicaciones Unificadas y Networking.

“Dominion fue creado para dar respuesta a las necesidades de transformación digital que están surgiendo en las empresas. Gracias a nuestra experiencia en España, nos dimos cuenta que México se encontraba bajo este proceso, por ello estamos recurriendo a marcas estratégicas que nos ayuden a apoyar a las empresas locales en su digitalización”, comentó Alfredo Caro, Business Developer Manager y Strategy Alliance Manager de Dominion Digital a nivel mundial, en entrevista para Computerworld México.

Dominion Digital facilita el abordar proyectos desde su inicio hasta el fin en cualquier tecnología, consolidando así su alianza con Huawei. “Somos multisector, al final de cuenta vendemos tecnología, por lo que cualquier empresa de mediana a grande, que esté trabajando en su estrategia de transformación digital, puede tener nuestro apoyo al apostar por nuevas tecnologías, y ofreciendo un go-to-market prácticamente inmediato”, agregó Caro.

Las soluciones con las que piensan lograrlo, de la mano de Huawei, están pensadas en las industrias más importantes:

Financiero. Dominion perfila soluciones tecnológicas y servicios integrales para sus clientes exclusivamente financieros, donde busca la modernización de servicios con OpenSource para equilibrar la transformación digital con confiabilidad, seguridad y cumplimiento.

 

Seguros. Ofrece soporte a este sector que tiene que mantenerse constantemente competitivo, digital y regulado, apoyándose en soluciones que revolucionan y rentabilizan el core del negocio. Cuenta con casos de éxitos, donde se han realizado implantaciones de servidores de aplicaciones tanto en modalidad domain como en standalone y migraciones de parques de aplicaciones Java desde otros servidores de aplicaciones no basados en Open Source.

 

Automotriz. Con esta alianza se ha ayudado a la adopción de nuevas tecnologías en software libre empresarial, IoT, Cloud Ready Data Center y DCI, donde el resultado es lograr tiempos más ágiles para la prestación de servicios, mejorar los tiempos de comercialización y obtener mayor seguridad y control.

 

Manufactura. Dentro de este sector, Dominion realiza propuestas y desarrolla nuevas tecnologías para la digitalización del proceso industrial y que permiten la apertura de nuevas oportunidades de negocio, optimización de los recursos y el incremento de la seguridad y productividad. Mayor productividad del personal de TI, mayor productividad del negocio, minimizar la mitigación del riesgo: productividad del usuario y menores costos de infraestructura de TI, entre otros.

 

Transportes. Cuenta con casos de éxito donde se reduce el tiempo de ciclo de desarrollo con tecnología de contenedor y de Nube automatizada y ágil, además de obtener alta escalabilidad y disponibilidad para respaldar los picos de demanda durante las vacaciones, dando como resultado una mayor colaboración entre los equipos internos y los socios externos con el enfoque de DevOps y los servicios Dominion Digital.

Alfredo Caro, Business Developer Manager y Strategy Alliance Manager de Dominion Digital.

 

“Las tecnologías que nosotros implantamos ayudan a que el departamento de TI no sea visto como un stoper, sino un impulsor del core del negocio. Nosotros ayudamos al CIO a lograr esta visión en el negocio, comprometiéndonos con su visión y objetivos”, finalizó Alfredo Caro.

 

Tips de animación del mexicano ganador del Oscar

Leonardo Baéz Maldonado, uno de los 7 egresados del Tec y de los 24 mexicanos que colaboraron en la cinta “Spider-Man Into the Spider-Verse”, ganadora del Oscar a la Mejor Película Animada, nos compartió cinco consejos para quienes quieran seguir el camino hacia la animación digital.

1. ¿Cómo renderizar?

Ante la pregunta de renderizar por CPU (el procesador de la computadora) o el GPU (la tarjeta gráfica de la computadora), Leo recomienda esta última.

“Les recomiendo por ejemplo que revisen el render en tiempo real (render por GPU). Honestamente creo es el futuro de la animación”.

 

2. Aprender el Software indicado

Leonardo afirma que si a alguien le interesa entrar a la industria en estudios grandes, debe de aprender los siguientes programas. “Aprendan Houdini para hacer efectos; Katana para hacer iluminación; y Substance Painter / Substance Designer para hacer Look Development (técnica de animación)”.

Y que aprendan Shotgun o algún otro software de producción, ya que asegura que esto es lo estándar técnico en la industria.

 

3. Tu portafolio debe ser llamativo y conciso

Báez afirmó que a pesar de que aunque parece un consejo obvio, algunos artistas olvidan dedicarle tiempo a su portafolio. Sin embargo, este debe ser impecable, no solamente en la calidad del trabajo sino que en la edición, coherencia y la duración.

Leo recomendó no hacerlo de más de un minuto con treinta segundos.

 

4. Saber un poco de todo

“No es necesario diversificarse en todo, pero si es necesario entender cada parte del ‘pipeline’ (esquema de trabajo) de animación”, comentó Báez. y agregó “Lean, investiguen, pregunten”.

Los grandes estudios buscan especialistas, pero conocer el ‘pipeline’ de la animación evitará muchos dolores de cabeza futuros, aseguró.

 

5. A veces lo que se necesita es un salto de fe

Para muchos el pedir trabajo a grandes estudios es aterrador, pero como Peter B. Parker le dijo a Miles Morales en la película: “Solo es eso Miles, un salto de fe”. Leo asegura que la mejor manera de entrar a la industria es tocando puertas.

“Dediquen tiempo a buscar oportunidades y a prepararse bien para demostrar que pueden ser parte de la industria; sean coherentes, honestos y humildes”, finalizó.

¿Quién es Leo?

Leonardo Báez Maldonado es originario de Guadalajara, Jalisco. Licenciado en Animación y Arte Digital del Tecnológico de Monterrey campus Guadalajara (2012). Tiene una Maestría en Innovación por el Tec de Monterrey (2017).

Trabaja en Sony Pictures Imageworks desde enero del 2018. y es director técnico en iluminación. Su trabajo consiste en iluminar, renderizar y componer escenas animadas para obtener la imagen final en películas animadas.

La película “Spider-Man Into the Spider-Verse”, estrenada en el 2018, además del Oscar, ganó el Globo de Oro, un premio BAFTA, entre sus premios más importantes en la categoría de Mejor Película Animada

4 maneras de ahorrar dinero en su centro de datos

Cuando el costo promedio del tiempo de inactividad del centro de datos es de 9.000 USD por minuto, evitar esta situación es la primera y principal manera de ahorrar dinero.

No obstante, existen cuatro maneras de ahorrar que ayudan a su organización a evitar el tiempo de inactividad y, al mismo tiempo, optimizar el rendimiento.

 

  1. Aplicar un proceso de puesta en marcha

Los sistemas y montajes son cada vez más complejos y más propensos a sufrir problemas que podrían provocar costosos apagones en su instalación. El proceso de puesta en marcha ayuda a identificar y corregir las principales causas de problemas, como las deficiencias de diseño, instalación y puesta en marcha. Para maximizar la disponibilidad, el proceso de puesta en marcha verifica y documenta que todos los sistemas críticos —alimentación, refrigeración y automatización de edificios— funcionen conjuntamente como un único sistema totalmente integrado.

El proceso de puesta en marcha también ayuda a reducir los costes del ciclo de vida de la instalación. El proceso de puesta en marcha mejora el funcionamiento del sistema a la vez que proporciona datos de referencia que se pueden utilizar para mantener un rendimiento óptimo. Cuando los sistemas están optimizados, no solo son más fiables, sino también más eficientes. Las actividades del proceso de puesta en marcha verifican el correcto funcionamiento de determinadas características de eficiencia que forman parte del diseño del sistema.

Un centro de datos al que se haya aplicado un proceso de puesta en marcha suele experimentar menos retrasos que con el despliegue tradicional, aumentando así la probabilidad de que se entregue a tiempo y dentro del presupuesto. No solo disfrutará de una mayor rentabilidad, sino también de menores costes de funcionamiento y mantenimiento a lo largo de todo el ciclo de vida de su instalación.

 

  1. Optimizar el rendimiento del sistema eléctrico

Una evaluación del sistema eléctrico puede poner al descubierto áreas de mejora que pueden ayudarle a gestionar los principales retos de su centro de datos, como expectativas, movimientos o consolidaciones de disponibilidad elevada, mayor densidad de potencia y calor, y cumplimiento de legislaciones.

Al evaluar todo su inventario de equipos eléctricos, puede identificar conexiones y componentes defectuosos antes de que provoquen la interrupción del servicio, así como detectar carencias en el mantenimiento de los equipos. Además, puede usar servicios de ingeniería (como estudios de cortocircuito y coordinación o estudios de arco eléctrico) para mejorar la seguridad en el lugar de trabajo y garantizar el cumplimiento de normativas.

En definitiva, las evaluaciones del sistema eléctrico ofrecen un análisis detallado que pone al descubierto acciones correctivas recomendadas y estrategias de mitigación de riesgos, lo que le ayuda a mejorar de un modo rentable la fiabilidad y la disponibilidad de su centro de datos.

  1. Mejorar la eficiencia térmica

Un enfoque actualizado del Thermal Management puede reducir los costos energéticos y mejorar la eficiencia. En un centro de centros de datos típico, la refrigeración supone el 38 por ciento del consumo total de energía. Por tanto, si desea alterar de forma significativa su uso de la energía, centrarse en el sistema de refrigeración puede ofrecerle una rápida rentabilidad.

Al identificar y corregir problemas como los puntos calientes y los flujos de aire ineficientes, estará dando un importante paso hacia la reducción del gasto energético. A partir de ahí, podrá implementar tecnologías de velocidad variable y controles inteligentes para mejorar aún más la eficiencia. Estas tecnologías están disponibles en forma de actualizaciones para su equipo existente.

Miguel Ángel González, general manager, México, Vertiv, comenta: En la nueva era de la transformación digital, un centro de datos debe de ser infalible y a la vez sustentable.

Está demostrado que un Sistema optimizado en la parte térmica, eléctrica puede tener ahorros hasta de un 30 por ciento en su costo total de propiedad.

Gracias a las tecnologías de velocidad variable, como los ventiladores de conmutación electrónica (EC) y las unidades de velocidad variable (VSD), puede variar la velocidad de los ventiladores de sus unidades de refrigeración de modo que se ajuste a la refrigeración que requiere la carga de TI. Cuando reduce la velocidad de los ventiladores, deja de gastar energía en una refrigeración excesiva que su equipo informático no necesita. Al añadir los controles inteligentes, puede poner en red sus unidades de refrigeración para que trabajen conjuntamente como un equipo. Esto elimina situaciones en donde las unidades “luchan” entre sí (mientras una refrigera, otra recalienta).

Corregir las situaciones que malgastan energía y utilizar únicamente la cantidad de energía necesaria para garantizar la disponibilidad de los sistemas críticos puede reducir drásticamente sus costes energéticos sin afectar a la disponibilidad.

 

  1. Proteger el sistema de alimentación de emergencia

El impacto de un fallo en el sistema de alimentación adquiere gran importancia si tenemos en cuenta el daño potencial a datos y equipos, la interrupción del servicio, los costos de reparación, las consecuencias legales y el daño a la reputación de la marca. Según un estudio realizado por el Ponemon Institute en 2016, el coste medio de un apagón en un centro de datos fue de más de 740.000 USD, mientras que el coste máximo registrado fue de más de 2,4 millones de USD. Evitar estos elevadísimos costes es una simple cuestión de prevención.

Un programa de mantenimiento preventivo periódico realizado por técnicos expertos es fundamental para garantizar la máxima fiabilidad de los equipos de un centro de datos, incluidas las baterías, las unidades SAI (sistema de alimentación ininterrumpida) y la distribución de la alimentación. De hecho, según un estudio que incluía el análisis de más de 185 millones de horas de funcionamiento de sistemas SAI, la fiabilidad de las unidades calculada en función del tiempo medio entre fallos (MTBF) aumentaba en la misma proporción en que aumentaba el número de visitas de mantenimiento preventivo anual.

Los problemas de reciente aparición en los sistemas pueden detectarse a través del mantenimiento preventivo periódico. Esta inspección sistemática y el correspondiente análisis permiten corregir estos problemas y garantizar que dispondrá de alimentación de emergencia cuando la necesite, ayudándole a evitar el costoso tiempo de inactividad no planificado.

 

Por: Tom Nation,

Vicepresidente y gerente general

de los servicios de sistemas de potencia,

Vertiv en Norteamérica.

La convergencia cibernética y física crea nuevas oportunidades para atacantes

Según Informe Global del Panorama de Amenazas de Fortinet, los ciberdelincuentes están evolucionando constantemente en la sofisticación de sus ataques, desde la continua explotación de la inseguridad de los dispositivos del Internet de las Cosas (IoT) hasta la transformación de las herramientas de código abierto de malware en nuevas amenazas. Estos son los puntos más destacados del informe:

  • Índice de exploits sin precedentes: según el Índice del Panorama de Amenazas de Fortinet, los cibercriminales continúan trabajando duro incluso durante temporadas festivas. Después de un inicio dramático, el Índice de Exploits se fijó en la segunda mitad del trimestre. Si bien la actividad criminal disminuyó ligeramente, el número de ataques por empresa aumentó un 10 por ciento, mientras que las explotaciones únicas detectadas aumentaron un 5%. Al mismo tiempo, las botnets se vuelven más complejas y difíciles de detectar. El tiempo para la infección de botnets aumentó en un 15%, creciendo a un promedio de casi 12 días de infección por empresa. A medida que los ciberdelincuentes emplean la automatización y el aprendizaje automático para propagar ataques, las organizaciones de seguridad deben hacer lo mismo para combatir estos métodos avanzados.

 

  • Monitorear los dispositivos de monitoreo: la convergencia de los elementos físicos y la ciberseguridad crea una superficie de ataque expandida, una que los cibercriminales están atacando cada vez más. Seis de los 12 principales ataques estuvieron relacionados con IoT, y cuatro de los principales seis estuvieron relacionados con cámaras de red habilitadas. El acceso a estos dispositivos podría permitir a los cibercriminales espiar en las interacciones privadas, promulgar actividades maliciosas en el sitio u obtener un punto de entrada en los sistemas cibernéticos para lanzar ataques de denegación de servicio (DDoS, por sus siglas en inglés) o ransomware. Es importante conocer los ataques ocultos incluso en los dispositivos que utilizamos para monitorear o brindar seguridad.

 

  • Herramientas ampliamente accesibles: las herramientas de malware de código abierto son muy beneficiosas para la comunidad de la ciberseguridad, ya que permiten a los equipos probar las defensas, a los investigadores analizar los ataques y a los instructores usarlos como ejemplos de la vida real. Estas herramientas de software abierto están disponibles en sitios de intercambio como GitHub. Como éstos están disponibles para todos, los adversarios pueden acceder a ellos para realizar actividades maliciosas. Están evolucionando y armando estas herramientas de malware en nuevas amenazas, con el ransomware liderando este espacio de amenazas emergentes. Un ejemplo donde el código fuente de un software abierto ha sido armado es el botnet IoT conocida como Mirai, que desde su lanzamiento en 2016 continúa registrando una explosión de variantes y actividades. Para los ciberdelincuentes, la innovación sigue siendo la tierra de las oportunidades.

  • Proliferación de la esteganografía: los desarrollos en la esteganografía están dando nueva vida a un antiguo tipo de ataque. En general, la esteganografía no se usa en amenazas de alta frecuencia, aunque el botnet Vawtrak se ubicó en la lista principal de botnets “explosivos” durante el trimestre. Esto demuestra una mayor persistencia para este tipo de ataque. Además, durante el trimestre, los investigadores observaron muestras de malware utilizando esteganografía para ocultar las cargas útiles maliciosas en los memes transmitidos en las redes sociales. Durante el proceso de ataque y después de intentar contactar con un servidor anfitrión de comando y control, las muestras buscan luego imágenes en un feed de Twitter asociado, descargan esas imágenes y buscan comandos ocultos dentro de ellas para propagar la actividad. Este enfoque encubierto demuestra que los adversarios continúan experimentando en cómo avanzan su malware.

 

  • Infiltración de adware: el software publicitario o adware, sigue siendo una amenaza y no solo una molestia. A nivel mundial, el adware se encuentra en el primer lugar de la lista de infecciones de malware para la mayoría de las regiones: supera la cuarta parte de todos los tipos de infección en Norteamérica y Oceanía, y casi la cuarta parte de Europa. Dado que el adware se encuentra en aplicaciones publicadas, este tipo de ataque puede representar una amenaza seria, especialmente para los usuarios inadvertidos de dispositivos móviles.

 

  • Vigilando la tecnología operativa: con la convergencia continua de la tecnología de la información (TI) y la tecnología operativa (OT, por sus siglas en inglés), un año en revisión muestra el cambio relativo en la prevalencia y la frecuencia de los ataques dirigidos a estos entornos. Desafortunadamente, la mayoría de los ataques generaron terreno en ambas escalas de volumen y prevalencia. En particular, la reaparición del malware Shamoon en una ola de ataques durante diciembre demostró el vigor renovado de estos ataques destructivos. Un ciberataque que ataca exitosamente a un sistema OT o incluso dispositivos conectados como válvulas, medidores o interruptores, podría tener consecuencias físicas devastadoras para infraestructuras y servicios críticos, el medio ambiente e incluso la vida humana.

  • La necesidad de seguridad integrada y automatizada: Los datos de amenazas en el informe de este trimestre una vez más refuerzan muchas de las predicciones de tendencias de amenazas reveladas por el equipo de investigación global de FortiGuard Labs. Para mantenerse a la vanguardia de los esfuerzos en curso de los cibercriminales, las organizaciones necesitan transformar sus estrategias de seguridad como parte de sus esfuerzos de transformación digital. Se necesita un entramado de seguridad para abarcar todo el entorno de red desde el punto terminal de IoT hasta las múltiples nubes y así integrar cada elemento de seguridad para abordar el entorno de amenazas cada vez mayor de hoy y para proteger la superficie de ataque en expansión. Este enfoque permite que la inteligencia de amenazas procesables se comparta a velocidad y escala, reduce las ventanas de detección necesarias y proporciona la remediación automática requerida para las amenazas de hoy.