Categoría: Energía

Las TI serán clave para la jornada electoral

En un país como México, donde la forma de Estado es una república democrática, representativa y federal, el día de las elecciones es uno de los más importantes para toda la población, y no es para menos. En total, 89.1 millones de mexicanos podrán votar, quienes elegirán entre un total de 18 mil candidatos, a sus representantes y servidores públicos. Ambas cifras constituyen un récord a nivel nacional por el número de cargos de elección popular que están en juego.

¿Qué hace posible que todo este proceso electoral suceda? La respuesta se encuentra en las tecnologías de la información (IT), las cuales llegaron para quedarse en las elecciones, tanto en el inicio y la contienda, como en los resultados.

Inicialmente, hablemos de las encuestas como herramientas estadísticas y de proyección de resultados que albergan una gran cantidad de datos que son procesados en servidores de IT de alta capacidad. El flujo de los resultados de dichas encuestas demanda disponibilidad de información 24 horas al día, en tiempo real. Eso significa que si hubiera una interrupción eléctrica se perdería información irrecuperable, o que la proyección de resultados tendría un alto grado de error.

La infraestructura de IT que las casas de encuestas necesitan, abarcan un centro de datos y varios site regionales. Estos lugares demandan sistemas de alimentación ininterrumpido o UPS que puedan proporcionar energía eléctrica por un tiempo ilimitado a todos los dispositivos que tengan conectados. Esto es sumamente importante para que sea posible un monitoreo constante de información y alta disponibilidad.

Pero eso no es todo, para que toda esa infraestructura sea funcional, también se necesita de un ambiente adecuado a esa tecnología. Hablamos de la importancia de contar con aires acondicionados precisos que aseguren el nivel de operación óptimo y el procesamiento eficiente para que todo el análisis de información se termine en tiempo y así, sepamos qué candidato lleva la delantera en la opinión pública.

Pensemos en el 1° de julio. Después que se cierren las casillas en punto de las seis de la tarde, comenzará el escrutinio y cómputo de votos. Dos horas después, a las 20:00 horas, arrancará el PREP (Programa de Resultados Electorales Preliminares), un sistema cuyo objetivo es trabajar con las actas de escrutinio y cómputo ya recabadas por los CEDAT (Centros de Acopio y Transmisión de Datos). Con esto, se darán a conocer los resultados preliminares de la elección, previos al inicio del cómputo distrital, es decir, el conteo final de los votos.

Habiendo dicho esto, ¿pueden imaginar que un distrito regional se quede sin luz en pleno conteo de votos?, ¿que el sistema de resultados preliminar falle? o ¿que la red de internet no pueda transmitir información? Simplemente sería un escenario catastrófico.

La jornada electoral es uno de los retos tecnológico más importantes para los países. Todo tiene que funcionar a la perfección y se debe contar con la infraestructura necesaria para que nada deje de funcionar, aunque algo falle.

Eso hace que las IT sean el verdadero protagonista de las elecciones pues no son cientos, sino miles de interruptores, servidores, escáneres, almacenadores, entre otros, los que participan en todo el proceso electoral. Tener un UPS confiable para estos equipos y poder gestionarlo, definitivamente no es cosa de juego. Si un censo de población ya es exigente, una elección es más complicada, ya que en muy poco tiempo se debe procesar sin errores, una enorme cantidad de información.

En países como Bélgica y Brasil las casillas electrónicas, ya se usan parcial o totalmente y ahí no solo es fundamental lo que se ha mencionado con anterioridad, también se debe sumar la necesidad del Internet de las cosas o IoT, en donde la confiabilidad y disponibilidad deben ser aún más exigentes.

En definitiva, ninguno de los actores involucrados en la organización de una elección puede darse el lujo de dejar a la casualidad o a una infraestructura no confiable, un proceso tan complejo y de repercusiones tan importantes. Las elecciones, además de ser un suceso democrático, son una prueba de fuego para las tecnologías de la información, la disponibilidad de operación, las IoT, la calidad de la energía, el monitoreo y el control.

 

Por: Alberto Llavot, gerente de Preventa y Desarrollo de Negocios para Schneider Electric en México y Centroamérica

Las cinco principales dudas sobre fibra óptica

La fibra óptica se ha convertido en una solución para soportar la demanda de mayor ancho de banda, pero en la industria aún existen muchas preguntas al respecto de su uso, aplicaciones o sus regulaciones, entre otras.

“Aunque hay muchas dudas todavía sobre la fibra, más que nada hay una buena cantidad de ellas sobre cómo suspenderla, si puede o no ser doblada y cómo hacerlo y, por supuesto, cómo se ajusta a las regulaciones europeas o americanas”, mencionó Carlos Morrison Fell, VP Enterprise Field Application Engineer – CALA en CommScope.

 

1. ¿Puedo doblar la fibra alrededor de una esquina angosta?

En el pasado, algunas preguntas se limitaban a saber a dónde y cómo colocar el almacenamiento de holgura. En ocasiones la respuesta fue idear carretes en la bandeja superior para mantener un gran radio de curvatura, en otras se ejecutaron parches a través de diferentes marcos para mantener las curvas fuera y tomar toda la holgura necesaria. Sin embargo, ahora que la fibra con radio de curvatura reducido (RBR) está clasificada según un estándar en particular, hay paneles, marcos, cajas de pared, etcétera, que permiten enrollar la holgura directamente en la unidad.

¿Significa esto que no deberá preocuparse por cómo manejar las bobinas? ¿La pérdida inducida por la curva desaparece? La respuesta no es del todo un “no”, pero hay que entender algunas cosas: todavía hay estándares de radio de curvatura de fibra óptica de vidrio, por ejemplo, UIT-T G.657.A1 tiene un radio de curvatura mínimo de 10 mm, G.657.A2 / B2 a 7.5 mm y G.657.B3 de 5 mm.

“Con estos radios de curvatura específicos se necesitan mantener sistemas limpios con el RBR apropiado. Todavía puede haber pérdida de flexión, pero tal vez no de la misma manera que el pasado”, añadió Carlos Morrison Fell. “Históricamente podrías rastrear la fibra para ver físicamente la curva, pero con la fibra de hoy en día, la pérdida por flexión podría indicar un asentamiento incorrecto de un conector o un problema de enrutamiento en una bandeja de empalme”.

La fibra RBR es un gran paso en la tecnología de fibra que se expandirá a todas las partes de la red, incluso a la planta externa. Tenga en cuenta que, con el uso adecuado y la administración de cables, los técnicos deben ser capaces de eliminar la pérdida por flexión a través de toda la red

2. He escuchado acerca de la conectividad de 8 fibras, pero uso MPO de 12 fibras (inserción de múltiples fibras). ¿Debo cambiar?

La respuesta corta es no. Si se gestiona correctamente, una infraestructura de MPO de 12 fibras con más fibras por conector proporciona un 50 por ciento más de fibras utilizables por conector en el mismo espacio. Esto es valioso ya que los estándares en evolución continúan usando fibras dúplex como opciones de conectividad a través de al menos 100Gbps.

La razón principal para la introducción de conectores MPO de 8 fibras fue proporcionar soporte de aplicaciones de señales paralelas utilizando ocho de las 12 posiciones de fibra disponibles del conector MPO estándar de la industria. Esta aplicación generalmente ocurre en un transceptor QSFP (Quad Small Form-Factor Pluggable).

 

3. ¿Por cuánto tiempo puedo suspender la fibra autosuficiente?

La mayoría de los cables de fibra óptica autosuficientes pueden resistir mecánicamente las cargas de distancias más largas que normalmente se especifican para cada cable. Sin embargo, las longitudes de tramo a menudo están limitadas por la tensión colocada en el vidrio de fibra óptica dentro del cable, e incluso por los requisitos de espacio libre mínimo provistos por el Código Nacional de Seguridad Eléctrica (NESC).

 

4. ¿Será la fibra óptica la mejor solución para conectar radios de red celular en el futuro?

El consenso en la industria es que sí. Los operadores de redes móviles optarán por la fibra como la tecnología preferida para backhaul y fronthaul a radios de redes celulares siempre que sea posible, debido a los requisitos de ancho de banda cada vez mayores.

La densidad de las radios para celulares futuros impulsará la convergencia de red entre el tráfico alámbrico e inalámbrico, aumentando la necesidad de soluciones de redes de fibra que se centren en proporcionar densidad, accesibilidad y flexibilidad para admitir múltiples aplicaciones necesarias para el futuro.

“Otro factor importante es reducir el consumo de energía y optimizar el uso del espacio en la torre. Muchos operadores están en transición a la arquitectura C-RAN) y la fibra es clave para la transición. Con C-RAN, las unidades de banda base (BBU) se mueven desde la parte inferior de la torre hacia las oficinas centrales que se pueden ubicar a muchos kilómetros de distancia. C-RAN ofrece una forma eficaz de aumentar la capacidad, la fiabilidad y la flexibilidad de la red, al mismo tiempo que reduce los costos operativos. También es un paso necesario en el camino hacia la Cloud-RAN, donde la funcionalidad de la BBU se ‘virtualizará’, lo que permite una gran elasticidad y escalabilidad para futuros requisitos de red”, añadió Morrison Fell.

 

5. ¿Cómo se puede confirmar el cumplimiento de los cables de fibra óptica con las nuevas regulaciones europeas RCP para aplicaciones en edificios?

Introducido en 1989 por los reguladores europeos, la Directiva de Productos de Construcción (CPD), más tarde el Reglamento de Productos de Construcción (CPR), se diseñó para garantizar que los materiales y equipos que comprenden edificios como oficinas y escuelas estén a salvo de peligros como incendios y otros riesgos. Con la nueva clasificación publicada en 2016 sobre cómo los productos de cables de comunicaciones reaccionan al fuego, la Comisión Europea exige que los materiales de construcción, como la fibra óptica tengan un lenguaje técnico común como CPR 305 / 2011, por ejemplo.

Todas las instalaciones de fabricación que prestan servicios en el mercado europeo deberán haber sido auditadas y aprobadas por organismos notificados; además, la industria de la construcción deberá trabajar únicamente con proveedores que hayan llevado a cabo amplias pruebas con estos organismos y puedan proporcionar las declaraciones de rendimiento adecuadas para sus productos de cableado, organizados en Euroclases A a F.

“Se requerirá que cada producto lleve la etiqueta CE apropiada para la clasificación europea aplicable. El tipo de prueba está determinada por el tipo de sistema de verificación que utiliza el organismo notificado. Euroclass Cca y B2ca utilizan la verificación más estricta ‘Sistema 1+’, que requiere auditorías continuas y de las instalaciones de producción y pruebas de productos. El sistema 3 incluye Euroclass Dca y Eca, que son clases de seguridad más bajas”, puntualizó Carlos Morrison Fell, VP Enterprise Field Application Engineer – CALA en CommScope. “Aproximadamente el 80% de los Organismos Notificados están acreditados para el Sistema 1+ y pueden asignar Euroclass Cca y superior. Es importante que las organizaciones se aseguren de utilizar el organismo notificado apropiado que se puede encontrar en el sitio web de NANDO de la Comisión Europea”.

Cómo la emulación puede ayudarlo a alcanzar la Transformación Digital

La emulación y la virtualización se presentan hoy en día como tecnologías que provocan transformaciones importantes en las industrias al permitir volver algo rígido y obsoleto en sistemas más flexibles, capaces de ofrecer a las empresas numerosos beneficios; pero qué significa software clásico “legacy” o heredado.

Según Eduardo Serrat, CTO de Stromasys “Sistemas Clásicos “Legacy”, incluyen, software y hardware clásico, por su parte es software que ha estado en funcionamiento por mucho tiempo y que aún satisface una necesidad requerida por la empresa. Tiene una misión crítica y está sujeto a una versión particular de un sistema operativo o modelo de hardware (sujeto a un proveedor exclusivo) al que ya le ha llegado el fin de su existencia. Generalmente la duración de vida del hardware es más corta que la del software. Al pasar de los años, el hardware se vuelve más difícil de mantener, pero se conserva porque está instalado y (por el momento) funcionando y es demasiado complejo y/o costoso remplazarlo.”

En este escenario, quienes tienen instalados los sistemas “legacy” están en todas partes; bancos, empresas de energía (incluyendo plantas nucleares), producción de todo tipo (control de procesos), industria de la defensa, transporte, hospitales, entidades de gobierno y educativas, seguros, y más.

 

 7 beneficios empresariales frente la emulación y la virtualización:

  • Mitigacion de riesgos ante una falla castastrofica de los sistemas clásicos “Legacy”.
  • Modernización de sus sistemas clásicos “legacy”. Las soluciones de emulación y virtualización pueden ser utilizadas en todo tipo de industrias y la compañía puede seguir operando sus aplicaciones heredadas sin tener que pasar por un proceso de readiestramiento.
  • Reducción de costos operativos mediante la reducción de hasta un 85% de espacio físico, y hasta un 90% los costos de consumo de energía y disipación de calor.
  • Aumento de productividad, ya que estos sistemas modernos tienen mejor rendimiento en términos de “performance”.
  • Incorporación de esquemas de alta disponibilidad y la capacidad de responder rápidamente a las necesidades de los clientes.
  • Ser parte de la tan mencionada transformación digital que estamos viviendo y mejor colaboración, puesto a que estos sistemas heredados que fueron sistemas aislados en el pasado, pasan a ser parte del ecosistema y la transformación digital de la empresa.
  • Automatización, siendo parte del ecosistema, antiguos procesos manuales pueden ser automatizados

Lluvia e inundaciones afectan equipos y operación de los negocios

Caos en la ciudad, en la oficina y hasta en tu propio hogar, es lo que ocasiona la temporada de lluvias en lugares como en la Ciudad de México, por no tomar las previsiones adecuadas.

De acuerdo al Cuerpo de Bomberos de la Ciudad de México, en esta época de lluvias cubren hasta 200 servicios diarios por inundaciones y peor aún, atienden 30 cortos circuitos mensuales, 40% más de los que normalmente ocurren en otras estaciones del año.

“El exceso de lluvia en esta temporada aunado a la basura en el drenaje, ocasiona terribles inundaciones que en mucho de los casos originan cortos circuitos en los pozos subterráneos de distribución eléctrica de la ciudad que afectan el suministro eléctrico de la población” explicó Miguel Monterrosas, Director de Soporte Técnico Tripp Lite México

Cabe destacar, que durante esta temporada el servicio meteorológico nacional de la Comisión Nacional del Agua prevé precipitaciones pluviales de 42 mm (milímetros) de agua en mayo, 98.8 mm en junio y 119.5 mm en julio, cantidad de agua similar al año pasado que provocó terribles inundaciones y fallas eléctricas en la ciudad de México.

Las lluvias y las tormentas eléctricas también originan vientos fuertes, caídas de árboles y ramas que pueden causar daños en el tendido eléctrico.

“Estas fallas en el suministro eléctrico no sólo causan desde la descompostura, bloqueo, desconfiguración y hasta el daño total de los equipos y sistemas de cómputo, servidores, sistemas de Voz sobre IP, de fibra óptica, telecomunicaciones y satelitales de las empresas” puntualizó Monterrosas, “También ocasionan perdida de información, de clientes, de productividad y problemas en la operación que se traduce en grandes pérdidas económicas”

Por mencionar tan sólo un ejemplo, cifras del Banco de México reportan que durante el último bimestre del año pasado, en el sector financiero y comercial del país se llevaron a cabo transacciones por un valor de 2,021.4 millones de pesos, a través de 360,055 tarjetas de crédito.

“Si la infraestructura tecnológica de estas instituciones no hubiese estado resguardada con el sistema de protección de energía adecuado, en caso de una interrupción en el suministro eléctrico, estas operaciones, los bancos de información, el equipo tecnológico e incontables horas de trabajo de millones de ejecutivos, se hubieran visto afectadas creando caos en la organización” explicó Monterrosas.

Ante esta situación los especialistas de Tripp Lite invitan a las empresas a implementar sistemas UPS para proteger sus equipos y sistemas de cómputo, garantizando la continuidad de sus operaciones y para ello cuentan una amplia gama de soluciones de protección y respaldo de energía eléctrica que cubren las necesidades específicas de cada negocio.

 

 

[Webminar] Edificios y Aulas Digitales: la convergencia hacia la red de datos con Digital Building

CIO México y Computerworld México le invita cordialmente a participar en el webinar “Edificios y Aulas Digitales: la convergencia hacia la red de datos con Digital Building” próximo a realizarse.

La cita es el martes 19 de junio a partir de las 10 am. ¡Registro gratuito!

La digitalización de los edificios (o Digital Building) está revolucionando los ambientes de trabajo y la manera como opera una oficina o edificio. El sector Educativo es uno de los que capitaliza más los beneficios de la digitalización en los campus y las aulas.

En este webinar usted conocerá cómo, gracias a una infraestructura de red adecuada, la Universidad Panamericana (Campus CDMX) extiende y transforma su propuesta educativa para convertirse en un centro de investigación de referencia, conservando su tradición humanista.

Para ello, contaremos con la participación de Luis Enrique Gómez Sutti, Gerente de Infraestructura de la Universidad Panamericana; Juan Pablo Borray, Gerente de Desarrollo de Negocios para Latinoamérica de Panduit; y José Luis Becerra, Editor de CIO México, como moderador.

Regístrese aquí

Microsoft instala un Centro de Datos debajo del mar

Microsoft está aprovechando la tecnología de submarinos y trabajando con pioneros en energía marina para la segunda fase de su lanzamiento lunar para desarrollar centros de datos subacuáticos autosuficientes que puedan entregar servicios en la nube tan rápidos como el rayo a las ciudades costeras. Un prototipo experimental, de tamaño de contenedor de envío, está procesando cargas de trabajo en el lecho marino cerca de las Islas Orcadas de Escocia.

El despliegue del centro de datos de las Islas del Norte en el Centro Europeo de Energía Marina marca un hito en el Proyecto Natick de Microsoft, un esfuerzo de varios años para investigar la fabricación y operación de unidades de centros de datos preempaquetados ambientalmente sostenibles que se pueden pedir a medida, desplegar rápidamente y dejar operar luces en el fondo del mar durante años.

“Esa es una serie de demandas locas que hacer”, dijo Peter Lee, vicepresidente corporativo de Microsoft AI and Research, quien lidera el grupo New Experiences and Technologies, o NExT. “Natick está tratando de llegar allí”.

El grupo de Lee persigue lo que el CEO de Microsoft, Satya Nadella, ha llamado “moonshots relevantes” con el potencial de transformar el núcleo del negocio de Microsoft y la industria de la tecnología informática.

Project Natick es una idea lista para usar que se adapta al crecimiento exponencial de la demanda de infraestructura de computación en la nube cerca de los centros de población.

Más de la mitad de la población mundial vive a unas 120 millas de la costa. Al colocar los centros de datos en masas de agua cerca de las ciudades costeras, los datos tendrían poca distancia para llegar a las comunidades costeras, lo que permitiría una navegación web rápida y fluida, transmisión de video y juegos, así como experiencias auténticas para las tecnologías impulsadas por inteligencia artificial.

“Para una verdadera entrega de inteligencia artificial, en realidad hoy dependemos de la nube”, dijo Lee. “Si podemos estar a un salto de internet de todos, entonces no solo beneficia a nuestros productos, sino también a los productos que nuestros clientes atienden”.

 

De Francia a Escocia

El data center de las Islas del Norte de 40 pies de largo del Project Natick está cargado con 12 bastidores que contienen un total de 864 servidores y la infraestructura del sistema de enfriamiento asociado. El centro de datos se ensambló y probó en Francia y se envió en un camión de plataforma a Escocia, donde fue conectado a una base triangular llena de balasto para su despliegue en el fondo marino.

El día del despliegue, los vientos fueron tranquilos y los mares quedaron planos bajo una gruesa capa de niebla. El centro de datos fue remolcado al mar parcialmente sumergido y acunado por cabrestantes y grúas entre los pontones de una lancha a modo de catamarán industrial. En el sitio de despliegue, un vehículo operado por control remoto recuperó un cable que contenía la fibra óptica y el cableado de alimentación del lecho marino y lo llevó a la superficie donde fue revisado y conectado al centro de datos, y al centro de datos fue encendido.

La tarea más compleja del día fue la bajada del centro de datos y del cable de 117 pies hasta el suelo marino de la losa de roca. La tripulación marina utilizó 10 tornos, una grúa, una barcaza de pórtico y un vehículo operado por control remoto que acompañó al centro de datos en su viaje.

Todo lo aprendido a partir de la implementación – y las operaciones durante el próximo año y la recuperación final – permitirá a los investigadores medir sus expectativas frente a la realidad de operar centros de datos subacuáticos en el mundo real.

 

Todo lo que debe saber para llevar el Centro de Datos “al borde”

A medida que el número de dispositivos conectados a la red incrementa, y los usuarios demandan mayor velocidad de transmisión de datos, los administradores han tenido que adaptarse y migrar sus Centros de Datos a velocidades de hasta 100Gbps y 400Gbps. Además, la convergencia de redes inalámbricas y cableadas, así como la necesidad de mayor ancho de banda con menor latencia, han obligado a los Centros de datos a ir hacia ‘el borde’, sin embargo, la construcción de un centro de datos ‘en el borde’ para brindar un entorno de computación en la nube puede resultar una tarea sumamente compleja.

Gartner predijo que cerca del 40% de las grandes empresas comenzarán a incorporar principios de ‘computación en el borde’ en sus proyectos para 2021.

“Preparar o construir un centro de datos de este tipo requiere mucha planificación y preparación para que pueda cumplir los objetivos finales necesarios”, comentó Frank Yang, Gerente de Desarrollo de Estrategias de Mercado para la unidad comercial Fibra ISP de CommScope.

En la actualidad, los proveedores de servicios se están moviendo hacia el aprovechamiento de las arquitecturas y tecnologías de red definida por software (SDN) y virtualización de funciones de red (NFV) para ser más ágiles, brindando nuevos servicios en línea más rápido y ahorrando en CapEx y OpEx a través de eficiencias; sin embargo, para lograr llevar un centro de datos ‘al borde’ de manera eficiente, Frank Yang considera que existen 5 aspectos a considerar:

1. Ubicación

La latencia y la experiencia del usuario son factores para el emplazamiento del sitio. El centro de datos en el borde debe colocarse en una ubicación que ayude a reducir el tráfico en la nube. Al almacenar los datos en sitio se debe considerar el cumplimiento de reglamentaciones durante la selección del lugar.

 

2. Energía

La redundancia de energía suele ser una necesidad para los centros de datos tradicionales. Para los centros de datos al borde las alimentaciones redundantes de energía podrían o no estar disponibles, o ser demasiado costosas. “Debido a esto, es probable que los sistemas de energía para centros de datos en el borde deban aprovechar los sistemas de energía existentes”, añadió Frank Yang.

 

3. Calefacción y refrigeración

Para los centros de datos tradicionales, la refrigeración es una consideración principal, pero para los centros de datos en el borde, la calefacción debe considerarse en algunos escenarios climáticos. Es probable que los centros de datos en el borde deban modificar los sistemas de refrigeración existentes, no obstante, las opciones de diseño de refrigeración pueden ser limitadas.

 

4. Diseño

Los centros de datos en el borde pueden ubicarse en diversos entornos, incluidos los entornos no confiables. Existen variables que pueden afectar el diseño físico, por ejemplo, si puede o no la instalación al borde asegurarse y protegerse de los rayos o inundaciones, o si estos son requisitos para el aprovisionamiento y la administración remota.

 

5. Infraestructura de capa física

El centro de datos al borde conecta usuarios, dispositivos y máquinas, mientras lleva “masas de datos desde el borde hacia adentro”, al interior del núcleo dentro de la latencia requerida. Con la expectativa de un crecimiento explosivo de datos en el borde, se recomienda aprovisionar suficiente conectividad y ancho de banda para pruebas futuras.

 

“Si los planificadores pueden verificar y cumplir con estas cuestiones, están en buen camino para desarrollar un centro de datos al borde eficiente. Obviamente existen muchos más detalles a considerar, como si el centro de datos será capaz de soportar aplicaciones dúplex y paralelas, o cuál será el requerimiento de potencia promedio por rack, pero estas cinco características son un buen parámetro para planificar un centro de datos ‘en el borde’”, finalizó Frank Yang, Gerente de Desarrollo de Estrategias de Mercado para la unidad comercial Fibra ISP de CommScope.