Categoría: Energía

Ciudades inteligentes, una realidad que todo gobierno debe adoptar

El rápido crecimiento de ciudades en América Latina ha generado grandes desafíos que no puede resolverse de forma tradicional. La vida urbana va a dominar el próximo siglo, es por lo que, tanto las ciudades antiguas, como las nuevas, están utilizando la tecnología para ser más eficientes. El desafío es convertirse en lugares mucho más agradables para vivir con una distribución eficiente de los recursos. Las ciudades tienen que transformarse en lugares “inteligentes”.

De acuerdo con la Organización de las Naciones Unidas (ONU) para 2050, el 70% de la población mundial habitará en centros urbanos inteligentes. Este fenómeno traerá consigo importantes efectos económicos, políticos y medioambientales, por lo que el concepto de “ciudad inteligente” toma mayor relevancia.

De acuerdo a Gemalto, las ciudades inteligentes no son sólo un sueño del futuro, pues gracias a las soluciones innovadoras del Internet de las Cosas (IoT), muchas ya están activas y se están expandiendo rápidamente. Los gobiernos municipales están aprovechando las tecnologías inalámbricas celulares y de área amplia de baja potencia (LPWAN) para conectar y mejorar la infraestructura, la eficiencia, la conveniencia y la calidad de vida de los residentes y visitantes por igual.

Por lo anterior, el modelo de ciudad inteligente se convierte en una gran opción para los gobiernos dado los beneficios que trae consigo. Por ejemplo, la implementación de las nuevas tecnologías permite mejorar la sostenibilidad y competitividad de la ciudad, siendo un importante desafío de los más de 2,000 millones de habitantes adicionales para 2050.

Según datos de la Organización para la Cooperación y el Desarrollo Económicos​ (OCDE) para el año 2050, si no se toman medidas adecuadas, el crecimiento económico y demográfico tendrá un impacto medioambiental y social sin precedentes.

Londres, Nueva York, París y Hong Kong son algunas de las ciudades que se han visto beneficiadas por las nuevas soluciones en el sector de las telecomunicaciones, y en donde se han creado importantes proyectos implementando transportes sustentables que ayudan a reducir las emisiones de carbono y permiten menores tiempos de conmutación.

En Latinoamérica la formación de Ciudades Inteligentes ha tenido un ritmo más lento, Santiago de Chile, Ciudad de México y Bogotá son algunas de las ciudades que se encuentran en la búsqueda constante de soluciones para mejorar el tránsito vehicular, medir y controlar la contaminación y fomentar la educación tecnológica.

Hoy el 54% de las personas de todo el mundo vive en ciudades, una proporción que se espera llegue al 66% para 2050.

Gemalto afirma que, en nuestro país, debido al crecimiento urbano en Guadalajara, Puebla, Guanajuato, Monterrey y Valle de México, este tipo de ciudades con iniciativas enfocadas a la tecnología están comenzando a ser una realidad ya que la innovación técnica y científica está tomando mayor fuerza.

Mauricio Bouskela, consultor del BID, destaca los siguientes beneficios de una ciudad inteligente: 

  • Mejora la toma de decisiones: La adopción de las nuevas tecnologías, facilita la integración de procesos en la administración pública, y aportan la información necesaria para la mejor toma de decisiones y gestión presupuestaria.
  • Eficiencia gubernamental: Genera los procedimientos comunes que aumentan la eficiencia de toda la estructura de gobierno.
  • Optimización de recursos: Con la aplicación adecuada de la tecnología, se logra optimizar la asignación de recursos, tener mejor visibilidad de su uso y ayudar a reducir gastos innecesarios.
  • Mejora la atención de los habitantes: El grado de satisfacción de los ciudadanos aumenta, ya que permite brindar una atención más cercana a los usuarios, lo que ayuda a cambiar la imagen de los órganos públicos.
  • Estimula la participación de la sociedad civil: La integración de la tecnología estimula la participación de la sociedad civil y de los ciudadanos en la estructura administrativa a través del uso de herramientas tecnológicas que ayudan a monitorear los indicadores de servicios públicos, detectando los problemas, informando, compartiendo e interactuando con la estructura para resolverlos.
  • Mejora en la planeación de políticas públicas: Genera indicadores de desempeño que son útiles para medir, comparar y mejorar las políticas públicas de la ciudad.

Todo esto, las cámaras conectadas, los sistemas viales inteligentes y los sistemas de monitoreo de seguridad pública pueden proporcionar una capa adicional de protección y apoyo de emergencia para ayudar a los ciudadanos cuando sea necesario. Pero también debemos proteger las propias ciudades inteligentes de las vulnerabilidades.

Las ciudades inteligentes sólo pueden funcionar si confiamos en ellas. Todos los socios del ecosistema (gobiernos, empresas, proveedores de software, fabricantes de dispositivos, proveedores de energía y proveedores de servicios de red) deben hacer su parte e integrar soluciones que cumplan cuatro objetivos de seguridad básicos: Disponibilidad, Integridad, Confidencialidad y Responsabilidad.

 

Por: Carlos Romero Business Development IOT LATAM de Gemalto.

El fútbol del futuro es tecnológico y sustentable

El fútbol, como deporte, es un fenómeno de masas que ha tenido que reinventarse una y otra vez y en donde la tecnología ha sido parte de esa transformación. Podemos revisar los uniformes, los balones y el calzado que se usaban en el siglo pasado y compararlos con los mismos objetos utilizados en el último torneo internacional de fútbol, dándonos cuenta de que la diferencia sería enorme.

En este sentido, los estadios representan la parte tecnológica con mayor innovación, a tal grado que se han convertido en estadios inteligentes. Así, en cada grandioso evento, los países anfitriones sorprenden al mundo con los avances más espectaculares para albergar eventos de esa relevancia, donde dentro de los beneficios se encuentran ser más sustentables y mejorar la experiencia del aficionado.

¿Qué es un estadio inteligente?

Podríamos decir que un estadio inteligente es un escenario donde convergen tecnología, deporte y entretenimiento. Commscope lo define como una mini-ciudad inteligente en la que el aficionado puede tener una nueva experiencia que involucra comodidades para vivir toda la emoción de un partido, pantallas de la más alta calidad para seguir las repeticiones o disfrutarlas desde su dispositivo sin perder conectividad para compartir la experiencia, mientras goza de los servicios de comida y bebida sin perder el detalle del partido de su equipo favorito. En resumen, la infraestructura permite vivir toda la experiencia para que el fan esté convencido de que la acción está en el lugar y no en la sala de su casa.

Al tener toda la comodidad tecnológica, se podría considerar el gasto energético que afecta al medio ambiente alrededor del estadio, pero nada más lejos que esto, ya que dichas innovaciones incluyen un sentido amigable con el ecosistema, por lo que se requiere de infraestructura sustentable.

Actualmente existen varios ejemplos de este tipo de recintos deportivos que hablan por sí solos para mostrarnos cómo el futuro es ahora, por ejemplo, el Mercedes-Benz Stadium (la casa del Atlanta United de la MLS y de los Falcons de la NFL), donde se celebrará la final de la liga en 2019, nos muestra cómo se puede ser amigable con el medio ambiente pues aquí, la sustentabilidad es vital: cuenta con cuatro mil paneles solares capaces de generar energía suficiente para 10 partidos de futbol americano o 13 de soccer (esto se traduce en 1.6 millones de kWh al año).

Mercedes-Benz Stadium.

Y lo ecológico va de la mano con un sentido de responsabilidad social: dos mil millones de galones de agua pueden ser almacenados en este estadio, ayudando a evitar inundaciones en el área.

Además, está muy bien conectado con el transporte público (los Falcons tienen el mayor porcentaje de fans de toda la NFL que llegan de esta forma al estadio). También tienen un programa propio de bicicletas y rutas peatonales para llegar a este inmueble.

Todo esto forma parte de la experiencia de un estadio inteligente y ha hecho que el Mercedes-Benz Stadium sea el primero de este tipo en Estados Unidos en alcanzar una certificación LEED platino con 88 puntos.

LEED, por sus siglas en inglés significa Leadership in Energy & Environmental Design, es el sistema que califica y reconoce a los edificios sustentables por sus estrategias e infraestructura encaminadas a la eficiencia energética y al uso de energías alternativas para cuidar el medio ambiente y recursos naturales como el ahorro del agua.

 

En México, también hay estadios inteligentes

En 2013, la innovación con los estadios inteligentes inició en nuestro país con el equipo de fútbol Rayados de Monterrey, que decidieron actualizarse y construir el estadio BBVA Bancomer. Por adentro, se conforma de una estructura metálica futurista, con asientos cómodos, pantallas con WiFi, techos acústicos, luminarias ahorradoras y el uso de aguas residuales, además cuenta con ingeniería que permite una ventilación natural sin gastar en clima artificial en una ciudad con temperaturas tan extremas como Monterrey.

La eficiencia de sus equipos le permite ahorrar hasta un 30% de energía. También es capaz de gestionar de forma inteligente su instalación eléctrica y utiliza materiales amigables con el medio ambiente y 100% reciclables.

Sin duda, esta tendencia en estadios está permeando en el mundo entero mezclando pasión por el deporte y la sostenibilidad.

Muestra de ello es el top cinco de los estadios de fútbol considerados tan verdes, que podrían salvar el planeta:

  1. El Estadio BBVA Bancomer | México – Es uno de los más tecnológicos del mundo, cuenta con certificación LEED Plata y en su construcción consideró áreas verdes recreativas y de deporte, además de todo lo mencionado anteriormente.
  2. Aviva Stadium | Irlanda – Cuenta con la certificación ISO20121 y actualmente tiene una tasa anual de reciclado del 75%. Almacena agua de lluvia para riego y su estructura transparente reduce el uso de luz eléctrica.
  3. Mercedes Benz Stadium | Estados Unidos – Es un estadio utilizado para partidos de fútbol americano, futbol soccer y rugby. Al contar con más de cuatro mil paneles solares, recicla la energía, lo que le permite ahorrar hasta un 29% más de energía que cualquier otro estadio. De igual forma, recicla el agua que consume.
  4. Otrkrytie Arena | Rusia – Un estadio restaurado que obtuvo la certificación BREEAM y que a su alrededor cuenta con un amplio espacio verde, así como con un sistema automatizado que regula su consumo energético reduciéndolo entre un 20 y un 70%.
  5. Tottenham Hotspur Stadium | Inglaterra – Fue construido enfocándose en la conservación de recursos y de energía, utilizando 75% de material de demoliciones en su construcción. Fomenta el desuso de plásticos y el uso de transporte público entre sus aficionados

Una tendencia en favor de todos.

Los beneficios de un estadio inteligente están más que claros en la experiencia que ofrece a los aficionados. Sin embargo, como hemos podido leer, las ventajas también son para la comunidad que vive alrededor del inmueble, el resto de la ciudad y todo el medio ambiente.

Al contribuir generando su propia energía y a su vez, tomar medidas para reciclar o gastar menos, el impacto ambiental es menor. Además, si a esto le sumamos las iniciativas para hacer de los estadios, lugares que cuenten con transporte público y rutas amigables para los asistentes, se evita que se formen congestionamientos que contaminan y hacen perder tiempo a todos los que se mueven alrededor de la zona. La ciudad y el planeta ganan y tal vez, en un futuro no muy lejano, tengamos estadios que se alimenten de la energía de los asistentes.

 

Información de Schneider

 

El futuro de las ciudades inteligentes

Un nuevo informe publicado por un grupo de trabajo denominado Georgia Tech, afirma que el futuro de la tecnología de las ciudades inteligentes dependerá de que las empresas y los gobiernos de la ciudad entiendan los puntos más delicados de la tecnología IoT y la forma en que afecta los modelos comerciales y las vidas de los ciudadanos. El informe analiza, entre otras cosas, los riesgos y las posibles recompensas de varios tipos de IoT pública, desde una perspectiva ética, tecnológica y práctica.

Un punto clave para los investigadores es que el IoT desplegado en espacios públicos -en colaboración entre los gobiernos de las ciudades, la empresa privada y los propios ciudadanos- tiene un grupo diverso de partes interesadas a las que responder.

Los ciudadanos requieren transparencia y protecciones rigurosas de seguridad y privacidad, para estar seguros de que pueden usar la tecnología de forma segura y tener una comprensión clara de la forma en que el sistema puede usar su información.

La investigación también profundizó en varios casos de uso específicos para smart city IoT, la mayoría de los cuales giran en torno a la participación más directa con los ciudadanos. Las ofertas de gestión de servicios municipales, que permiten a los residentes comunicarse directamente con la ciudad sobre su gestión de residuos o necesidades de servicios públicos, ocuparon un lugar destacado en la lista de posibles casos de uso, junto con tecnología de gestión para los propios servicios, permitiendo que las ciudades gestionen la red eléctrica y el sistema de una manera más centralizada. La seguridad pública fue otro caso de uso clave, por ejemplo, la idea de usar sensores IoT para proporcionar información más precisa a los primeros respondedores en caso de emergencia.

El modelo de negocio para la industria privada involucrado en la tecnología de ciudad inteligente gira en torno a la idea de que los sensores agreguen valor a los productos y servicios existentes. Tales “productos cargados digitalmente” pueden ser desde elementos clásicos de IoT hogareños como cámaras de seguridad y termostatos accesibles a teléfonos inteligentes, hasta sistemas de calefacción que pueden notificar a los proveedores cuando se necesita un reabastecimiento.

Más allá de los dispositivos habilitados para sensores actuales, las empresas están más interesadas en la idea de plataformas IoT, software que permita una amplia gama de productos y servicios de IoT diferentes. El informe cita una investigación de IoT Analytics que dice que el mercado de los servicios de la plataforma IoT alcanzará los $ 22 mil millones en los próximos cinco años.

 

– Jon Gold

Claves para lograr mayor eficiencia en el Centro de Datos

¿Cómo puedo hacer más eficiente mi centro de datos?”. Este es un cuestionamiento perfectamente razonable, ya que cada vez es más importante poder optimizar costos y la infraestructura del negocio.

Vivimos en un mundo conectado en el que es vital proteger los datos y archivos importantes. Entonces, es prioridad asegurarse que la infraestructura física del centro de datos pueda adaptarse con rapidez para admitir futuras demandas por el Internet de las Cosas (IoT, por sus siglas en inglés) y el crecimiento en la nube o en ubicaciones periféricas sin comprometer eficiencia operativa.

Actualmente, estos escenarios son recurrentes por lo que será difícil saber dónde comenzar si no se ha implementado un análisis de eficiencia energética y determinar la criticidad de la operación o de procesos particulares. Se trata de algo básico, pero que con frecuencia es un escenario que se pasa por alto.

El monitoreo de energía es el punto de inicio para la eficiencia del centro de datos. Ya que nos da una visión de dónde se está consumiendo la energía y puede ayudar a descubrir posibles fuentes de ineficiencia.

Debemos tener presente que existen áreas donde es muy probable que las empresas estén perdiendo eficiencia y, sin sorprendernos, son los cuatro elementos más importantes para cualquier centro de información:

  • La carga del sistema que alimenta a los UPS (Densidad por rack).
  • El equipo de enfriamiento,es la configuración y diseño del aire acondicionado de precisión del Cuarto de Cómputo (CRAC, siglas en inglés) y la energía de entrada a estos.
  • La calidad de la energía en el suministro eléctrico.
  • La ubicación del centro de datos en sí misma y su distribución.

Las primeras tres hablan, en números, de la efectividad del uso energético (PUE, por sus siglas en inglés), que permiten referenciar sobre cómo se desempeña un centro de datos en comparación con otras organizaciones con infraestructura similar. De esta forma, se puede llegar a un primer escenario sobre qué está funcionando como se espera y qué no.

Por esto es muy importante tener presente los parámetros y controles que dan una historia más detallada sobre qué ha ocurrido. Mientras que los números PUE se enfocan solamente en la infraestructura, estas variables consideran infraestructura, equipo de sistemas conectado a éste y la instalación como un todo. Es importante ver todo el panorama y considerar cuáles son las áreas de oportunidad que se deben aprovechar.

Hay un número de cambios que se pueden hacer desde el comienzo para incrementar la eficiencia. Por ejemplo, revisar el inventario y analizar detenidamente qué es lo que hay, especialmente servidores viejos, routers, apagadores, almacenaje, que pueden no estar siendo utilizados y considerar retirarlos o consolidarlos.

También hay que analizar el contexto fuera del centro de datos, cualquier cosa que caiga bajo la misma denominación, como máquinas de fax (¿cuándo fue la última vez que se envió un fax?), impresoras, etcétera, especialmente si toman energía del UPS. Por otro lado, cuando hablamos del software, se debe pensar en las plataformas que existen y cuán eficientes son, junto con los procesos adicionales que pueden estar utilizando, incluso cuando no están siendo utilizadas.

Hasta se tiene que analizar el tipo de organización/limpieza del lugar de trabajo puede reducir el consumo de energía. Incluso cosas simples como asegurar que las luces estén apagadas cuando nadie esté en el centro de datos puede tener un gran impacto.

Ahora, si en verdad su organización necesita una gran cantidad de aparatos, valdría la pena invertir en OPEX para mejorar el equipo y reducir el número de aparatos y el tamaño total de la infraestructura. Cada equipo que retiren tiene un efecto dominó de impacto positivo de ahorro de energía, especialmente en el centro de información.

Lo que llama la atención es que es mucho más común de lo que se piensa la falta de visibilidad de muchos operadores de sistemas en cuanto en dónde y cómo se está consumiendo la energía. Cabe destacar que es difícil saber dónde comenzar si no se ha implementado un sistema de medición de energía, y sin embargo, esto es algo que con frecuencia es pasado por alto, por tal razón, los responsables de la infraestructura pasiva debe contar con las herramientas necesarias para cumplir con sus tareas, pero también saber optimizar los recursos para contribuir con el negocio desde todas las áreas.

 

Por: David Cabrera, Director de Desarrollo de Negocios de Vertiv.

Las TI serán clave para la jornada electoral

En un país como México, donde la forma de Estado es una república democrática, representativa y federal, el día de las elecciones es uno de los más importantes para toda la población, y no es para menos. En total, 89.1 millones de mexicanos podrán votar, quienes elegirán entre un total de 18 mil candidatos, a sus representantes y servidores públicos. Ambas cifras constituyen un récord a nivel nacional por el número de cargos de elección popular que están en juego.

¿Qué hace posible que todo este proceso electoral suceda? La respuesta se encuentra en las tecnologías de la información (IT), las cuales llegaron para quedarse en las elecciones, tanto en el inicio y la contienda, como en los resultados.

Inicialmente, hablemos de las encuestas como herramientas estadísticas y de proyección de resultados que albergan una gran cantidad de datos que son procesados en servidores de IT de alta capacidad. El flujo de los resultados de dichas encuestas demanda disponibilidad de información 24 horas al día, en tiempo real. Eso significa que si hubiera una interrupción eléctrica se perdería información irrecuperable, o que la proyección de resultados tendría un alto grado de error.

La infraestructura de IT que las casas de encuestas necesitan, abarcan un centro de datos y varios site regionales. Estos lugares demandan sistemas de alimentación ininterrumpido o UPS que puedan proporcionar energía eléctrica por un tiempo ilimitado a todos los dispositivos que tengan conectados. Esto es sumamente importante para que sea posible un monitoreo constante de información y alta disponibilidad.

Pero eso no es todo, para que toda esa infraestructura sea funcional, también se necesita de un ambiente adecuado a esa tecnología. Hablamos de la importancia de contar con aires acondicionados precisos que aseguren el nivel de operación óptimo y el procesamiento eficiente para que todo el análisis de información se termine en tiempo y así, sepamos qué candidato lleva la delantera en la opinión pública.

Pensemos en el 1° de julio. Después que se cierren las casillas en punto de las seis de la tarde, comenzará el escrutinio y cómputo de votos. Dos horas después, a las 20:00 horas, arrancará el PREP (Programa de Resultados Electorales Preliminares), un sistema cuyo objetivo es trabajar con las actas de escrutinio y cómputo ya recabadas por los CEDAT (Centros de Acopio y Transmisión de Datos). Con esto, se darán a conocer los resultados preliminares de la elección, previos al inicio del cómputo distrital, es decir, el conteo final de los votos.

Habiendo dicho esto, ¿pueden imaginar que un distrito regional se quede sin luz en pleno conteo de votos?, ¿que el sistema de resultados preliminar falle? o ¿que la red de internet no pueda transmitir información? Simplemente sería un escenario catastrófico.

La jornada electoral es uno de los retos tecnológico más importantes para los países. Todo tiene que funcionar a la perfección y se debe contar con la infraestructura necesaria para que nada deje de funcionar, aunque algo falle.

Eso hace que las IT sean el verdadero protagonista de las elecciones pues no son cientos, sino miles de interruptores, servidores, escáneres, almacenadores, entre otros, los que participan en todo el proceso electoral. Tener un UPS confiable para estos equipos y poder gestionarlo, definitivamente no es cosa de juego. Si un censo de población ya es exigente, una elección es más complicada, ya que en muy poco tiempo se debe procesar sin errores, una enorme cantidad de información.

En países como Bélgica y Brasil las casillas electrónicas, ya se usan parcial o totalmente y ahí no solo es fundamental lo que se ha mencionado con anterioridad, también se debe sumar la necesidad del Internet de las cosas o IoT, en donde la confiabilidad y disponibilidad deben ser aún más exigentes.

En definitiva, ninguno de los actores involucrados en la organización de una elección puede darse el lujo de dejar a la casualidad o a una infraestructura no confiable, un proceso tan complejo y de repercusiones tan importantes. Las elecciones, además de ser un suceso democrático, son una prueba de fuego para las tecnologías de la información, la disponibilidad de operación, las IoT, la calidad de la energía, el monitoreo y el control.

 

Por: Alberto Llavot, gerente de Preventa y Desarrollo de Negocios para Schneider Electric en México y Centroamérica

Las cinco principales dudas sobre fibra óptica

La fibra óptica se ha convertido en una solución para soportar la demanda de mayor ancho de banda, pero en la industria aún existen muchas preguntas al respecto de su uso, aplicaciones o sus regulaciones, entre otras.

“Aunque hay muchas dudas todavía sobre la fibra, más que nada hay una buena cantidad de ellas sobre cómo suspenderla, si puede o no ser doblada y cómo hacerlo y, por supuesto, cómo se ajusta a las regulaciones europeas o americanas”, mencionó Carlos Morrison Fell, VP Enterprise Field Application Engineer – CALA en CommScope.

 

1. ¿Puedo doblar la fibra alrededor de una esquina angosta?

En el pasado, algunas preguntas se limitaban a saber a dónde y cómo colocar el almacenamiento de holgura. En ocasiones la respuesta fue idear carretes en la bandeja superior para mantener un gran radio de curvatura, en otras se ejecutaron parches a través de diferentes marcos para mantener las curvas fuera y tomar toda la holgura necesaria. Sin embargo, ahora que la fibra con radio de curvatura reducido (RBR) está clasificada según un estándar en particular, hay paneles, marcos, cajas de pared, etcétera, que permiten enrollar la holgura directamente en la unidad.

¿Significa esto que no deberá preocuparse por cómo manejar las bobinas? ¿La pérdida inducida por la curva desaparece? La respuesta no es del todo un “no”, pero hay que entender algunas cosas: todavía hay estándares de radio de curvatura de fibra óptica de vidrio, por ejemplo, UIT-T G.657.A1 tiene un radio de curvatura mínimo de 10 mm, G.657.A2 / B2 a 7.5 mm y G.657.B3 de 5 mm.

“Con estos radios de curvatura específicos se necesitan mantener sistemas limpios con el RBR apropiado. Todavía puede haber pérdida de flexión, pero tal vez no de la misma manera que el pasado”, añadió Carlos Morrison Fell. “Históricamente podrías rastrear la fibra para ver físicamente la curva, pero con la fibra de hoy en día, la pérdida por flexión podría indicar un asentamiento incorrecto de un conector o un problema de enrutamiento en una bandeja de empalme”.

La fibra RBR es un gran paso en la tecnología de fibra que se expandirá a todas las partes de la red, incluso a la planta externa. Tenga en cuenta que, con el uso adecuado y la administración de cables, los técnicos deben ser capaces de eliminar la pérdida por flexión a través de toda la red

2. He escuchado acerca de la conectividad de 8 fibras, pero uso MPO de 12 fibras (inserción de múltiples fibras). ¿Debo cambiar?

La respuesta corta es no. Si se gestiona correctamente, una infraestructura de MPO de 12 fibras con más fibras por conector proporciona un 50 por ciento más de fibras utilizables por conector en el mismo espacio. Esto es valioso ya que los estándares en evolución continúan usando fibras dúplex como opciones de conectividad a través de al menos 100Gbps.

La razón principal para la introducción de conectores MPO de 8 fibras fue proporcionar soporte de aplicaciones de señales paralelas utilizando ocho de las 12 posiciones de fibra disponibles del conector MPO estándar de la industria. Esta aplicación generalmente ocurre en un transceptor QSFP (Quad Small Form-Factor Pluggable).

 

3. ¿Por cuánto tiempo puedo suspender la fibra autosuficiente?

La mayoría de los cables de fibra óptica autosuficientes pueden resistir mecánicamente las cargas de distancias más largas que normalmente se especifican para cada cable. Sin embargo, las longitudes de tramo a menudo están limitadas por la tensión colocada en el vidrio de fibra óptica dentro del cable, e incluso por los requisitos de espacio libre mínimo provistos por el Código Nacional de Seguridad Eléctrica (NESC).

 

4. ¿Será la fibra óptica la mejor solución para conectar radios de red celular en el futuro?

El consenso en la industria es que sí. Los operadores de redes móviles optarán por la fibra como la tecnología preferida para backhaul y fronthaul a radios de redes celulares siempre que sea posible, debido a los requisitos de ancho de banda cada vez mayores.

La densidad de las radios para celulares futuros impulsará la convergencia de red entre el tráfico alámbrico e inalámbrico, aumentando la necesidad de soluciones de redes de fibra que se centren en proporcionar densidad, accesibilidad y flexibilidad para admitir múltiples aplicaciones necesarias para el futuro.

“Otro factor importante es reducir el consumo de energía y optimizar el uso del espacio en la torre. Muchos operadores están en transición a la arquitectura C-RAN) y la fibra es clave para la transición. Con C-RAN, las unidades de banda base (BBU) se mueven desde la parte inferior de la torre hacia las oficinas centrales que se pueden ubicar a muchos kilómetros de distancia. C-RAN ofrece una forma eficaz de aumentar la capacidad, la fiabilidad y la flexibilidad de la red, al mismo tiempo que reduce los costos operativos. También es un paso necesario en el camino hacia la Cloud-RAN, donde la funcionalidad de la BBU se ‘virtualizará’, lo que permite una gran elasticidad y escalabilidad para futuros requisitos de red”, añadió Morrison Fell.

 

5. ¿Cómo se puede confirmar el cumplimiento de los cables de fibra óptica con las nuevas regulaciones europeas RCP para aplicaciones en edificios?

Introducido en 1989 por los reguladores europeos, la Directiva de Productos de Construcción (CPD), más tarde el Reglamento de Productos de Construcción (CPR), se diseñó para garantizar que los materiales y equipos que comprenden edificios como oficinas y escuelas estén a salvo de peligros como incendios y otros riesgos. Con la nueva clasificación publicada en 2016 sobre cómo los productos de cables de comunicaciones reaccionan al fuego, la Comisión Europea exige que los materiales de construcción, como la fibra óptica tengan un lenguaje técnico común como CPR 305 / 2011, por ejemplo.

Todas las instalaciones de fabricación que prestan servicios en el mercado europeo deberán haber sido auditadas y aprobadas por organismos notificados; además, la industria de la construcción deberá trabajar únicamente con proveedores que hayan llevado a cabo amplias pruebas con estos organismos y puedan proporcionar las declaraciones de rendimiento adecuadas para sus productos de cableado, organizados en Euroclases A a F.

“Se requerirá que cada producto lleve la etiqueta CE apropiada para la clasificación europea aplicable. El tipo de prueba está determinada por el tipo de sistema de verificación que utiliza el organismo notificado. Euroclass Cca y B2ca utilizan la verificación más estricta ‘Sistema 1+’, que requiere auditorías continuas y de las instalaciones de producción y pruebas de productos. El sistema 3 incluye Euroclass Dca y Eca, que son clases de seguridad más bajas”, puntualizó Carlos Morrison Fell, VP Enterprise Field Application Engineer – CALA en CommScope. “Aproximadamente el 80% de los Organismos Notificados están acreditados para el Sistema 1+ y pueden asignar Euroclass Cca y superior. Es importante que las organizaciones se aseguren de utilizar el organismo notificado apropiado que se puede encontrar en el sitio web de NANDO de la Comisión Europea”.

Cómo la emulación puede ayudarlo a alcanzar la Transformación Digital

La emulación y la virtualización se presentan hoy en día como tecnologías que provocan transformaciones importantes en las industrias al permitir volver algo rígido y obsoleto en sistemas más flexibles, capaces de ofrecer a las empresas numerosos beneficios; pero qué significa software clásico “legacy” o heredado.

Según Eduardo Serrat, CTO de Stromasys “Sistemas Clásicos “Legacy”, incluyen, software y hardware clásico, por su parte es software que ha estado en funcionamiento por mucho tiempo y que aún satisface una necesidad requerida por la empresa. Tiene una misión crítica y está sujeto a una versión particular de un sistema operativo o modelo de hardware (sujeto a un proveedor exclusivo) al que ya le ha llegado el fin de su existencia. Generalmente la duración de vida del hardware es más corta que la del software. Al pasar de los años, el hardware se vuelve más difícil de mantener, pero se conserva porque está instalado y (por el momento) funcionando y es demasiado complejo y/o costoso remplazarlo.”

En este escenario, quienes tienen instalados los sistemas “legacy” están en todas partes; bancos, empresas de energía (incluyendo plantas nucleares), producción de todo tipo (control de procesos), industria de la defensa, transporte, hospitales, entidades de gobierno y educativas, seguros, y más.

 

 7 beneficios empresariales frente la emulación y la virtualización:

  • Mitigacion de riesgos ante una falla castastrofica de los sistemas clásicos “Legacy”.
  • Modernización de sus sistemas clásicos “legacy”. Las soluciones de emulación y virtualización pueden ser utilizadas en todo tipo de industrias y la compañía puede seguir operando sus aplicaciones heredadas sin tener que pasar por un proceso de readiestramiento.
  • Reducción de costos operativos mediante la reducción de hasta un 85% de espacio físico, y hasta un 90% los costos de consumo de energía y disipación de calor.
  • Aumento de productividad, ya que estos sistemas modernos tienen mejor rendimiento en términos de “performance”.
  • Incorporación de esquemas de alta disponibilidad y la capacidad de responder rápidamente a las necesidades de los clientes.
  • Ser parte de la tan mencionada transformación digital que estamos viviendo y mejor colaboración, puesto a que estos sistemas heredados que fueron sistemas aislados en el pasado, pasan a ser parte del ecosistema y la transformación digital de la empresa.
  • Automatización, siendo parte del ecosistema, antiguos procesos manuales pueden ser automatizados

Lluvia e inundaciones afectan equipos y operación de los negocios

Caos en la ciudad, en la oficina y hasta en tu propio hogar, es lo que ocasiona la temporada de lluvias en lugares como en la Ciudad de México, por no tomar las previsiones adecuadas.

De acuerdo al Cuerpo de Bomberos de la Ciudad de México, en esta época de lluvias cubren hasta 200 servicios diarios por inundaciones y peor aún, atienden 30 cortos circuitos mensuales, 40% más de los que normalmente ocurren en otras estaciones del año.

“El exceso de lluvia en esta temporada aunado a la basura en el drenaje, ocasiona terribles inundaciones que en mucho de los casos originan cortos circuitos en los pozos subterráneos de distribución eléctrica de la ciudad que afectan el suministro eléctrico de la población” explicó Miguel Monterrosas, Director de Soporte Técnico Tripp Lite México

Cabe destacar, que durante esta temporada el servicio meteorológico nacional de la Comisión Nacional del Agua prevé precipitaciones pluviales de 42 mm (milímetros) de agua en mayo, 98.8 mm en junio y 119.5 mm en julio, cantidad de agua similar al año pasado que provocó terribles inundaciones y fallas eléctricas en la ciudad de México.

Las lluvias y las tormentas eléctricas también originan vientos fuertes, caídas de árboles y ramas que pueden causar daños en el tendido eléctrico.

“Estas fallas en el suministro eléctrico no sólo causan desde la descompostura, bloqueo, desconfiguración y hasta el daño total de los equipos y sistemas de cómputo, servidores, sistemas de Voz sobre IP, de fibra óptica, telecomunicaciones y satelitales de las empresas” puntualizó Monterrosas, “También ocasionan perdida de información, de clientes, de productividad y problemas en la operación que se traduce en grandes pérdidas económicas”

Por mencionar tan sólo un ejemplo, cifras del Banco de México reportan que durante el último bimestre del año pasado, en el sector financiero y comercial del país se llevaron a cabo transacciones por un valor de 2,021.4 millones de pesos, a través de 360,055 tarjetas de crédito.

“Si la infraestructura tecnológica de estas instituciones no hubiese estado resguardada con el sistema de protección de energía adecuado, en caso de una interrupción en el suministro eléctrico, estas operaciones, los bancos de información, el equipo tecnológico e incontables horas de trabajo de millones de ejecutivos, se hubieran visto afectadas creando caos en la organización” explicó Monterrosas.

Ante esta situación los especialistas de Tripp Lite invitan a las empresas a implementar sistemas UPS para proteger sus equipos y sistemas de cómputo, garantizando la continuidad de sus operaciones y para ello cuentan una amplia gama de soluciones de protección y respaldo de energía eléctrica que cubren las necesidades específicas de cada negocio.

 

 

[Webminar] Edificios y Aulas Digitales: la convergencia hacia la red de datos con Digital Building

CIO México y Computerworld México le invita cordialmente a participar en el webinar “Edificios y Aulas Digitales: la convergencia hacia la red de datos con Digital Building” próximo a realizarse.

La cita es el martes 19 de junio a partir de las 10 am. ¡Registro gratuito!

La digitalización de los edificios (o Digital Building) está revolucionando los ambientes de trabajo y la manera como opera una oficina o edificio. El sector Educativo es uno de los que capitaliza más los beneficios de la digitalización en los campus y las aulas.

En este webinar usted conocerá cómo, gracias a una infraestructura de red adecuada, la Universidad Panamericana (Campus CDMX) extiende y transforma su propuesta educativa para convertirse en un centro de investigación de referencia, conservando su tradición humanista.

Para ello, contaremos con la participación de Luis Enrique Gómez Sutti, Gerente de Infraestructura de la Universidad Panamericana; Juan Pablo Borray, Gerente de Desarrollo de Negocios para Latinoamérica de Panduit; y José Luis Becerra, Editor de CIO México, como moderador.

Regístrese aquí

Microsoft instala un Centro de Datos debajo del mar

Microsoft está aprovechando la tecnología de submarinos y trabajando con pioneros en energía marina para la segunda fase de su lanzamiento lunar para desarrollar centros de datos subacuáticos autosuficientes que puedan entregar servicios en la nube tan rápidos como el rayo a las ciudades costeras. Un prototipo experimental, de tamaño de contenedor de envío, está procesando cargas de trabajo en el lecho marino cerca de las Islas Orcadas de Escocia.

El despliegue del centro de datos de las Islas del Norte en el Centro Europeo de Energía Marina marca un hito en el Proyecto Natick de Microsoft, un esfuerzo de varios años para investigar la fabricación y operación de unidades de centros de datos preempaquetados ambientalmente sostenibles que se pueden pedir a medida, desplegar rápidamente y dejar operar luces en el fondo del mar durante años.

“Esa es una serie de demandas locas que hacer”, dijo Peter Lee, vicepresidente corporativo de Microsoft AI and Research, quien lidera el grupo New Experiences and Technologies, o NExT. “Natick está tratando de llegar allí”.

El grupo de Lee persigue lo que el CEO de Microsoft, Satya Nadella, ha llamado “moonshots relevantes” con el potencial de transformar el núcleo del negocio de Microsoft y la industria de la tecnología informática.

Project Natick es una idea lista para usar que se adapta al crecimiento exponencial de la demanda de infraestructura de computación en la nube cerca de los centros de población.

Más de la mitad de la población mundial vive a unas 120 millas de la costa. Al colocar los centros de datos en masas de agua cerca de las ciudades costeras, los datos tendrían poca distancia para llegar a las comunidades costeras, lo que permitiría una navegación web rápida y fluida, transmisión de video y juegos, así como experiencias auténticas para las tecnologías impulsadas por inteligencia artificial.

“Para una verdadera entrega de inteligencia artificial, en realidad hoy dependemos de la nube”, dijo Lee. “Si podemos estar a un salto de internet de todos, entonces no solo beneficia a nuestros productos, sino también a los productos que nuestros clientes atienden”.

 

De Francia a Escocia

El data center de las Islas del Norte de 40 pies de largo del Project Natick está cargado con 12 bastidores que contienen un total de 864 servidores y la infraestructura del sistema de enfriamiento asociado. El centro de datos se ensambló y probó en Francia y se envió en un camión de plataforma a Escocia, donde fue conectado a una base triangular llena de balasto para su despliegue en el fondo marino.

El día del despliegue, los vientos fueron tranquilos y los mares quedaron planos bajo una gruesa capa de niebla. El centro de datos fue remolcado al mar parcialmente sumergido y acunado por cabrestantes y grúas entre los pontones de una lancha a modo de catamarán industrial. En el sitio de despliegue, un vehículo operado por control remoto recuperó un cable que contenía la fibra óptica y el cableado de alimentación del lecho marino y lo llevó a la superficie donde fue revisado y conectado al centro de datos, y al centro de datos fue encendido.

La tarea más compleja del día fue la bajada del centro de datos y del cable de 117 pies hasta el suelo marino de la losa de roca. La tripulación marina utilizó 10 tornos, una grúa, una barcaza de pórtico y un vehículo operado por control remoto que acompañó al centro de datos en su viaje.

Todo lo aprendido a partir de la implementación – y las operaciones durante el próximo año y la recuperación final – permitirá a los investigadores medir sus expectativas frente a la realidad de operar centros de datos subacuáticos en el mundo real.