Categoría: Tecnología de Apoyo

La fibra óptica podría ayudar a detectar terremotos

Un grupo de investigadores de Islandia ha utilizado con éxito un cable de comunicaciones de fibra óptica para evaluar la actividad sísmica y poder detectar posibles terremotos, según la BBC.

Aunque por el momento esta técnica está solo en fase de desarrollo y tardará tiempo en poder pasar a ser de uso generalizado, el uso de cables de Internet y televisión que viajan por todo el mundo para prever estas catástrofes naturales, es un paso muy importante ya que se sumará a una lista de recientes descubrimientos como ciertas aplicaciones móviles o el hardware de detección.

El método probado por este equipo se basó en la utilización de un cable de fibra óptica de 15 kilómetros de largo que se había instalado originalmente entre dos plantas de energía geotérmica de la isla.

Simplemente un pulso láser enviado por una sola fibra del cable fue suficiente para determinar si había movimientos de la tierra o perturbaciones a lo largo de su longitud.

Además, pudieron captar, incluso, la señal de un fuerte terremoto en Indonesia, el tráfico local e incluso a ciudadanos que paseaban.

Para poder desarrollar esta tecnología, y por el contrario, los instrumentos que deben adjuntarse a cada cable para hacer posible la monitorización son realmente caros, aunque el equipo ya está investigando la manera de trabajar con alternativas más rentables.

Las redes sísmicas más tradicionales podrían actuar para advertir a la población en países como Japón o México, cuando comienza un terremoto.

“Para realizar una detección temprana no necesitamos necesariamente información muy precisa, nos vale con saber qué movimientos notorios de tierra están ocurriendo en un área”, ha asegurado, Philippe Jousset, jefe del equipo investigador, al medio británico. “Hay miles de kilómetros de cables que ya cruzan las ciudades. Si podemos acceder a ellos y descubrir cómo interpretar los datos con precisión contaremos con un potencial muy importante para esta tarea”.

 

IDG.es

Claves para lograr mayor eficiencia en el Centro de Datos

¿Cómo puedo hacer más eficiente mi centro de datos?”. Este es un cuestionamiento perfectamente razonable, ya que cada vez es más importante poder optimizar costos y la infraestructura del negocio.

Vivimos en un mundo conectado en el que es vital proteger los datos y archivos importantes. Entonces, es prioridad asegurarse que la infraestructura física del centro de datos pueda adaptarse con rapidez para admitir futuras demandas por el Internet de las Cosas (IoT, por sus siglas en inglés) y el crecimiento en la nube o en ubicaciones periféricas sin comprometer eficiencia operativa.

Actualmente, estos escenarios son recurrentes por lo que será difícil saber dónde comenzar si no se ha implementado un análisis de eficiencia energética y determinar la criticidad de la operación o de procesos particulares. Se trata de algo básico, pero que con frecuencia es un escenario que se pasa por alto.

El monitoreo de energía es el punto de inicio para la eficiencia del centro de datos. Ya que nos da una visión de dónde se está consumiendo la energía y puede ayudar a descubrir posibles fuentes de ineficiencia.

Debemos tener presente que existen áreas donde es muy probable que las empresas estén perdiendo eficiencia y, sin sorprendernos, son los cuatro elementos más importantes para cualquier centro de información:

  • La carga del sistema que alimenta a los UPS (Densidad por rack).
  • El equipo de enfriamiento,es la configuración y diseño del aire acondicionado de precisión del Cuarto de Cómputo (CRAC, siglas en inglés) y la energía de entrada a estos.
  • La calidad de la energía en el suministro eléctrico.
  • La ubicación del centro de datos en sí misma y su distribución.

Las primeras tres hablan, en números, de la efectividad del uso energético (PUE, por sus siglas en inglés), que permiten referenciar sobre cómo se desempeña un centro de datos en comparación con otras organizaciones con infraestructura similar. De esta forma, se puede llegar a un primer escenario sobre qué está funcionando como se espera y qué no.

Por esto es muy importante tener presente los parámetros y controles que dan una historia más detallada sobre qué ha ocurrido. Mientras que los números PUE se enfocan solamente en la infraestructura, estas variables consideran infraestructura, equipo de sistemas conectado a éste y la instalación como un todo. Es importante ver todo el panorama y considerar cuáles son las áreas de oportunidad que se deben aprovechar.

Hay un número de cambios que se pueden hacer desde el comienzo para incrementar la eficiencia. Por ejemplo, revisar el inventario y analizar detenidamente qué es lo que hay, especialmente servidores viejos, routers, apagadores, almacenaje, que pueden no estar siendo utilizados y considerar retirarlos o consolidarlos.

También hay que analizar el contexto fuera del centro de datos, cualquier cosa que caiga bajo la misma denominación, como máquinas de fax (¿cuándo fue la última vez que se envió un fax?), impresoras, etcétera, especialmente si toman energía del UPS. Por otro lado, cuando hablamos del software, se debe pensar en las plataformas que existen y cuán eficientes son, junto con los procesos adicionales que pueden estar utilizando, incluso cuando no están siendo utilizadas.

Hasta se tiene que analizar el tipo de organización/limpieza del lugar de trabajo puede reducir el consumo de energía. Incluso cosas simples como asegurar que las luces estén apagadas cuando nadie esté en el centro de datos puede tener un gran impacto.

Ahora, si en verdad su organización necesita una gran cantidad de aparatos, valdría la pena invertir en OPEX para mejorar el equipo y reducir el número de aparatos y el tamaño total de la infraestructura. Cada equipo que retiren tiene un efecto dominó de impacto positivo de ahorro de energía, especialmente en el centro de información.

Lo que llama la atención es que es mucho más común de lo que se piensa la falta de visibilidad de muchos operadores de sistemas en cuanto en dónde y cómo se está consumiendo la energía. Cabe destacar que es difícil saber dónde comenzar si no se ha implementado un sistema de medición de energía, y sin embargo, esto es algo que con frecuencia es pasado por alto, por tal razón, los responsables de la infraestructura pasiva debe contar con las herramientas necesarias para cumplir con sus tareas, pero también saber optimizar los recursos para contribuir con el negocio desde todas las áreas.

 

Por: David Cabrera, Director de Desarrollo de Negocios de Vertiv.

Gobierno de Veracruz mejora sus operaciones y ofrece agilidad en trámites

La administración del Gobierno del Estado de Veracruz, a cargo del Gobernador Miguel Ángel Yunes Linares, mejoró la operación en las diferentes dependencias y entidades, terminando con un rezago en infraestructura tecnológica de aproximadamente 10 años. Licenciamientos vencidos, mantenimientos agotados, enlaces de datos excesivamente reducidos con altos costos y servicios de seguridad perimetral en su gran mayoría obsoletos.

Sebastián Silva Sánchez, quien tomó el liderazgo de la Dirección General de Innovación Tecnológica responsable de la agenda digital del Gobierno del Estado de Veracruz, afrontó el desafío de modernizar y homologar la estrategia de seguridad cibernética en un corto e inusual período de dos años de administración estatal.

“Un elemento que fue tomado con mucha seriedad fue el establecimiento de marcos jurídicos que regularan a todos los responsables de tecnología en las dependencias y entidades que debía homologar el modelo de seguridad perimetral que facilitaría los servicios administrados compartidos y la aplicación de políticas en cascada. Para esto se desarrollaron siete nuevos lineamientos informáticos, enfocados a la estandarización de soluciones, de la ayuda de Fortinet”, explicó Jesús Eugenio García Martínez, subdirector de Política Informática.

A través de la Subdirección de Infraestructura Tecnológica de la gobernación, se coordinó la instalación de un clúster central de equipos Fortinet en la Secretaría de Finanzas y Planeación (SEFIPLAN), y 17 equipos adicionales en cada una de las dependencias. A través de este desarrollo fue posible establecer un medio de comunicación seguro y ágil para desplegar una instancia del Sistema Integral de Administración Financiera (SIAFEV 2.0) en todas ellas. Con esto se logró la protección de más de 20 mil equipos y 5 centros de datos de alta disponibilidad en el propio edificio de Finanzas, así como en el Palacio de Gobierno y en las Secretarías de Seguridad Pública, Salud y Educación.

El proyecto implicó la integración de firewalls de próxima generación (NGFW), red privada virtual (VPN), IPS, AV, filtrado web, aplicación de control y acceso seguros. 

IMPACTO EN EL NEGOCIO

  • Hacer más eficiente el gasto operativo y asegurar la protección de toda la información que viaja en la Red Estatal de Veracruz (REDVER)
  • Robustecer los servicios de enlace de datos y disminuir los costos
  • Implementar tecnología avanzada de equipamiento de seguridad con una administración centralizada y simplificada
  • Atender en forma confiable a más de 23 mil empleados y 22 mil peticiones de ciudadanos diariamente a través de los canales digitales, con un total de 103 especialistas en servicios tecnológicos

Nutanix quiere ayudar a alcanzar la Transformación Digital

Las empresas están en constante búsqueda de la codiciada Transformación Digital, agilizando el negocio y mejorando la entrega de aplicaciones y servicios.

Para ayudarse a llevar sus principales objetivos de negocio, se han tenido que apoyar de tecnologías emergentes como la nube para aumentar la disponibilidad de la información y servicios; y las cargas de trabajo digitales para la próxima generación de aplicaciones inteligentes, que soportarán el IoT e IA.

Fernando Zambrana, Country Manager de Nutanix.

“Nutanix busca ser un enabled, otorgando una plataforma para que las empresas obtengan esa agilidad para conseguir su transformación digital. Nutanix hace invisible la infraestructura del data center, simplificando el aprovechamiento de los recursos, tecnológicos y humanos, para que puedan enfocarse a temas que den mayor valor para el negocio y ofrecer mayor agilidad”, comentó Fernando Zambrana, Country Manager de Nutanix en entrevista para Computerworld México.

Con el avance acelerado de la tecnología, las empresas buscan además simplicidad para ofrecer resultados. “Gracias a una sola consola de administración y un solo centro de operaciones se puede visualizar cada área, creando esa simplicidad que las compañías modernas buscan”, comentó Zambrana, agregando que se trata de una herramienta desde la que se puede acceder incluso desde un Smartphone.

Gracias a la incorporación de tres herramientas que se unieron a su plataforma, Nutanix pretende ayudar a las empresas a alcanzar su digitalización y agilidad de negocio: Flow, Era y Beam.

Nutanix Flow, se trata de su solución de red definida por software (SDN) pensada totalmente para manejar multinubes. “Sabemos que las compañías de hoy no sólo manejan sus cargas de trabajo en una sola nube, por lo que queremos brindarles la confianza para que muevan sus cargas entre todas ellas de manera segura”, comentó el ejecutivo. Flow provee seguridad centrada en aplicaciones para brindar protección total no sólo frente amenazas internas, sino externas, las cuales suelen no ser detectadas por los productos de seguridad tradicionales.

Por su parte, Nutanix Era se trata de un conjunto de soluciones bajo el modelo PaaS (plataforma como servicio) diseñada especialmente para que la nube empresarial pueda optimizar y automatizar las bases de datos, ofreciéndole a los administradores libertad para que puedan enfocar sus esfuerzos en iniciativas de mayor valor para el negocio.

Por último, Nutanix Beam es la oferta SaaS (software-as-a-service) de la compañía, la cual ofrece control multinube para que las organizaciones puedan administrar los gastos, la seguridad y el cumplimiento de regulaciones asociadas a casi cualquier plataforma en la nube, todo bajo la misma plataforma de administración.

 

Las TI serán clave para la jornada electoral

En un país como México, donde la forma de Estado es una república democrática, representativa y federal, el día de las elecciones es uno de los más importantes para toda la población, y no es para menos. En total, 89.1 millones de mexicanos podrán votar, quienes elegirán entre un total de 18 mil candidatos, a sus representantes y servidores públicos. Ambas cifras constituyen un récord a nivel nacional por el número de cargos de elección popular que están en juego.

¿Qué hace posible que todo este proceso electoral suceda? La respuesta se encuentra en las tecnologías de la información (IT), las cuales llegaron para quedarse en las elecciones, tanto en el inicio y la contienda, como en los resultados.

Inicialmente, hablemos de las encuestas como herramientas estadísticas y de proyección de resultados que albergan una gran cantidad de datos que son procesados en servidores de IT de alta capacidad. El flujo de los resultados de dichas encuestas demanda disponibilidad de información 24 horas al día, en tiempo real. Eso significa que si hubiera una interrupción eléctrica se perdería información irrecuperable, o que la proyección de resultados tendría un alto grado de error.

La infraestructura de IT que las casas de encuestas necesitan, abarcan un centro de datos y varios site regionales. Estos lugares demandan sistemas de alimentación ininterrumpido o UPS que puedan proporcionar energía eléctrica por un tiempo ilimitado a todos los dispositivos que tengan conectados. Esto es sumamente importante para que sea posible un monitoreo constante de información y alta disponibilidad.

Pero eso no es todo, para que toda esa infraestructura sea funcional, también se necesita de un ambiente adecuado a esa tecnología. Hablamos de la importancia de contar con aires acondicionados precisos que aseguren el nivel de operación óptimo y el procesamiento eficiente para que todo el análisis de información se termine en tiempo y así, sepamos qué candidato lleva la delantera en la opinión pública.

Pensemos en el 1° de julio. Después que se cierren las casillas en punto de las seis de la tarde, comenzará el escrutinio y cómputo de votos. Dos horas después, a las 20:00 horas, arrancará el PREP (Programa de Resultados Electorales Preliminares), un sistema cuyo objetivo es trabajar con las actas de escrutinio y cómputo ya recabadas por los CEDAT (Centros de Acopio y Transmisión de Datos). Con esto, se darán a conocer los resultados preliminares de la elección, previos al inicio del cómputo distrital, es decir, el conteo final de los votos.

Habiendo dicho esto, ¿pueden imaginar que un distrito regional se quede sin luz en pleno conteo de votos?, ¿que el sistema de resultados preliminar falle? o ¿que la red de internet no pueda transmitir información? Simplemente sería un escenario catastrófico.

La jornada electoral es uno de los retos tecnológico más importantes para los países. Todo tiene que funcionar a la perfección y se debe contar con la infraestructura necesaria para que nada deje de funcionar, aunque algo falle.

Eso hace que las IT sean el verdadero protagonista de las elecciones pues no son cientos, sino miles de interruptores, servidores, escáneres, almacenadores, entre otros, los que participan en todo el proceso electoral. Tener un UPS confiable para estos equipos y poder gestionarlo, definitivamente no es cosa de juego. Si un censo de población ya es exigente, una elección es más complicada, ya que en muy poco tiempo se debe procesar sin errores, una enorme cantidad de información.

En países como Bélgica y Brasil las casillas electrónicas, ya se usan parcial o totalmente y ahí no solo es fundamental lo que se ha mencionado con anterioridad, también se debe sumar la necesidad del Internet de las cosas o IoT, en donde la confiabilidad y disponibilidad deben ser aún más exigentes.

En definitiva, ninguno de los actores involucrados en la organización de una elección puede darse el lujo de dejar a la casualidad o a una infraestructura no confiable, un proceso tan complejo y de repercusiones tan importantes. Las elecciones, además de ser un suceso democrático, son una prueba de fuego para las tecnologías de la información, la disponibilidad de operación, las IoT, la calidad de la energía, el monitoreo y el control.

 

Por: Alberto Llavot, gerente de Preventa y Desarrollo de Negocios para Schneider Electric en México y Centroamérica

Las cinco principales dudas sobre fibra óptica

La fibra óptica se ha convertido en una solución para soportar la demanda de mayor ancho de banda, pero en la industria aún existen muchas preguntas al respecto de su uso, aplicaciones o sus regulaciones, entre otras.

“Aunque hay muchas dudas todavía sobre la fibra, más que nada hay una buena cantidad de ellas sobre cómo suspenderla, si puede o no ser doblada y cómo hacerlo y, por supuesto, cómo se ajusta a las regulaciones europeas o americanas”, mencionó Carlos Morrison Fell, VP Enterprise Field Application Engineer – CALA en CommScope.

 

1. ¿Puedo doblar la fibra alrededor de una esquina angosta?

En el pasado, algunas preguntas se limitaban a saber a dónde y cómo colocar el almacenamiento de holgura. En ocasiones la respuesta fue idear carretes en la bandeja superior para mantener un gran radio de curvatura, en otras se ejecutaron parches a través de diferentes marcos para mantener las curvas fuera y tomar toda la holgura necesaria. Sin embargo, ahora que la fibra con radio de curvatura reducido (RBR) está clasificada según un estándar en particular, hay paneles, marcos, cajas de pared, etcétera, que permiten enrollar la holgura directamente en la unidad.

¿Significa esto que no deberá preocuparse por cómo manejar las bobinas? ¿La pérdida inducida por la curva desaparece? La respuesta no es del todo un “no”, pero hay que entender algunas cosas: todavía hay estándares de radio de curvatura de fibra óptica de vidrio, por ejemplo, UIT-T G.657.A1 tiene un radio de curvatura mínimo de 10 mm, G.657.A2 / B2 a 7.5 mm y G.657.B3 de 5 mm.

“Con estos radios de curvatura específicos se necesitan mantener sistemas limpios con el RBR apropiado. Todavía puede haber pérdida de flexión, pero tal vez no de la misma manera que el pasado”, añadió Carlos Morrison Fell. “Históricamente podrías rastrear la fibra para ver físicamente la curva, pero con la fibra de hoy en día, la pérdida por flexión podría indicar un asentamiento incorrecto de un conector o un problema de enrutamiento en una bandeja de empalme”.

La fibra RBR es un gran paso en la tecnología de fibra que se expandirá a todas las partes de la red, incluso a la planta externa. Tenga en cuenta que, con el uso adecuado y la administración de cables, los técnicos deben ser capaces de eliminar la pérdida por flexión a través de toda la red

2. He escuchado acerca de la conectividad de 8 fibras, pero uso MPO de 12 fibras (inserción de múltiples fibras). ¿Debo cambiar?

La respuesta corta es no. Si se gestiona correctamente, una infraestructura de MPO de 12 fibras con más fibras por conector proporciona un 50 por ciento más de fibras utilizables por conector en el mismo espacio. Esto es valioso ya que los estándares en evolución continúan usando fibras dúplex como opciones de conectividad a través de al menos 100Gbps.

La razón principal para la introducción de conectores MPO de 8 fibras fue proporcionar soporte de aplicaciones de señales paralelas utilizando ocho de las 12 posiciones de fibra disponibles del conector MPO estándar de la industria. Esta aplicación generalmente ocurre en un transceptor QSFP (Quad Small Form-Factor Pluggable).

 

3. ¿Por cuánto tiempo puedo suspender la fibra autosuficiente?

La mayoría de los cables de fibra óptica autosuficientes pueden resistir mecánicamente las cargas de distancias más largas que normalmente se especifican para cada cable. Sin embargo, las longitudes de tramo a menudo están limitadas por la tensión colocada en el vidrio de fibra óptica dentro del cable, e incluso por los requisitos de espacio libre mínimo provistos por el Código Nacional de Seguridad Eléctrica (NESC).

 

4. ¿Será la fibra óptica la mejor solución para conectar radios de red celular en el futuro?

El consenso en la industria es que sí. Los operadores de redes móviles optarán por la fibra como la tecnología preferida para backhaul y fronthaul a radios de redes celulares siempre que sea posible, debido a los requisitos de ancho de banda cada vez mayores.

La densidad de las radios para celulares futuros impulsará la convergencia de red entre el tráfico alámbrico e inalámbrico, aumentando la necesidad de soluciones de redes de fibra que se centren en proporcionar densidad, accesibilidad y flexibilidad para admitir múltiples aplicaciones necesarias para el futuro.

“Otro factor importante es reducir el consumo de energía y optimizar el uso del espacio en la torre. Muchos operadores están en transición a la arquitectura C-RAN) y la fibra es clave para la transición. Con C-RAN, las unidades de banda base (BBU) se mueven desde la parte inferior de la torre hacia las oficinas centrales que se pueden ubicar a muchos kilómetros de distancia. C-RAN ofrece una forma eficaz de aumentar la capacidad, la fiabilidad y la flexibilidad de la red, al mismo tiempo que reduce los costos operativos. También es un paso necesario en el camino hacia la Cloud-RAN, donde la funcionalidad de la BBU se ‘virtualizará’, lo que permite una gran elasticidad y escalabilidad para futuros requisitos de red”, añadió Morrison Fell.

 

5. ¿Cómo se puede confirmar el cumplimiento de los cables de fibra óptica con las nuevas regulaciones europeas RCP para aplicaciones en edificios?

Introducido en 1989 por los reguladores europeos, la Directiva de Productos de Construcción (CPD), más tarde el Reglamento de Productos de Construcción (CPR), se diseñó para garantizar que los materiales y equipos que comprenden edificios como oficinas y escuelas estén a salvo de peligros como incendios y otros riesgos. Con la nueva clasificación publicada en 2016 sobre cómo los productos de cables de comunicaciones reaccionan al fuego, la Comisión Europea exige que los materiales de construcción, como la fibra óptica tengan un lenguaje técnico común como CPR 305 / 2011, por ejemplo.

Todas las instalaciones de fabricación que prestan servicios en el mercado europeo deberán haber sido auditadas y aprobadas por organismos notificados; además, la industria de la construcción deberá trabajar únicamente con proveedores que hayan llevado a cabo amplias pruebas con estos organismos y puedan proporcionar las declaraciones de rendimiento adecuadas para sus productos de cableado, organizados en Euroclases A a F.

“Se requerirá que cada producto lleve la etiqueta CE apropiada para la clasificación europea aplicable. El tipo de prueba está determinada por el tipo de sistema de verificación que utiliza el organismo notificado. Euroclass Cca y B2ca utilizan la verificación más estricta ‘Sistema 1+’, que requiere auditorías continuas y de las instalaciones de producción y pruebas de productos. El sistema 3 incluye Euroclass Dca y Eca, que son clases de seguridad más bajas”, puntualizó Carlos Morrison Fell, VP Enterprise Field Application Engineer – CALA en CommScope. “Aproximadamente el 80% de los Organismos Notificados están acreditados para el Sistema 1+ y pueden asignar Euroclass Cca y superior. Es importante que las organizaciones se aseguren de utilizar el organismo notificado apropiado que se puede encontrar en el sitio web de NANDO de la Comisión Europea”.

Video: ¡Larga vida a la Infraestructura de Cableado!

Panduit, fabricante y proveedor de soluciones de Infraestructura Física da un giro innovador en esta era inalámbrica, con propuestas de ahorro y mejor uso.

“Cuando uno construye una casa, lo más importante son los cimientos. En este símil, la infraestructura de cableado siempre ha sido y es el cimiento de la red en una organización, sin el cual nada funciona”, así lo expresa, Juan Pablo Borray Jiménez, Gerente de Desarrollo de Negocios en Latinoamérica de Panduit, al resaltar la importancia que está teniendo la infraestructura física y de red como elemento clave de esta era digital y el destacado papel que tiene su compañía para impulsar este mercado.

El contraste es claro, dice, pues antes sólo bastaba con conectar computadoras a las redes; hoy en día, lo más común es conectar también los sistemas de seguridad, de iluminación, de aire acondicionado, las redes inalámbricas y todo lo que vendrá en el futuro. Por ello es importante que esta infraestructura esté preparada para soportar las tecnologías que surjan.

Dos roles para un mismo “actor”

Los orígenes de Panduit Corp. (combinación de las palabras PAN-el + conDUIT) se remontan a la década de los años 50, cuando su fundador Jack E. Caveney inventa el Ducto Ranurado Panduit, un dispositivo para controlar páneles industriales y cuyo primer cliente fue General Electric (GE). Desde entonces, Panduit ha sido considerada como una autoridad en soluciones de infraestructura de red y eléctrica, por sus adelantos logrados en el Centro de Investigación de Tinley Park, Illinois, su principal sede.

Para estos tiempos de convergencia –cuando se habla tanto de movilidad e Internet de las Cosas–no sólo transporta datos sino también es el medio para llevar energía a los dispositivos que constituyen los sistemas de una red. “Este es uno de nuestros principales mensajes: la relevancia que tiene hoy la infraestructura para jugar ambos roles –el energético y el informático– dentro de una organización”, afirma Borray.

En este sentido, destaca a Power over Ethernet (PoE) como una de las principales tecnologías que están revolucionando este mercado debido a los voltajes bajos que necesita, y que la hacen más segura de instalar y controlar.

El cableado no desaparecerá

La estrategia de negocio de Panduit en México se enfoca hacia tres áreas definidas: las soluciones para Industria, para Centros de Datos y Edificios (Enterprise), y una de sus principales tareas es fortalecer el grupo de partners que tiene en el país, así como la relación directa con usuarios finales, con la intención de difundir conocimiento sobre nuevas tendencias tecnológicas y, en su caso, cambiar paradigmas de uso para un mejor aprovechamiento de su infraestructura.

“Por ejemplo, con la omnipresencia de tecnologías como la inalámbrica, algunos creen que el cableado va a desaparecer, cuando en realidad está evolucionando”, afirma el directivo. “Hoy lo estamos llevando a lugares donde antes no se hacía: a los techos para conectar access points, a cámaras de seguridad o a sensores de diferentes tipos para controlar la temperatura o la iluminación en un lugar de trabajo para incrementar así la productividad del personal. Podemos afirmar que ya es posible instalar hasta cuatro veces más cantidad de puntos de red que lo que hacíamos antes”.

Ahorro de 30% en aire acondicionado

La infraestructura física no sólo se refiere a conectividad, sino también a soluciones que puedan hacer más eficiente y efectiva la operación de un centro de datos, y que permitan monitorear la infraestructura desde el punto de vista ambiental como la humedad, la temperatura, así como efectuar un adecuado manejo térmico.

En este caso, la contención de pasillos que propone Panduit hace posible mantener el aire frío o caliente entre filas de servidores en un centro de datos para así obtener ahorros hasta del 30% del consumo en aire acondicionado. “Esto es realmente significativo si consideramos que más de la mitad del consumo de energía en un centro de datos proviene precisamente del aire acondicionado”.

Elemento de “menos peso”, pero de mayor importancia

“Hemos visto que cuando se empieza a trabajar en un proyecto de tecnologías de la información dentro de las organizaciones hay otros componentes que se les da otra importancia. Por ejemplo, si se quiere tener un sistema que soporte cierto tipo de aplicación, lo primero que le importará al responsable de tal implementación será el software, los equipos y es frecuente que hasta el final se pregunte: “¿Y cómo puedo conectarlos?”.

Borray destaca que si hablamos de costos, el cableado es el elemento que “menos peso” dentro de un proyecto de tecnología; sin embargo, es también el más importante porque si no funciona adecuadamente, ningún otro elemento lo hará. “Se pueden tener las mejores aplicaciones, dispositivos o switches de red, pero si no se cuenta con una infraestructura de cableado que conecte adecuada y eficientemente tales dispositivos, nada de lo que esté por encima podrá funcionar”.

De acuerdo con Borray, es común escuchar que “todos los cableados son iguales”, pero en realidad no es así. “La apariencia podrá ser similar, mas su tecnología de diseño y construcción los hará diferentes. Con innovación y calidad, esto es lo que promueve y propone Panduit, y también lo que nos distingue”, concluye el directivo.

Planifique ahora su migración a Windows Server 2019

Con la próxima versión de Windows Server 2019 este otoño, es hora de que los profesionales de TI empresariales que trabajan con Microsoft comiencen a planificar su migración al nuevo sistema operativo.

Al igual que con cualquier versión importante, lleva tiempo familiarizarse con las novedades y comenzar a obtener experiencia práctica implementando nuevas funciones. En este caso, las mejoras incluyen seguridad mejorada y capacidades mejoradas del centro de datos.

Hasta el momento, entre los que han estado experimentando con la vista previa de Insider de Windows Server 2019, opinan que las áreas que se implementan primero son: características nativas de Windows Server, componentes enfocados en el centro de datos y nuevas herramientas de administración del Centro de administración de Windows.

Características nativas de Windows Server 2019

La forma más práctica de abordar la migración es centrarse en las características nativas de Windows Server 2019, como servidores web que ejecutan Internet Information Server (IIS), servidores host virtuales HyperV y servidores de archivos. Estas características se basan únicamente en Windows Server, a diferencia de las aplicaciones de terceros que pueden requerir algunos meses adicionales mientras se escriben las actualizaciones para que sean compatibles con Windows Server 2019.

Las aplicaciones web que se ejecutan en IIS son fáciles de probar porque la mayoría del código es solo HTML, .Net u otra aplicación web que se ejecuta en la parte superior de la plataforma IIS / Web. Configurar un servidor Windows Server 2019 con IIS y luego cargar el código web en el servidor es una forma rápida y fácil de confirmar que la aplicación web funciona y puede ser fácilmente el primer servidor 2019 agregado a un entorno.

Los servidores de archivos también son buenos objetivos iniciales para migrar de antiguo a nuevo. Muchas veces, los servidores de archivos tienen gigabytes o incluso terabytes de datos para copiar, y los servidores de archivos también son cosas que no se han actualizado recientemente.

En entornos de adopción temprana, muchas veces los viejos servidores de archivos aún ejecutan Windows Server 2008 (que finaliza en el verano de 2019) y podrían usar una actualización. Las herramientas de migración de archivos como Robocopy o una función de arrastrar y soltar entre las ventanas del Explorador de Windows pueden retener las estructuras de árbol y archivo, así como retener los permisos de acceso a medida que el contenido se copia entre los servidores. Consejo: después de copiar el contenido, los servidores nuevos pueden renombrarse con el nombre del servidor anterior, lo que minimiza la interrupción del acceso de los usuarios.

 

Implementar componentes centrados en el centro de datos

Otro conjunto de aplicaciones que tienden a implementarse desde el principio son los componentes centrados en el centro de datos, como los hosts HyperV que incluyen configuraciones de infraestructura hiperconvergente (HCI) más sofisticadas.

Se puede agregar un host HyperV a un clúster HyperV 2012R2 o 2016 existente, y las máquinas virtuales (VM) se pueden migrar en vivo o replicar desde el antiguo al nuevo host del sistema operativo. Sin ser sofisticado, las máquinas virtuales pueden trasladarse a un nuevo servidor de hipervisor basado en el sistema operativo.

Sin embargo, aquí es donde muchas organizaciones aprovechan la oportunidad para mejorar sus arquitecturas de centros de datos mediante la sustitución de clústeres básicos de HyperV y la implementación de entornos en clúster configurados por HCI. Intente activar un par de servidores host y crear una configuración HCI que ejecute Windows Server 2019 para obtener experiencia práctica valiosa.

HCI no es más que el nuevo y actualizado clúster HyperV que traslada a las organizaciones del concepto de máquinas virtuales que se ejecutan en servidores individualizados a una plataforma donde las VM comparten el rendimiento de disco, red y procesamiento de todos los servidores dentro de la configuración de HCI. Esto mejora enormemente el rendimiento, la confiabilidad, la escalabilidad y la redundancia.

Después de obtener las habilidades y el conocimiento de HCI que se ejecuta dentro de un entorno de evaluación preliminar de prueba, puede mover las cargas de trabajo a esta nueva infraestructura copiando y montando máquinas virtuales existentes en el nuevo clúster de HCI. Si hay problemas para ejecutar la máquina virtual en el nuevo entorno, la máquina virtual original se puede volver a montar en el entorno anterior / existente de HyperV. El original todavía existe porque la VM fue copiada. Por lo tanto, esto se convierte en una forma de mejorar en gran medida el entorno de HyperV a un entorno de HCI significativamente mejorado, con la red de seguridad de volver al entorno anterior si es necesario.

 

Prueba el nuevo Centro de administración de Windows

Una característica de Windows Server 2019 que es fácil de implementar es el Centro de administración de Windows, anteriormente conocido como Project Honolulu. El Centro de administración de Windows se carga en un servidor Windows Server 2019, pero los sistemas de destino pueden ser Windows Server 2012R2 y Windows Server 2016 en sus formas nativas. No se necesitan agentes especiales de software, complementos o actualizaciones. El Centro de administración de Windows apunta a los servidores más antiguos, y la interfaz de administración y administración del Centro de administración de Windows transfiere los servidores nuevos y antiguos a la ventana de administración centralizada.

 

Rand Morimoto

Tenable lanza solución para asegurar infraestructura crítica en IT/OT

Tenable presentó solución diseñada para reducir el riesgo de ciberseguridad en los entornos IT / OT convergentes. Las mejoras en la plataforma Tenable.io e Industrial Security, se trata de una solución de descubrimiento de activos y detección de vulnerabilidades para sistemas de tecnología de operación (OT), en asociación con Siemens, permite a las organizaciones gestionar la exposición cibernética de manera integral en TI y OT y priorizar la remediación basada en criticidad del activo y la vulnerabilidad.

La tecnología operacional (OT) y los sistemas de infraestructura crítica se diseñaron inicialmente para trabajar de manera aislada del resto de la red y protegidos de amenazas de ciberseguridad externas. Pero la transformación digital ha convertido a estos sistemas aislados en dispositivos conectados, lo que los convierte en objetivos de alto valor para los atacantes. De hecho, los ataques a los activos de OT a menudo inician  comprometiendo los sistemas de TI y luego moviéndose lateralmente, como observó el FBI y el Departamento de Seguridad Nacional al emitir una advertencia sin precedentes sobre los ataques patrocinados por el estado ruso en la infraestructura crítica de los EE. UU.

Los entornos convergentes contienen una combinación de dispositivos y sistemas de TI y OT que exigen un enfoque holístico de seguridad cibernética para que las organizaciones puedan administrar, medir y reducir con precisión los riesgos de ciberseguridad.

Las mejoras incluyen:

  • Escaneo Inteligente: éste construye una capa de inteligencia sobre escaneo activo y monitoreo de red pasiva para evaluar los sistemas de TI y OT dentro de un solo flujo de trabajo. En ciertas situaciones el escaneo activo puede ser demasiado intrusivo para los sensibles sistemas OT y puede causar la interrupción del sistema, si se realiza en estos dispositivos. El Escaneo Inteligente dejará de analizar activamente los activos de TI cuando se encuentre con un dispositivo OT.

 

  • Cobertura ampliada de activos de OT: Tenable ha ampliado sus capacidades de evaluación sobre una gama aún más amplia de activos de OT. El soporte ampliado incluye más de 250 dispositivos y aplicaciones adicionales de Siemens, Schneider y Rockwell / Allen-Bradley, que brindan a los clientes una mayor visibilidad sobre todos sus activos de OT y entornos mixtos de tecnología de TI / OT.

 

  • Mapas de topología interactivos: los nuevos mapas de topología 2D y 3D muestran las relaciones entre los recursos de TI y OT como parte de un sistema convergente. Este nuevo nivel de inteligencia de activos de TI y OT, combinado con nuestra profunda inteligencia de vulnerabilidad, proporciona a los clientes un heat map basado en riesgo, en la criticidad del activo y en la vulnerabilidad, lo que permite una priorización más eficiente y una remediación más rápida.

 

“Los desafíos de seguridad que enfrentan las organizaciones con tecnologías operativas no pueden exagerarse. Los activos de TI y OT individualmente, y juntos como sistemas convergentes, forman parte de la superficie de ataque moderna y, por lo tanto, son puntos de riesgo de ciberseguridad. Las organizaciones que determinan su estado de seguridad sin contemplar los activos de OT como parte de la superficie de ataque, carecen de la visibilidad crítica necesaria para comprender su exposición cibernética “, dijo Dave Cole, director de producto de Tenable.

 

Estrategias clave para la migración a alta velocidad del Centro de Datos

Los consumidores y las empresas están impulsando un crecimiento exponencial de los servicios de datos, haciendo que los operadores de centros de datos busquen nuevas formas de ofrecer velocidades de red más altas.

Los centros de datos empresariales deben admitir las aplicaciones existentes, al mismo tiempo que preparan el escenario para nuevas aplicaciones a futuro.

Hasta hace unos pocos años Ethernet de 10 gigabits era la alternativa de ‘alta velocidad’, pero la hoja de ruta de Ethernet de hoy abarca desde 25 y 50 gigabits hasta 100/200 gigabits, quizás incluso 400 gigabit. Ante este panorama, la Migración a Alta Velocidad (HSM) es una tecnología que ayuda a las redes a transportar más datos, además de permitir a los gerentes proteger sus redes en el futuro, brindándoles las garantías operacionales que requieren.

¿Por qué HSM?

Los patrones de tráfico en los centros de datos han cambiado. La demanda de mayor velocidad ha crecido y la infraestructura que ha sido compatible con las aplicaciones en el pasado no será adecuada para soportar aplicaciones futuras.

“En el pasado la entrega de contenido o servicios sobre la base del mejor esfuerzo estaba bien, pero en la actualidad el tiempo es crítico. Hoy los corredores de bolsa, por ejemplo, deben dar respuestas inmediatas; en la educación y en la medicina las redes de datos instantáneas, confiables y de latencia ultra baja son necesarias también”, mencionó Jodi Gunnufso, Program Manager CCS Strategic ProgramGroup en CommScope.

Los datos se han convertido en la nueva moneda y con aplicaciones en tiempo real que impulsan la necesidad de una latencia más baja, un centro de datos bien administrado se convierte en una ventaja competitiva.

Los administradores de centros de datos, cuyo papel anterior era simplemente mantener las cosas en funcionamiento, ahora están a cargo de ofrecer un mayor rendimiento y una menor latencia para mantener a la empresa competitiva.

HSM describe la red del centro de datos a medida que evoluciona hacia un mayor rendimiento y mayor capacidad, adoptando un enfoque nuevo para el diseño de infraestructura que mira hacia el futuro de la fibra óptica de alta velocidad que aún debe implementarse en los centros de datos.

El desafío para los administradores de los centros de datos es que deben tomar decisiones sobre los cambios actuales que admitirán diferentes tipos de fibra, protocolos y distancias de alcance en el futuro. Deben migrar a una infraestructura que sea lo suficientemente flexible para adaptarse, al mismo tiempo que mantienen los costos bajo control.

Al respecto, Jodi Gunnufson planea algunas estrategias clave para afrontar la HSM:

1. Comprender las opciones, dónde y en qué medida desea ir: Es necesaria una buena comprensión de las distancias y los tipos de fibra que se están utilizando, qué tan lejos necesitará llegar y con cuánta cantidad de ancho de banda. Hasta hace unos años, 40G se consideraba ‘alta velocidad’, sin embargo, hoy esa tecnología se ha reemplazado rápidamente por fibra óptica de 100G.

“Algunas de las preguntas que se puede hacer son: ¿Puedo ir con un cable punto a punto, o necesito reconfiguración y puntos de prueba? ¿Qué tipo de capacidad necesito y cuál es la curva de crecimiento que debería esperar? ¿Qué velocidades debo planear para 25G, 40G o 50G, qué pasa con 100G o 400G?”, puntualizó el Program Manager for CommScope’s CCS StrategicProgramGroup.

 

2. Tener la capacidad de administrar la infraestructura actual y futura:Contar con una herramienta de administración de infraestructura (AIM) puede proporcionar una imagen clara de su infraestructura y ayudar a comprender las capacidades y los puntos críticos. Esto hace que sea más fácil tomar decisiones informadas y responder rápidamente a las interrupciones, de forma que se tenga una infraestructura más saludable y más manejable a largo plazo.

 

3. Planificar la flexibilidad: Realizar un diseño que tenga la opción de usar paquetes de 8, 12 o 24 fibras para ajustar el tamaño de la infraestructura en cada paso del camino hacia un ancho de banda mayor es lo ideal para optimizar el uso de su infraestructura de fibra mientras mantiene el 100% de utilización. Su diseño debe ser compatible con varios tipos de fibra y estrategias de crecimiento que coincidan con sus futuras aplicaciones, porque no hay una solución única para todos.

 

4. Incorporar modularidad:“Elija paneles que puedan aceptar una variedad de módulos de fibra, de forma que, al crecer el centro de datos, tendrá una carcasa común y los técnicos pueden simplemente intercambiar módulos para pasar a una velocidad de datos más rápida”, añadió JodiGunnufson.“Idealmente, el cableado y las carcasasse implementan una sola vez, y son los puntos finales los que deben cambiarse para pasar a velocidades más rápidas”.

 

5. Conocer su estructura de costos:Medir costos y beneficios de varias opciones, para después tomar la mejor decisión del tipo de fibra y las soluciones de conectividad que se adapten a los objetivos de una manera rentable es de suma importancia.

 

6. Conozca el tiempo adecuado para la migración: El centro de datos necesitará migrar a velocidades más altas más pronto de lo que pueda imaginarse, por lo que elegir una ruta y un proveedor que puedan ayudarlo será de vital importancia. Con nuevos servicios en tiempo real demandando una mayor capacidad del centro de datos, su ruta de HSM debe estar lista para responder a las necesidades que requieran las aplicaciones de red óptica.