Categoría: Centro de Datos

HPE acelera el futuro empresarial

Madrid, España. En el marco del evento HPE Discover 2018, Hewlett Packard Enterprise (HPE) dio a conocer el siguiente paso en su estrategia de infraestructura definida por software, la infraestructura componible, donde los recursos de computación, almacenamiento y red se separan de sus ubicaciones físicas y pueden gestionarse por software, a través de una interfase basada en la web.

Este concepto pone a disposición de inmediato los recursos de centro de datos y los servicios de nube, y es la base para las soluciones de nube híbrida y nube privada, explicó Philp Davis, president Hybrid IT & Chief Sales Officer of Hewlett Packard Enterprise, durante Hewlett Packard Enterprise 2018 Press & Analyst Summit.

Destacó que una infraestructura que puede aprovisionarse sobre la marcha con inteligencia definida por software permite un rendimiento óptimo de las aplicaciones. “Gracias a la infraestructura componible, el departamento de TI puede aprovisionar infraestructura local sin problemas y tan rápido como se pueden adquirir e implementar los recursos de la nube pública”.

Philp Davis aclaró que la infraestructura componible permite a TI mantener las cargas de trabajo física exactamente dentro del mismo entorno que admite las cargas de trabajo virtuales y basadas en contenedor.

Durante su intervención, Ric Lewis, senior VP&GM Defined & Cloud at Hewlett Packard Enterprise, habló sobre la primera plataforma cloud híbrida construida en infraestructuras componibles, HPE Composable Cloud para ProLiant DL y Synergy, que ofrece a los clientes una posibilidad de elección y de escalabilidad en todo tipo de nubes, además de entregar cargas de trabajo y aplicaciones de forma instantánea y continua para acelerar la innovación.

Gracias a esta innovación, dijo el directivo, los clientes innovan más rápido con mayor automatización e inteligencia. Explicó que  HPE Composable Cloud se compone de las nuevas actualizaciones de HPE OneSphere que es una solución de gestión de la nube híbrida como servicio que simplifica y agiliza las operaciones para garantizar la velocidad y la rentabilidad.

Asimismo, Ric Lewis mencionó que  las mejoras introducidas por el uso de la inteligencia artificial en HPE InfoSight,  el cual predice y resuelve el 86% de los problemas antes de que su negocio se vea afectado y asegura una disponibilidad garantizada del 99,9999%. Además, a medida que analiza y correlaciona millones de sensores por segundo, todos los clientes se benefician a medida que sus sistemas se vuelven más inteligentes y fiables.

Otra característica de la nueva plataforma de nube híbrida es una arquitectura innovadora construida para entornos componibles y gestionada como un recurso por HPE OneView, lo que simplifica radicalmente la red, reduce los costos y mejora la eficiencia operativa. Composable Fabric se introdujo por primera vez como parte de HPE Synergy y ahora está disponible en el resto de entornos para dar una solución al centro de datos.

Además de integrar el Composable Fabric en HPE Composable Cloud para ProLiant DL, HPE está mejorando su solución hiperconvergente haciendo lo mismo sobre la plataforma HPE SimpliVity, que establece un nuevo estándar para la hiperconvergencia con la integración de redes definidas por software para mejorar las necesidades de rendimiento y gestión de las aplicaciones distribuidas.

La nueva HPE SimpliVity es una solución completa de hiperconvergencia diseñada específicamente para proporcionar una automatización integral del procesamiento, almacenamiento y redes, todo ello gestionado a través de una interfaz de usuario única y familiar. La solución aporta agilidad, escalabilidad y simplicidad al centro de datos empresarial, todo en un único componente

Durante Hewlett Packard Enterprise 2018 Press & Analyst Summit, Ric Lewis resaltó que la transición a entornos de nube híbridos puede verse obstaculizada por la necesidad de conocimientos especializados para construir y operar distintas soluciones de nube. Las empresas requieren un enfoque integrado que englobe tanto los recursos como la tecnología y la economía necesarias para ello.

 

En 10 años la industria se encontrará totalmente conectada

De acuerdo con hallazgos obtenidos por análisis realizados por Panduit, se espera que para el año 2028 la mayor parte de la industria en Latinoamérica estará lista para el uso de plataformas 4.0; es decir, producción basada en el internet de las cosas aplicada a la industria (IIoT) y consistente en la utilización de robots, máquinas e infraestructura de redes que permiten mantener producción de alta calidad sin la necesidad de la supervisión humana.

En 10 años las máquinas y los robots estarán interconectados en un esquema de colaboración máquina a máquina (M2M) para llevar a cabo labores de producción en el piso de planta sin la supervisión humana.

Esto no significa que el capital humano se quedará sin empleo, sino que se dará paso a una transformación en el trabajo, pues permitirá al personal concentrarse en otras funciones, como monitorear y analizar los procesos productivos, para basar su desempeño 100% en la creatividad e innovación u otras áreas especializadas.

La conformación de una infraestructura de comunicación robusta, segura y escalable, en conjunto con la integración de la tecnología digital que se vive actualmente es el punto clave para migrar a la cuarta revolución industrial o Industria 4.0

Alfredo Martínez, Gerente de Cuentas para Redes Industriales de Panduit, asegura que el área de producción alberga dentro de sus responsabilidades los procesos críticos en los que se ubican las mayores ganancias o pérdidas en materia financiera de las empresas. “En una producción a gran escala de cualquier bien, el hecho de presentar una falla técnica que ocasione la interrupción de distribución de energía o flujo de datos, se podrían representar retrasos en los procesos de embalaje, despacho y entrega, entre otros; por consiguiente esto ocasionaría pérdidas económicas significativas para cualquier empresa”.

Dentro de los hallazgos ubicados por el análisis de Panduit se encontró que la infraestructura de interconexión del área de manufactura con la red administrativa, se convertirá en un activo crítico para las empresas, pues ésta proporcionará los diferentes servicios de comunicación y colaboración que son necesarios establecer entre los procesos y los recursos humanos.

La falla de comunicación podría significar un impacto económico muy importante para la organización, por lo que resulta importante considerar la implementación de un diseño lógico y físico de la red, cumpliendo con normativas industriales y de telecomunicaciones que lleven a los usuarios a proteger y maximizar su inversión.

De igual modo, Panduit ubicó como un punto importante la necesidad de que los desarrolladores o implementadores de la infraestructura destinada a la red industrial estén certificados para ello, pues el tipo de materiales debe seleccionarse acorde con las condiciones ambientales de operación de cada una de las áreas de la planta. Esto ayudará a robustecer la infraestructura física de la red, incrementando su disponibilidad y ciclo de vida.

En este sentido, la infraestructura de la red juega un papel fundamental, pues “implica robustez y diseños especiales, porque en la planta existen áreas de alta agresividad ambiental donde hay, por su naturaleza inherente, presencia de agua, ácido, polvo, vibración o altas temperaturas, que requieren de un adecuado blindaje, flexibilidad, conducción y durabilidad de los elementos físicos”, asegura Martínez.

Otro elemento fundamental para la implementación de la Industria 4.0 son las Unidades Inteligentes de Distribución de Energía o iPDU, que constan de conectores de distribución de potencia que permiten monitorear switches con la posibilidad de administrar y corregir problemas a distancia.

“Con estos desarrollos tecnológicos, ubicados por la Unidad de Investigación y Desarrollo Tecnológico de Panduit, la dinámica de la industria conectada ya está en marcha a nivel global y se prevé que en muy poco tiempo las empresas líderes sean aquellas que mejores sistemas de conexión implementen, debido a que serán las que manejarán mejor la flexibilidad en su producción, que optimizarán su toma de decisiones en tiempo real y aumentarán su eficiencia de recursos, porque de ellos serán las mayores oportunidades sobre su competencia”, finalizó Martínez.

Se descubren versiones de Mirai en servidores Linux

El  Equipo de Respuesta e Ingeniería de Seguridad de Netscout Arbor ha estado monitoreando los intentos de explotación de la vulnerabilidad Hadoop YARN y encontró un payload familiar a Mirai.

Estas versiones de Mirai encontradas se comportan como las originales, pero están diseñadas para funcionar en servidores Linux y no en dispositivos IoT.

Si bien ASERT ha publicado hallazgos de Windows Mirai anteriormente, esta es la primera vez que observa a Mirai fuera de IoT.

Los Botmasters, o administradores de Bots han adquirido gran conocimiento sobre el desarrollo de malware para Internet de las cosas (IoT) y ahora han cambiado su enfoque hacia los servidores Linux. Al igual que muchos dispositivos IoT, los servidores Linux sin actualizaciones permanecen en la red, y los atacantes abusan de ellos a gran escala y enviando exploits a todos los servidores vulnerables que puedan encontrar.

Su objetivo es claro: instalar malware en tantos dispositivos como sea posible. Una vez que se ha establecido Mirai en un servidor Linux se comporta como un bot de IoT y comienza a utilizar nombres de usuario y contraseñas de telnet por medio de un ataque de fuerza bruta. Lo diferente es que, entre los dispositivos pequeños y diminutos de la botnet, ahora se encuentran servidores Linux de  gran potencia.

Si encuentra con éxito un dispositivo vulnerable, en lugar de instalar directamente el malware en la víctima, informa la dirección IP, el nombre de usuario y la contraseña a un servidor de reporte, donde el atacante puede automatizar la instalación del bot.

Los servidores Linux en los centros de datos tienen acceso a más ancho de banda que los dispositivos IoT en redes residenciales, lo que los convierte en un bot de DDoS mucho más eficiente.

Una cantidad  de servidores Linux con muchos recursos pueden generar ataques que compitan con una red grande de bots de IoT.

Mirai ya no está apuntando únicamente a dispositivos IoT. Si bien las técnicas utilizadas para entregar Mirai a los servidores tanto de IoT como de Linux pueden ser similares, para los atacantes es mucho más fácil ahora atacar servidores de Linux x86 que toda la gama de CPU utilizadas en los dispositivos de IoT.

 

Los empleos mejor pagados en el sector de tecnología en México

Con la constante búsqueda de la digitalizacón de los negocios el área TI cobra cada vez más relevancia en el core de las empresas, no sólo en México, sino a nivel global, por lo que los trabajos relacionados con el sector de la tecnología están siendo cada vez más buscados y mejore remunerados.

Los trabajos del sector de tecnología se han caracterizado por contar con elevados ingresos y una demanda constante de profesionales.

Love Mondays dio a conocer los sueldos promedio de los 10 profesionistas del sector tecnológico más populares en México, donde es interesante notar que 8 de los 10 empleos del sector tecnológico mejor pagados están relacionados con la programación.

Las carreras mencionadas fueron consideradas por tener un registro en la plataforma de 15 o más salarios durante los últimos 12 meses. “Quienes estén interesados en el sector de tecnología encontrarán esta información de bastante utilidad para elegir su carrera o en qué especializarse”, explica Dave Curran, cofundador y COO de Love Mondays.

De acuerdo con el ranking, uno de los cargos mejor pagados en México es el de ingeniero en software, con un salario promedio de $35,926 pesos mensuales en 45 sueldos publicados en la plataforma. El ranking es resultado de una evaluación anual que contempló 99,604 sueldos publicados en la plataforma.

Las profesiones de tecnología mejor pagadas es el siguiente:

  1. Ingeniero en software – $35,926
  2. Ingeniero de Producto – $24,571
  3. Desarrollador – $24,027
  4. Especialista en información de las tecnologías – $21,113
  5. Desarrollador de Software – $20,101
  6. Programador en CNC – $15,923
  7. Programador – $15,743
  8. Analista programador – $15,547
  9. Desarrollador Web – $13,440
  10. Programador web – $12,845

Ventajas del almacenamiento en la nube

El cloud computing o almacenamiento en la nube es uno de los modelos informáticos con mayor auge en las empresas gracias a los beneficios que brinda en la gestión de los procesos. La nube es la herramienta que permite a las organizaciones tener sus recursos almacenados en internet de forma segura y de fácil acceso sin la necesidad de instalar un servidor.

Aunque se trata de un sistema ampliamente conocido, muchas empresas no han migrado su información a la nube por miedo a que los datos se vean comprometidos; sin embargo, el nivel de privacidad y fiabilidad es más alto que con otros métodos, ya que el usuario es quien lo controla directamente.

Durante el 2017, 30% de las empresas mexicanas invirtieron en la nube pública y poco más del 18% destinaron parte de su presupuesto a la nube privada.

La diferencia radica en que la pública no requiere de un gasto extra en almacenamiento, aunque la información está “abierta” al proveedor; no obstante, es igual de segura que la privada, pero debido a su costo accesible es más popular entre las PyMEs. Por otra parte, la nube privada se percibe como parte de la empresa, no como un servicio aparte.

“Sin importar el giro o el tamaño de la compañía, deberá considerar un servicio de alojamiento o aplicación en la nube para optimizar sus procesos y recursos al tener sus datos en un sólo lugar y sin necesidad de invertir en equipamiento, y sobretodo distribuir los procesos y recursos con todos los colaboradores. La nube ya no es una novedad es indispensable para el crecimiento y eventualmente para la supervivencia de la empresa”, comentó Roger Alarcón, CEO de GurúComm.

Ejecutar las operaciones desde la nube es más fácil y seguro de lo que se cree, además de tener una serie de ventajas para las empresas que la implementan, como:

– Fácil acceso: Sólo hace falta un dispositivo conectado a internet para que se pueda ingresar a la información en tiempo real, de manera inmediata, que puede ser compartida con tantos miembros se elija.

– Flexibilidad: Es personalizable de acuerdo a las necesidades de cada empresa, adaptándose a sus procesos, los servicios que ofrece, presupuesto, etc. y es fácil de implementar.

– Bajo costo: Una de las características de la nube es que no es necesario adquirir una licencia de uso, tampoco necesita de infraestructura o mantenimiento de equipos y se paga por lo que se usa, lo que ayuda a reducir costos adicionales.

– Fácil de usar: La integración de los sistemas en la nube es automática; de esta forma, los usuarios tienen la garantía de acceder a información desde cualquier medio, eliminando la labor de realizar duplicados en cada tarea. Las actualizaciones también son automáticas por lo que siempre se tendrá la última versión.

Las exigencias de la comunicación actual en las empresas requieren de herramientas cada vez más especializadas que se adapten a sus perfiles y puedan darle el servicio necesario para llevar a cabo sus actividades de la forma más eficiente posible, brindándole a su vez un servicio de calidad a sus clientes.

Extreme Networks lanza nueva solución para Centro de Datos

Los equipos de operaciones del centro de datos están sintiendo la presión de seguir el ritmo de las demandas empresariales de los servicios a la velocidad de la Nube, pero las acumulaciones de tecnología monolítica, la visibilidad limitada y los procesos manuales los están frenando.

Para ayudar a las empresas a superar estos desafíos, Extreme Networks anunció su propuesta para llevar el camino hacia el nuevo Centro de Datos ágil, que permite a las organizaciones transformarse a su propio ritmo con la automatización, la gestión, la visibilidad y la TI de varios dominios. Herramientas analíticas que funcionan en cualquier entorno de proveedor.

El nuevo hardware y software en la solución Agile Data Center de Extreme ofrece las herramientas que necesitan para adoptar la automatización, donde sea que estén en su camino. La tecnología segura, plug-and-play combina las herramientas de red y automatización de Centros de Datos adquiridas con las capacidades de administración, análisis y seguridad de Extreme para reducir el riesgo y mitigar la complejidad y el trabajo manual involucrados en la implementación y administración de entornos de múltiples proveedores. y la transición de las arquitecturas heredadas.

 

Beneficios incluidos:

Automatización de TI entre dominios: Extreme Workflow Composer, impulsado por StackStorm, permite la automatización de TI multiplataforma, multiprofesional personalizada, que facilita la integración completa de recursos de computación, almacenamiento, seguridad y red.

Automatización a su ritmo: Extreme Embedded Fabric Automation permite la creación de tejido de Centro de Datos plug-and-play en segundos para un tejido de cualquier tamaño, sin necesidad de software o servidores adicionales. Los clientes pueden automatizarse a su propio ritmo con flujos de trabajo personalizables utilizando herramientas populares como Ansible, así como la capacidad de pasar a la automatización completa de TI con Extreme Workflow Composer.

Gestión de un sólo panel: Extreme Management Center ofrece capacidades de gestión y supervisión de múltiples proveedores de extremo a extremo en toda la red, desde el borde y el campus cableados / inalámbricos al Centro de Datos, lo que reduce el tiempo de administración y acelera la resolución de problemas.

Información sobre dónde y cuándo los necesita:Extreme Analytics proporciona visibilidad de aplicaciones y telemetría de extremo a extremo en todo el campus, Centro de Datos, entre máquinas virtuales en los hosts y en la nube, lo que permite a los administradores respaldar el negocio con información en tiempo real para informar decisiones Un sensor virtual captura la información de tráfico en y entre las instancias virtuales de VMware, sin ralentizar la red. La capacidad de la máquina virtual invitada de la familia de conmutadores y enrutadores SLX de Extreme brinda a los administradores de red capacidades de analizador distribuido para el análisis en la caja.

Adaptabilidad y agilidad de la red: la arquitectura abierta e independiente del proveedor elimina el bloqueo y constituye la base de una red que se adapta fácil y rápidamente a las necesidades empresariales en constante cambio impulsadas por la transformación digital. La integración perfecta de VMware vCenter acelera el despliegue de aplicaciones a través del descubrimiento de máquinas virtuales sin contacto, la movilidad de máquinas virtuales y la migración de servidores VM.

Hardware para cualquier caso de uso: las plataformas de enrutamiento y conmutación SLX de Extreme proporcionan la base para el moderno Centro de Datos. Los nuevos conmutadores de hojas SLX 9030, diseñados para la conmutación Top of Rack mejorada, y el enrutador SLX 9640 para enrutamiento de borde de alto rendimiento y escalable e interconexión de Centros de Datos (DCI) escalables, fortalecen una cartera ya sólida y completa.

Las 3 grandes preocupaciones de las áreas de TI empresariales

El área de Tecnologías de Información está desbancando a las de Ventas, Operaciones y Finanzas (históricamente esenciales al ser las que sustentan al negocio), porque actualmente todos los tipos de empresas están enfocadas en alcanzar su transformación digital. Las herramientas y procesos de TI dirigidos a esta evolución, como parte de una estrategia innovadora enfocada en enriquecer la experiencia de empleados y clientes, aumentan las ventas y optimizan las operaciones, además de responder más eficientemente a las necesidades de los usuarios, colaborar globalmente, agilizar las iniciativas y contar con datos, aplicaciones e infraestructura siempre disponibles.

Los equipos TI no la tienen fácil. Como responsables de facilitar que todo en la empresa ocurra como las unidades de negocio esperan, deben atender a un sinfín de aspectos, donde brindar el máximo desempeño de aplicaciones, garantizar que la información crítica del negocio esté protegida y asegurar que las interrupciones y vulnerabilidades no impacten negativamente al negocio son sólo algunas. Entre sus preocupaciones, se destacan tres por el peligro que representan de obstaculizar el éxito en la era digital:

1. Complejidad de TI, que continúa creciendo

IDC indica que nuevos modelos de implementación de aplicaciones (la multi-nube, el software como servicio, el Internet de las Cosas, la nube híbrida y la movilidad, entre otros) siguen proliferando y se suman a las tradicionales on-premise. Esto ha hecho que los datos del negocio aumenten y se dispersen en múltiples repositorios, lo que crea enormes retos para los profesionales de TI, haciendo más complejo controlar dónde se encuentran, garantizar su protección y gobernabilidad, y gestionarlos con eficiencia.

No es de extrañar que 69% de los tomadores de decisión reconozcan que las TI son más complejas que apenas 2 años atrás, según un estudio de Enterprise Strategy Group, y esto no hará sino incrementarse.

2. Incapacidad de brindar los niveles de disponibilidad requeridos

El año pasado, 82% de los profesionales TI encuestados a nivel mundial por Veeam reconocieron que sus capacidades de recuperación no cumplían las expectativas de las unidades de negocio, lo que ha sido consistente en los reportes de los últimos dos años de la empresa.

Esto impacta directamente en el éxito de sus iniciativas de innovación: el 66% de las empresas han visto impedida su transformación digital por la insuficiente disponibilidad de datos y aplicaciones.

3. Rezago con respecto al escenario mundial

Hoy día, ya no hay fronteras para los negocios. La globalización fuerza a las organizaciones de todo el orbe a operar con eficiencia y agilidad en un entorno siempre disponible, brindando altos estándares de servicio a clientes a través del uso inteligente de la información.

Con todo, de acuerdo con el World Economic Forum, la insuficiente capacidad para innovar ocupa la posición 10 entre los factores más problemáticos para hacer negocios en México. El foro sugiere a América Latina fortalecer su capacidad de adaptarse a las cambiantes condiciones internacionales y basarse en una agenda de competitividad coherente que permita la innovación.

Sin duda, la nueva tecnología enfocada en simplificar e incrementar la eficiencia de las operaciones, debe estar en la cima de la estrategia, y contar con un ambiente que garantice la protección y disponibilidad de los datos necesita estar en la base. Ahora que los datos ocupan un lugar principal al ser el motor de la transformación digital, es importante que las áreas de TI consideren la hiper disponibilidad y la Gestión Inteligente de Datos como componentes imprescindibles para participar en la era digital presente y futura.

 

 

Por: Carlos Ramírez,

Ingeniero de Sistemas,

Veeam México  .

El poder y la importancia de los datos

Western Digital presentó las principales tendencias y las estadísticas que demuestran el potencial y el valor de los datos en el mundo actual. Sven Rathjen, Vicepresidente mundial de mercadotecnia de canales para Western Digital, compartió información detallada sobre la evolución de la industria de almacenamiento y cómo los datos están creando nuevas posibilidades en diferentes áreas: desde la automovilística hasta la medicina.

Para poner un contexto sobre el nivel de crecimiento y la importancia de los datos, Rathjen puso como referencia el caso de India. Este país tiene 1.2 billones de habitantes y en seis años el gobierno de India ha registrado los rostros y las identificaciones de cada uno de sus habitantes para servicios financieros, de gobierno, etc.

Acerca de los datos que producen los usuarios finales, en este mismo país diariamente se envían 250 millones de videos por WhatsApp y un billón de fotos, según datos de WD. Sven Rathjen afirmó  que el 50% de los datos del mundo está dentro de alguno de los productos de Western Digital.

Rathjen recalcó que vivimos en un mundo donde tan sólo los norteamericanos utilizan aproximadamente 2.7 Petabytes de datos de Internet cada minuto del día, donde 2.5 Exabytes de datos se generan al día, y donde tan sólo en el 2017, los fabricantes de almacenamiento distribuyeron unos 850EB entre HDD y NAND- de los cuales el 43% fue en dispositivos de Western Digital.

El crecimiento de los centros de datos también ha sido drástico: en el 2018, el gasto anual a nivel global en dispositivos para centro de datos fue de USD $664.000 millones —y entre el 65% y 80% de todo el gasto de centros de datos se asigna al almacenamiento.

Una de las aplicaciones de estos nuevos desarrollos en almacenamiento de datos son los autos conectados. Un vehículo autónomo puede generar hasta 4TB de información por cada hora de conducción; lo que nos da una idea de las necesidades de almacenamiento de esta industria, en la que ya 19 compañías han anunciado planes de lanzar vehículos autónomos antes del 2020.

Otras aplicaciones asombrosas del uso y valor de los datos pertenecen al mundo de la medicina y la farmacéutica, especialmente a través de soluciones de realidad virtual y realidad aumentada, así como a las áreas de seguridad pública, videovigilancia, hogares conectados y venta minorista. Las cifras hablan por sí solas:

– Londres es la ciudad con la mayor cantidad de cámaras de videovigilancia, con aproximadamente 5.9 millones. El londinense promedio es grabado por esas cámaras 300 veces al día, lo que genera 175PB grabados al día o 62EB al año (250EB si es en resolución 4K) .

– En China, existen unos 170 millones de cámaras de videovigilancia, y se espera que esa cantidad aumente 2.5 veces para llegar a los 400 millones en el 2020.

– De acuerdo con un estudio de Gartner, 25.000 millones de “cosas” estarán conectadas a Internet en el 2020.

En entrevista para PC World México,  Sven Rathjen afirmó que lo más importante para el futuro de los datos es hacer la conexión entre el Big Data y el Fast Data. “Nosotros facilitamos esta conexión y el modo para hacerlo de una manera rápida, estamos desarrollando productos que pueden analizar los datos de una manera más veloz. Esta infraestructura es posible con nuestros productos de ActiveScale u OpenFlex, para que posteriormente las empresas faciliten los datos a sus clientes o a cualquier dispositivo”.

“Todas las grandes compañías tienen que entender que los datos es lo más importante. Tienen que establecer la infraestructura para preservar, analizar y distribuirlos a cualquier mercado o función que necesiten. Tenemos mucha confianza en México, vemos una oportunidad mayor que en este país que en cualquier otro de Latinoamérica”, agregó el ejecutivo.

Sven Rathjen y Eduardo Alexandri, director general de Western Digital México.

Por su parte, Eduardo Alexandri, director general de Western Digital México, agregó que la videovigilancia tiene un papel muy importante en el día con día de México. “Tenemos un portafolio de soluciones enfocado a este mercado y ponemos al alcance del consumidor donde puede almacenar todo su contenido. En lo que refiere a videovigilancia tenemos la línea Purple, son dos productos. El primero de ellos es un disco duro mecánico para grabar información en DVR o NVR. Adicionalmente, hace unos meses lanzamos una tarjeta de la línea Purple en la que puedes grabar desde la misma cámara por si hay una interrupción con el grabador”.

 

-César Villaseñor, PC World México. 

¿Cuál es el futuro de la conectividad inalámbrica?

La evolución de las telecomunicaciones y, por ende, de la tecnología, han hecho que el cableado de redes inalámbricas cambie significativamente. En la actualidad las demandas colectivas de tecnología y conectividad inalámbrica siguen creciendo a niveles antes impensados; las personas hoy requieren más cobertura y mayor capacidad de las redes, especialmente para servicios de transmisión de video HD o aplicaciones como la realidad virtual. Pero ¿significa esto que el futuro deberá ser inalámbrico para soportarlos?

“Hoy el 4G está dando paso a las redes 5G. En las generaciones anteriores de redes inalámbricas, el diseño de sitios celulares más comunes tenía radios de estación base demasiado grandes y voluminosos en la parte inferior de las torres celulares, con cables coaxiales que conectan los radios a las antenas en la parte superior de la torre. Con los cables coaxiales, la elección del cable generalmente se reduce al presupuesto general del enlace. La cantidad de pérdida permitida entre el punto A y el punto B, de manera que el sistema general puede proporcionar la cobertura planificada es lo que determina la selección del producto”, señaló Babber Abbas, Director Product Line HELIAX en CommScope.

Las grandes demandas de conectividad exigen que las redes sean mucho más eficientes, requiriendo llevar las funciones de radio lo más cerca posible de la antena para reducir las pérdidas de la línea de transmisión, haciendo que el cableado de fibra óptica supere al coaxial como el medio preferido para este tipo de despliegues.

Para Babber Abbas, la elección de fibra óptica sobre cable coaxial se basa en las pérdidas mucho más bajas, además de la mayor capacidad general que solo los cables de fibra pueden proporcionar. Las unidades de radio remotas ahora ubicadas en la parte superior de las torres, son dispositivos activos que requieren conectividad de datos a través de fibra y energía. Este nuevo tipo de diseño de sitio se llama fibra a la antena (FTTA), y hay diferentes maneras de proporcionar la conexión.

“Las opciones de arquitectura del sitio en FTTA se realizan en función de la economía, la capacidad de actualización y las concesiones de flexibilidad. Dependen de las consideraciones de carga de la torre, los costos de arrendamiento que los operadores de red pagan a las compañías de la torre, los criterios de selección de proveedores y la economía en general”, indicó Babber Abbas; y señaló algunas opciones para ello:

  • Cada unidad de banda base en la parte inferior de la torre podría conectarse directamente a cada radio remota en la parte superior, utilizando múltiples tramos de cables de fibra hasta la torre.
  • Estas mismas conexiones podrían hacerse con la fibra incluida en lo que se llama un troncal de fibra óptica, de modo que solo un tramo de cable sube por la torre.
  • En un escenario aún más integrado, la línea de alimentación se agrega a la mezcla, y todos los cables de alimentación y de fibra se combinan en un solo cable.
  • Todos los cables pueden ir directamente a las unidades de radio remotas o a cajas de distribución que permitan actualizaciones más fáciles en el futuro.

CenturyLink amplía su oferta de conexiones a la nube

En América Latina, el mayor acceso a la nube se traduce en un mejor rendimiento, mayor control, agilidad, flexibilidad y escalabilidad para acceder a datos y funciones críticas de negocios on demand.

Es por ello que CenturyLink anunció que amplió su compatibilidad en la nube para ofrecer más opciones de conectividad en América Latina. Ahora, a través de las soluciones CenturyLink Cloud Connect, los clientes pueden conectarse a los principales proveedores de servicios en la nube, incluidos Amazon Web Services (AWS), Google, IBM Cloud, Microsoft Azure y Oracle.

“Estamos en una época de cambio constante en el mundo de los negocios y la capacidad para responder rápidamente a las demandas del mercado es crítica”, comenta Pablo Yañez, vicepresidente de conectividad, media y servicios IP de CenturyLink en América Latina. “Compañías de todo el mundo están utilizando la tecnología de nube para innovar a mayor velocidad, mejorar la experiencia del cliente, y profundizar la eficiencia en los procesos de negocios para acelerar el crecimiento del negocio digital”.

Ofrece rendimiento previsible y confiable, ayudando a las empresas a mantener el control de extremo a extremo del rendimiento de las aplicaciones a medida que migran a la nube pública, además entrega una seguridad simplificada, permitiendo elegir la conectividad privada, las aplicaciones que se migran a la nube son optimizadas en un perímetro de confianza.

De igual manera, ofrece un enfoque multi-nube para que las empresas pueden usar Cloud Connect con un número considerable de proveedores de servicios de nube (CSP). CenturyLink trabaja a la par con los CSPs en el desarrollo de opciones de conectividad.