Etiqueta: escala

Comienzan a llegar las redes inteligentes

Ciena presentó hoy WaveLogic Ai, el primer módem coherente completamente, este nuevo producto ofrece máximo desempeño de red a un costo mínimo.

Con la inteligencia que tiene el dispositivo además de la capacidad de escalamiento y automatización, WaveLogic Ai es la tecnología que ofrece la base para habilitar una red auto dirigida, esencial en la era del Internet de las cosas (IoT), del aprendizaje automático, así como de los exigentes servicios bajo demanda.

En particular, para aplicaciones metro y DCI (Interconexión de Centros de Datos), mejora de manera contundente los niveles de potencia y densidad en la transmisión de 400G de un solo operador. En redes regionales y de larga distancia, WaveLogic Ai establece los 200G y 300G como las nuevas referencias de velocidad para la transmisión de línea en la red dorsal, con lo cual duplica la capacidad y reduce considerablemente el costo por bit. Además, en redes submarinas, proporciona la máxima capacidad logrando distancias de hasta 14 mil kilómetros.

Mediante interfaces abiertas, monitorea y recaba datos críticos de la red, incluyendo mediciones en tiempo real de los enlaces, para tomar decisiones inteligentes sobre la capacidad a emplear en cada momento. Por ejemplo, WaveLogic Ai ayuda a determinar cuál es la capacidad óptima para cualquier trayectoria en la red y puede sintonizarse a diferentes niveles de capacidad, desde 100G a 400G en incrementos de 50G.

A continuación, la firma comparte algunos puntos destacados de la alta velocidad:

  • Escalabilidad masiva: WaveLogic Ai utiliza un avanzado motor tecnológico, optimizado a 400G con mayor velocidad de transmisión de símbolos, para lograr el doble de capacidad por canal, tres veces la distancia a una capacidad equivalente y cuatro veces la densidad de servicio a menos de la mitad de energía. Esta escalabilidad soporta 400GE y servicios de cliente flexibles para igualar al máximo la capacidad total de servicio con la capacidad flexible de línea.
  • Automatización e inteligencia abiertas: WaveLogic Ai ha sido diseñado para calcular y poner a disposición una gran cantidad de datos de desempeño de la red óptica a través de interfaces abiertas que pueden aprovecharse para construir redes programables bajo demanda.
  • Extensa capacidad de sintonización: Para alinear de una mejor forma la capacidad con el margen del sistema, WaveLogic Ai ofrece una capacidad de sintonización sin precedentes mediante interfaces de software abiertas que sirven para la toma de decisiones automáticas e inteligentes y así reducir el gasto operativo y evitar errores manuales.
  • Eficiencias de red previamente inalcanzables: WaveLogic Ai brinda acceso a información de monitoreo de los enlaces en tiempo real, con lo cual se le otorga al operador nuevos niveles de visibilidad de la red y la capacidad para ajustarla con precisión obteniendo la capacidad óptima y la máxima eficiencia.

Finalmente la firma señala que WaveLogic Ai estará disponible en el segundo trimestre del 2017.

Pure Storage presenta equipo de almacenamiento flash para la nube

Pure Storage, presentó el almacenamiento a escala de petabyte, respaldado por el lanzamiento de la nueva generación de FlashArray//m, el cual ofrece el mejor desempeño con la simplicidad y agilidad que caracterizan a una nube pública o privada.

Este lanzamiento de la firma, es un almacenamiento construido con la intención de ser fácil, eficiente y permanecer siempre vigente, así como ser capaz de ofrecer simplicidad, automatización, resiliencia, con un modelo de negocio amigable e incluyendo todos elementos esenciales para el cómputo en la nube.

“El almacenamiento es la base de todo lo que hacemos en la economía digital, cada vez más apoyada en el centro de cómputo en la nube”, aseguró Matt Kixmoeller, Vicepresidente de producto en Pure Storage. “Sin importar que se trate de nube pública, privada, SaaS o una mezcla de las tres. El almacenamiento 100% flash eficiente, ahora a escala de petabyte, es la base flexible para las nubes de hoy y del futuro”.

La nueva actualización del FlashArray//m, escala hasta los 512 terabytes de almacenamiento en crudo, lo que se traduce en aproximadamente 1.5 petabytes de capacidad efectiva. Esta escala y densidad permiten a los clientes reducir varios racks del almacenamiento usando tecnología de disco mecánicos a siete unidades o menos.

El nuevo FlashArray//m sin ventana de mantenimiento y migración de datos, ofrece cuatro opciones de controladoras para cumplir las necesidades de desempeño y capacidad:

El //m10 (presentada este mismo año). Proporciona hasta 25 TBs de capacidad efectiva (de 5 a 10 TBs de almacenamiento en crudo) y hasta 100,000 IOPS de 32K.

Para el //m20. Provee hasta 250 TBs de capacidad efectiva (de 5 a 80 TBs de almacenamiento en crudo) y hasta 200,000 IOPs de 32K.

Además //m50. Brinda hasta 500 TBs de capacidad efectiva (de 20 a 176 TBs de almacenamiento en crudo) y hasta 270,000 IOPS de 32K.

Y finalmente, //m70. Ofrece hasta 1.5 petabytes de capacidad efectiva (de 42 a 512 TBs de almacenamiento crudo) y hasta 370,000 IOPS de 32K.

A través de estas opciones de nuevas controladoras, FlashArray//m proporciona un aumento de 20% a 30% en desempeño y un incremento de entre 100% y 276% en capacidad comparado con generaciones anteriores. El escalamiento de objetos ha aumentado 10 veces, mejoró la escalabilidad total del sistema y permite realizar copias de seguridad a gran escala con hasta 50,000 snapshots eficientes en espacio.

Redacción

Cómo funciona el cómputo en nube y sus aplicaciones

Comstor ha publicado un reporte de cómo funciona la estructura de la Computación en Nube y sus aplicaciones en el entorno corporativo. La firma, define Cloud Computing como una tecnología que virtualiza recursos y equipos, es decir, aplicaciones archivos, software y otros datos que no tienen más que estar instalados o almacenados en la computadora del usuario.

La Nube puede diferenciarse en diferentes tipos, de los cuales destacan:

Nube Pública: Este servicio es proporcionado a usuarios comunes o empresas a través de Internet; está más dirigida al público común que al público corporativo. La Nube, posee un alto rendimiento, acceso directo, bajo costo y escalabilidad, pero presenta un incremento de riesgo en privacidad ya que el usuario se puede enfrentar a eventuales problemas de seguridad debido a su carácter público.

Cifras de la consultora Gartner, señalan que el mercado mundial de servicios de Nube pública debe crecer 16.5% en 2016, para alcanzar un monto de USD 204 mil millones.

Nube Privada: Ofrece todas las funciones básicas de la tecnología exclusivamente a una empresa o grupo específico. Integra todos los departamentos y áreas por medio del modelo de Cloud Computing, además de posibilitar el almacenamiento y acceso a datos corporativos con seguridad, tiene un costo de despliegue mayor que una Nube interna, lo que pude ser un obstáculo para las PyME.

Nube Híbrida: Consiste en mantener algunos sistemas en la Nube privada y otros en la Nube pública, simultáneamente. Es el modelo más utilizado en el mercado corporativo ya que posee un alto rendimiento, acceso directo, bajo costo, escalabilidad, seguridad y un control total.

La Nube Híbrida cubre la demanda de escalabilidad, por ejemplo, cuando una empresa necesita la capacidad adicional de un servidor por un corto periodo de mucho movimiento.

La clasificación del Tipo de Servicio se divide en 3:

Infraestructura como Servicio (IaaS): Que representa la contratación de servidores virtuales, el volumen del tráfico de datos, los datos almacenados y otros rubros. Su costo se basa en la cantidad de servidores virtuales, el volumen de tráfico de datos, los datos almacenados y otros rubros.

Plataforma como Servicio (PaaS): Este modelo es útil porque elimina la necesidad de adquirir hardware y licencias de software, y utiliza la misma estructura como servicio.

Software como Servicio (SaaS): Se trata de un modelo en el cuál la adquisición y/o utilización de un software no está vinculada a la compra de licencias. Permite controlar lo que la empresa necesita, pues sólo se paga lo que se usa.

Finalmente, si desea obtener respuestas a por qué implementar Cloud Computing, y conocer el primer paso para el planteamiento de una estrategia de Nube podría considerar la reducción de costos, la entrega de resultados rápidos, garantía de seguridad y conformidad de datos, mejor utilización de los recursos, suministro de un servicio on-demand (bajo demanda) y la optimización de la gestión de la política de seguridad.

Redacción

Juniper anuncia nuevos switches de acceso pensados para la nube

Juniper Networks ha realizado el anuncio de nuevos switches de acceso orientados a la nube, tanto en la gama baja como en la media. Vienen con Junos Fusion Enterprise para garantizar una gestión simplificada y escalabilidad.

Juniper ha introducido nuevos productos especialmente pensados para la nube. La arquitectura Unite del fabricante está a la altura de su nombre y permite añadir más equipos de red de la empresa, con una gestión simplificada y capacidad para escalar. Sus últimos modelos son switches de nivel de entrada y gama media, que añaden nuevas características para facilitar su uso.

La gama Unite, introducida por el proveedor el año pasado, con los conmutadores de núcleo EX9200 y otros componentes de terceros, está diseñada para ayudar a las empresas a trasladar su propia infraestructura a nubes privadas y vincularla a nubes públicas, en una típica arquitectura híbrida. Se construye alrededor del software Junos Fusion Enterprise, que incorpora múltiples capas de red en una sola para una administración más sencilla. Esto ofrece a los administradores un único punto de gestión.

Ahora, la firma presenta dos conmutadores de acceso de nivel de entrada, construidos para funcionar con Unite: el EX2300 de 24 puertos y el EX2300-C de 12 puertos, una versión compacta y sin ventilador que está diseñada para entornos abiertos o más tranquilos. Ambos tienen puertos Gigabit Ethernet para la conexión a los dispositivos cliente.

Para las empresas de tamaño medio, ha presentado el modelo EX3400, con 24 o 48 puertos Gigabit Ethernet. El EX3400 tiene fuentes de alimentación y ventiladores redundantes y sus puertos de 1 Gbps y 10 Gbps tienen cifrado de hardware.

Los nuevos modelos tienen configuraciones fijas, pero se pueden combinar de forma lógica, en configuraciones de chasis virtual y gestionado. En concreto, se pueden unir hasta cuatro EX2300 o EX2300-C y los EX3400s pueden vincularse en un chasis virtual de 10 switches.

La firma señala que llegarán al mercado en los próximos meses.

NetworkWorld

 

Cinco pasos para implementar SDN con éxito

Las redes definidas por software o SDN, son una opción en crecimiento por su arquitectura innovadora. Sin embargo, para alcanzar los resultados que esta tecnología promete, es necesario llevar a cabo una implementación rigurosa. A continuación le compartimos 5 tips de los expertos.

SDN (Software Defined Networking) promete una mayor agilidad, seguridad y automatización de la arquitectura de red, a la vez que ahorra tiempo y dinero. Pero la perspectiva de su adopción puede ser desalentadora porque todavía es relativamente nueva y existen pocos ejemplos que lleven el suficiente tiempo operando para ilustrar las mejores prácticas para su implementación. Estos son los cinco pasos para implementar SDN con éxito sin alterar su entorno TI.

Definición de un caso de uso

Las redes definidas por software tienen la capacidad de resolver muchos problemas pero intentar solucionarlos todos no es un buen enfoque. Es de vital importancia identificar un caso de uso limitado a un problema, por ejemplo, la automatización de la red, la seguridad o la agilidad. Lo importante es definir y comenzar por solo uno de ellos, y no todos a la vez.

Un caso de uso individual, con objetivos tangibles, ofrece resultados más fiables y medibles que al implementar SDN en toda la red.

Reunir un equipo multifuncional

El SDN es una tecnología de ruptura. Implementarla correctamente requiere un equipo con una amplia gama de habilidades y un enfoque integral. Lo ideal es que el equipo fomente la eficiencia y la colaboración, puntos críticos para maximizar los beneficios.

Un ejemplo muy claro es si hay un fallo de seguridad en la red, se necesitan personas que establezcan las políticas de seguridad, el equipo de ingeniería de red y los encargados de su gestión. Igual de importante, sin embargo, es que trabajen juntos porque la cooperación es crucial.

No se trata de eliminar puestos de trabajo, si no de aumentar la eficiencia. De esta manera, el personal de TI pierde menos tiempo en gastos operativos y puede dedicar más a la ingeniería, lo que permitirá a su infraestructura satisfacer mejor las necesidades de su misión.

Realice pruebas en un área de la red menos crítica

Para realizar las pruebas, se recomienda encontrar un área de la red menos crítica, donde se puede trabajar sin intervenir en todo su conjunto, es esencial. Esta aplicación a pequeña escala le permite probar un caso de uso de forma segura, sin que el resto de su equipo e infraestructura cometa riesgos indebidos.

Revisar los resultados de las pruebas

Después de trabajar con esta tecnología durante algún tiempo, se tienen suficientes datos como para medir los resultados. A pesar de obviar esta información, muchas organizaciones no hacen este tipo de revisiones. Sin comprobar a fondo la eficacia del proyecto, no se puede responder a tres preguntas importantes: ¿se soluciona el problema actual?, ¿es una buena inversión expandir SDN en toda la red?, ¿hay infraestructura suficiente para mantener las redes definidas por software en toda la organización?

Mejor la experiencia antes de realizar una implantación a gran escala

Incluso si la prueba supera las expectativas, hay un paso prioritario antes de la expansión al otro lado de red. Es muy importante aumentar progresivamente la huella del proyecto y adquirir madurez antes del despliegue. Si la implementación tuvo un alcance limitado y se realizó en una parte poco usada de la red, el resto de la misma podría no estar preparada.

¿Se pueden configurar los equipos multifuncionales necesarios para el éxito a gran escala?, ¿cómo va a afectar al rendimiento SDN entre las zonas más transitadas de la red?, ¿hay otros retos fundamentales que esta tecnología pudiera resolver?. Ésta es una tecnología de gran alcance con una gran cantidad de beneficios, pero debe ser implementada correctamente para obtener los resultados deseados. De lo contrario, no sólo están en riesgo la seguridad y el rendimiento de la red, sino también la capacidad de implementar la tecnología por completo.

Redacción

 

HPE se dirige al mercado de proveedores de servicios en infraestructura abierta

Dado el anuncio por la compañía, la convierte en el único proveedor de primer nivel que ofrece un portfolio completo de infraestructura abierta con soluciones de computación, productos para redes y, ahora, servidores de almacenamiento.

Hewlett Packard Enterprise (HPE) ha presentado hoy un nuevo servidor para almacenamiento abierto y optimizado para red, lo que convierte a la compañía en el único proveedor de primer nivel que ofrece un portafolio completo de infraestructura abierta con soluciones de computación, ofreciendo productos para redes y servidores de almacenamiento. El anuncio también incluye mejoras en los servidores HPE Cloudline y en los switches de red HPE Altoline para los proveedores de servicios.

Según 451 Research, el hosting tradicional y la infraestructura como servicio (IaaS) crecerán desde un mercado de $60 000 millones en 2015 a un mercado de $70 000 millones en 2016, y se estima que puede duplicar su tamaño en 2019. Las organizaciones están trasladando sus cargas de trabajo desde productos tradicionales de infraestructura compartidos, virtualizados y dedicados a entornos de infraestructuras y aplicaciones cada vez más especializados, incluyendo el IaaS y el Software como Servicio. A su vez, la puesta en marcha de servicios gestionados y de soluciones tecnológicas por parte de los proveedores de servicios, también incluye OpenStack, se ven como diferentes puntos en potencia.

El deseo de lograr un rápido crecimiento y la necesidad de agilidad está animando a los proveedores de servicios a explorar las infraestructuras abiertas como una opción para el desarrollo y la gestión de centros de datos en la nube. Estas nuevas tecnologías, basadas en estándares abiertos, proporcionan una economía de escala a los centros de datos, ya que permiten a los proveedores de servicios reducir sus costes de explotación, mejorar la eficiencia y adaptarse rápidamente a las cambiantes demandas empresariales.

Reaz Rasul, vicepresidente y director general de Global Hyperscale Business en HPE señala que “los proveedores de servicios buscan, con la instalación de infraestructuras abiertas, una agilidad operativa y una más rápida integración del centro de datos, mientras que otros valoran la gestión integrada y rapidez de despliegue que ofrecen los productos estándar del sector “, además agregó que “HPE es el único proveedor que proporciona soluciones estándar o de infraestructura abierta para acelerar el crecimiento empresarial y con ello ofrecer a los proveedores de servicios la flexibilidad que precisan para crecer con rapidez y de forma rentable”.

Informática para almacenamiento de gran cantidad de datos en la nube

Con el impresionante crecimiento de los datos, los proveedores de servicios necesitan incrementar la capacidad de almacenamiento, manteniendo al mismo tiempo la menor huella posible con sus centros de datos. HPE Cloudline CL5200 es un servidor de almacenamiento multinodo y de alta densidad para los proveedores de servicios que desean contar con almacenamiento de alta densidad y una buena relación precio por almacenamiento, para utilizar almacenamiento en la nube y aplicaciones para análisis de datos. Basado en los principios de diseño abierto, con el objetivo de incrementar la adaptabilidad y facilitar la integración de las TI, HPE Cloudline CL5200 se ajusta fácilmente a entornos abiertos y multi-fabricante.

HPE Cloudline CL5200 cuenta con un diseño minimalista y sencillo y soporta uno o dos nodos de cálculo para adaptarse a diferentes necesidades. El servidor soporta hasta para 80 unidades de disco duro, que ofrecen hasta 640 TB de almacenamiento en un único chasis 4U.

Redacción

El Big Data logra su primer estándar oficial en el ITU

La Unión Internacional de Telecomunicaciones (ITU) de las Naciones Unidas ha trabajado mucho tiempo en promover la cooperación en múltiples áreas técnicas, y recientemente ha anunciado el primer estándar para Big Data.

El nuevo estándar internacional detalla los requerimientos, capacidades y usos del Big Data basado en la nube, intentando asegurar que sus beneficios puedan ser logrados a escala global. También define cómo los sistemas de cloud computing pueden utilizarse para proveer servicios de Big Data.

“Este nuevo estándar ITU ofrece bases acordadas internacionalmente del Big Data basado en la nube”, ha comentado Chaesub Lee, director del International Telecommunication Union’s Telecommunication Standardization Bureau. “Creará unidad en la terminología utilizada para describir el big data basado en la nube y ofrece una base común para el desarrollo de los servicios Big Data y los estándares que lo soportan a nivel técnico”.

En el nuevo informe del ITU se definen recomendaciones y requerimientos para la recopilación, visualización, análisis y almacenamiento de datos, entre otras áreas, además de consideraciones de seguridad. Lo que no está completamente claro, sin embargo, es si las especificaciones añaden algo a lo que ya estaba establecido por los suministradores.

“Somos escépticos en el tema de los estándares internacionales en el área de datos”, ha comentado Alan Duncan, de Gartner. “No hemos visto que ninguno de ellos haya tenido mucho éxito”.

Lo que pasa con frecuencia es que antes de que exista un estándar oficial el mercado suele empujar a los proveedores a establecer una interoperabilidad por sí mismos, indica Duncan.

“La lógica para establecer estándares es hacer que las cosas sean interoperables, pero en Big Data esto ya ocurría a nivel práctico, impulsado por la necesidad de venta de soluciones que pudieran trabajar juntas”, ha explicado.

Proveedores como Tableau, Teradata y Alteryx, por mencionar algunos ejemplos, ya han establecido conexiones entre sus plataformas, puntualiza Duncan. Así que, aunque el estándar ITU pueda ser “excelente teoría”, ha dicho, en términos prácticos “llega demasiado tarde”.

-Katherine Noyes, IDG News Service