Etiqueta: Centro de Datos definido por software

Ventajas del Data Center Definido por Software (SDDC)

El modelo de Data Center definido por Software (SDDC) surgió como una alternativa en diferentes áreas debido a la velocidad en la que el mercado de la TI corporativa ha avanzado, principalmente respecto a las redes, almacenamiento, incluso el propio centro de datos.

Dentro de los puntos que hicieron que el modelo fuera una necesidad real para las empresas destaca el factor de poder alcanzar altos niveles de eficiencia, agregando desempeño, seguridad y productividad, al ofrecerse como una solución de tecnología sobresaliente.

La prerrogativa de esa nueva tecnología se distingue de las antiguas arquitecturas basadas en hardware por las facilidades que logró traer, principalmente la de una administración más facilitada y automatización que alberga todas las aplicaciones de la organización. No se trata sólo de una tendencia. La inclusión al modelo es creciente. De acuerdo con Gartner, la tecnología será considerada en el año 2020, un requisito para 75% de las empresas en todo el mundo que están involucrados en procesos de implementación de DevOps y del modelo de Nube Híbrida. Muchas veces usado como sinónimo de virtualización, el modelo puede definirse con un conjunto de tecnologías de las cuales la virtualización es una de las caras.

A continuación, Comstor nos destaca estas 4 principales ventajas que otorga esta tecnología a su empresa:

 

1.- Virtualización: administración facilitada.

Con la tecnología de Data Center definido por Software toda su infraestructura es virtual y sus operaciones se entregan como si fueran un servicio, lo que propicia la sustentabilidad y la agilidad de los negocios. Eso debido a que el modelo aplica los principios de abstracción para ofrecer una estructura de Data Center enteramente en software, separando el proveer servicios de la infraestructura.

De esa forma, en el modelo SDDC, el control de todos los recursos, como CPU, memoria, almacenamiento y red de datos, así como requisitos de seguridad y disponibilidad, son administrados por un software basado en políticas, lo que hace el hardware SDDC independiente.

La virtualización trae, por lo tanto, más agilidad en las operaciones diarias, garantía de compatibilidad, integración completa y la posibilidad de invertir menos en infraestructura física, lo que se traduce en economía de espacio y energía.

2.- Automatización y flexibilidad.

Con el SSDC existe la posibilidad de aumentar el nivel de la automatización del ambiente y dar más flexibilidad a las elecciones y a la atención de la demanda de los negocios. La tecnología, cuando está basada en políticas definidas de automatización de rutinas, como provisión, localización, configuración y control, reduce significativamente parte de la mediación humana.

Con esa visión, la configuración y la administración de todos los servicios de Data Center se vuelven menos complejos. Otra consecuencia positiva es la reducción de tiempo necesario para colocar aplicaciones y servicios de TI en el mercado.

 

3.- Plataforma de Nube Híbrida.

En los últimos años, los proveedores trabajaron para crear ofertas de Nube Pública independientes desarrolladas con tecnología SDDC basadas en productos de virtualización.

Al integrar una Nube Privada en una nube pública desarrollada con SDDC, el Data Center se configura como una verdadera plataforma de Nube Híbrida con un alcance de ambientes dentro o fuera, además de un modelo compartido de administración, orquestación, networking y seguridad. Por consiguiente, una de las más grandes ventajas del Data Center definido por Software es que no hay necesidad de un hardware especializado.

4.- Seguridad.

Otro beneficio del SDDC que se descubrió de forma no intencional por parte de las empresas, es el factor seguridad. Lo anterior porque el SDDC puede verse como una herramienta por parte del equipo de TI, pues la micro segmentación del Data Center ayuda a que se limite la vulnerabilidad, ataques e invasiones.

 

Con información de Comstor.

La Transformación Digital como Driver de nuevas ideas

En todo el mundo se ha liberado la versión 9.5 de Veeam Availability Suite 9.5, la cual trae más de 200 nuevas funcionalidades además de tener compatibilidad con Hardware de la firma Nimble Storage, Jonathan Bourhis, Director General de Veeam México, señala que para el próximo año será especial para la firma al lanzar la versión 10 de la Suite y realizar una alianza con IBM.

“Tendremos para 2017 una alianza con los almacenamientos de IBM, esto hace mucho sentido para el SoftLayer, el vForum es uno de los eventos más importantes para Veeam en México”. Sobre el cambio de administración en los Estados Unidos, muchas empresas se inclinaron sobre un candidato, por el momento no han anunciado alguna estrategia para el cambio, Bourhis señala que “la volatilidad de la moneda quizá sea la principal preocupación, si las empresas van a iniciar su proceso de Transformación Digital o van a virtualizar, es el momento ideal para hacerlo, dado que, a principios del siguiente año, la moneda puede o no tener cambios muy fuertes”.

Entre diferentes cifras lanzadas por consultoras y especialistas, el ejecutivo señala que para 2020 se tendrán 20 millones de dispositivos conectados a internet, y hasta 50 millones lo que es verdad que está aumentando el uso de dispositivos, por ello surge la necesidad de tener una alta disponibilidad de servicios para que los dispositivos siempre estén conectados, además de herramientas de Business Intelligence (BI), es por ello que la Transformación Digital se ha convertido en un “driver” para la adopción de nuevas tecnologías, como la virtualización y la disponibilidad.

Finalmente, Bourdhis señaló en el vForum, “se espera que para 2020 las empresas que no evolucionen van a perder ese time to market que hoy en día podemos tener, si se quedan en el mundo tradicional, para lanzar una aplicación se pueden tardar desde 1 a 3 meses, y por el otro lado la competencia que esta sobre un riel digital, pueden lanzar una aplicación en algunos minutos, es por ello que perderán velocidad, innovación y mercado”.

Gerardo Esquivel, Computerworld México

 

Nube y virtualización para acelerar la Transformación Digital en México

Dentro del marco del vForum 2016, celebrado en la Ciudad de México, Rafael Solares, Country Manager de VMware México, señaló que la nube híbrida y la virtualización de los ambientes cambiará los negocios a corto tiempo. “Ante la cuarta revolución industrial, la evolución de la infraestructura “legacy” a un entorno virtual, será la mejor opción para las empresas para digitalizarse, tener movilidad, alta disponibilidad y reducir costos”.

La apuesta por la tecnología en las empresas se ha convertido en un pieza clave para ser más eficiente, generar ingresos y reducir costos de operación, al menos así lo señaló un reciente estudio de Acceture Strategy, el mercado tecnológico representa el 20% del PIB (Producto Interno Bruto) global, es por ello que las empresas al entrar en la Transformación Digital deben optimizar sus estrategias TIC además de buscar a los mejores talentos para la organización, el estudio señala que se podrían generar para 2020, 2 billones de dólares adicionales a la producción económica global.

La nube ofrecerá libertad y control, “la arquitectura de nube evita que se generen componentes aislados mediante la virtualización del centro de datos y la extensión de la nube híbrida, esto hará que las empresas pueden escalar, rápidamente a medida que adoptan nuevas formas de innovar y responder de manera instantánea a nuevas oportunidades de negocio”, aseveró Tomás Valles Gerente de Ingeniería de VMware México.

El uso de la nube en América Latina creció el 49% en el último año, según el estudio de nube de Cisco, y el 62% de las empresas de la región ya están usando algún tipo de cómputo en la nube, las expectativas que tiene México para este entorno, según la consultora IDC, es que la inversión en soluciones cloud está proyectada para 2016 en 364 millones de dólares teniendo un crecimiento del 29% anual.

El Centro de Catos Definido por Software (SDDC) es una infraestructura virtualizada y se proporciona como servicio, este modo de empleo se ha convertido en una tendencia de crecimiento, según Infoholic Research, se espera que este mercado alcance los 109 mil millones de dólares para 2022.

Finalmente, Norberto Ávila, especialista en gestión de nube de VMware, señaló, “el SDDC permite a las empresas innovar y elegir entre diferentes ofertas de nube, dado a que se trata de un entorno operacional que reúne la virtualización del procesamiento, el almacenamiento y las redes además de la administración, esto permite ejecutar, administrar, conectar y asegurar las aplicaciones en diferentes nubes y dispositivos”.

Gerardo Esquivel, Computerworld México

 

Agilidad, la clave en la evolución del Data Center: IDC [Video]

Para el 2020, IDC estima que el 60% de los datos en el universo digital serán creados en mercados emergentes, como el nuestro. Ante ello, la “agilidad” es un término que deberá estar relacionado con las actividades a cargo de los responsables de las áreas TI, aseveró Claudia Medina, Gerente de Investigación de Enterprise en IDC México, al término de su participación en el Data Center Executive Forum 2016.

 

El SDDC como protagonista de la Transformación Digital

La infraestructura que se va a implementar para actualizar una organización, muchas veces no tienen una planeación inteligente, una opción que muchas empresas en Latinoamérica toman ante esta situación, es la adopción de NSX de VMware.

La Transformación Digital en un tema amplio y donde muchas empresas la quieren abordar, hoy la información sobre de las tecnologías es más fácil de obtener, “lo difícil es cuando dos tecnologías diferentes deben interactuar, por ello las empresas deben tener imaginación, para implementar nuevas soluciones, en el Data Center, en la red, además de la seguridad y las aplicaciones”, Gustavo Santana, VMware Manager, NSX Systems Engineers para Latinoamérica.

En entrevista para Computerworld México, Santana remarcó que el principal reto de las empresas es que dentro de su infraestructura deben hacer que se comuniquen diferentes tecnologías, sin poner en riesgo la seguridad, por ello en la región se ha adoptado las soluciones de software que corra sobre ambas y con el objetivo de tener todo conectado.

photo_2016-06-28_16-04-29
Gustavo Santana, VMware Manager, NSX Systems Engineers para Latinoamérica.

Hay diferentes razones para que las empresas quieran modernizarse, por un lado, unas necesitan hacerlo dado a que su modelo de negocio se lo demanda, en optar por nueva tecnología, NSX de VMware es una opción que ofrece la firma para esas empresas que tienen su infraestructura y quieren modernizar ese apartado, los clientes jóvenes que han convivido desde temprana edad con la tecnología, optaran para hacer diferencia con el marcado.

En la actualidad hay 4 generaciones en el mundo laboral, donde se tienen diferentes visiones, pero ese conocimiento combinado puede dar mejores frutos en algún proyecto ya que se tiene por un lado la experiencia de unas personas y la innovación de los más jóvenes, afirmó Santana.

Durante su presentación destacó que NSX da la posibilidad de tener mayor seguridad al implementar los firewalls de capa cuatro en máquinas virtuales, todo esto se lleva a cabo para el centro de datos definido por software (SDDC), así los datos que pasan de un lado a otro están protegidos, con ello se ofrece seguridad a las organizaciones en un solo paso.

photo_2016-06-28_16-04-34

“Un ejecutivo debe enfrentar un mundo que cambia a cada segundo y necesitan implementar soluciones de software flexibles, aunque dependan del hardware, la evolución de una empresa puede ser mejor con una implementación de software que puede actualizar con menores recursos que el hardware, donde las empresas hacen esta actualización en un promedio de cambio de 5 años” destacó durante su presentación en el Gartner Summit, celebrado en la Ciudad de México.

 

Infraestructuras hiperconvergentes: ¿qué ofrecen para el centro de datos?

Gracias a la hiperconvergencia, se está poniendo fin a algunos de los tradicionales silos de los centros de datos. La infraestructura del centro de datos es, a menudo, compleja y costosa. Los sistemas hiperconvergentes están aportando una vía para ofrecer flexibilidad, escalabilidad además de tener facilidad de gestión de los sistemas on-premise. ¿Por qué?

La hiperconvergencia tiene su base en la adopción generalizada de la virtualización, y hasta cierto punto, se puede ver como un ejemplo, como parte de la evolución hacia una automatización mucho mayor de la operativa del centro de datos.

John Abott aporta una visión más amplia al explicar que “es una capa del centro de datos definida por software, en la que hay muchas más opciones por debajo de lo que aparenta su infraestructura, porque casi toda la inteligencia está integrada en el software. Su labor es desviar las cargas de trabajo a la infraestructura más adecuada”.

En pocas palabras, la hiperconvergencia es una aproximación a la infraestructura que combina las funciones de servidor, almacenamiento y red, que son administrados a través de una capa de software.

Infraestructura hiperconvergente: ¿qué significa?

La hiperconvergencia permite dar fin a silos de algunas partes de los centro de datos y, a diferencia de los sistemas de infraestructura convergente, depender de diferentes sistemas modulares de hardware básico. El almacenamiento definido por software es parte clave de esto, con appliances hiperconvergentes que utilizan almacenamiento local, en lugar de SAN dedicadas.

Además, también supone que los clientes tienen un único proveedor con el que tener que contactar si algo falla.

Como explica Jesse St Laurent, vicepresidente de estrategia de producto de SimpliVity, “el objetivo es simplificar la infraestructura de TI, cuya complejidad es muy elevada”. Y en paralelo con la simplificación de la infraestructura y las operaciones, ayudando a reducir costos.

“En un entorno tradicional hay entre diez o doce cosas diferentes que hay que gestionar”, entre dispositivos, paquetes de software, aplicaciones y cosas de este estilo, mientras que la infraestructura hiperconvergente se basa en una “es una única interfaz unificada que se integra en algo que una empresa ya utiliza (el toolkit de gestión del hipervisor) para gestionar todo el hardware.

Una de sus ventajas es se pueden añadir módulos hiperconvergentes individuales para ampliar los despliegues, con máquinas virtuales que están trabajando en 15 minutos, según algunos proveedores.

Éste es un segmento que está creciendo mucho y donde cada vez hay más proveedores. La consultora IDC estima que estos sistemas generarán unos ingresos de 2 000 millones de dólares este año, cifra que llegará a los 4 000 millones en 2019.

El primer proveedor en ofrecer este tipo de sistemas es Nutanix, y pronto se unieron SimpliVity y otras startups como Scale Computing, pero hay más proveedores entrando en este mercado, a menudo a través de acuerdos con estas jóvenes empresas.

Por ejemplo, VMware ha llegado a acuerdos con muchos proveedores de hardware para que trabajen con sus productos VSAN y EVO:RAIL, entre ellos con Fujitsu y Dell, mientras que HPE ha optado por ir sola con su sistema HC-250 StoreVirtual. Hitachi Data Systems tiene también un appliance centrado en Hadoop, y EMC dispone de VCE VxRack, VxRail y Scarle IO.

VCE, Cisco y HPE en los últimos meses han anunciado sus intenciones en este mercado, y Juniper y Lenovo también han llegado a un acuerdo al respecto.

Al  principio, los proyectos se han centrado en pequeñas y medianas empresas, con presupuestos más ajustados y equipos de TI más pequeños. No obstante, los fabricantes dicen que también están realizando inversiones las grandes empresas, para las que los costos y la necesidad de agilidad son más que un problema.

La adopción con frecuencia se produce en torno a la infraestructura de desktop virtual (VDI), aunque también son comunes en las áreas de recuperación ante desastres y de sucursales y oficinas.

Redacción PCWorld

 

ZTE lanza una solución cloud para datacenters basada en SDN

La nueva solución de la firma china, ZTE, uSmartDC es compatible con las funciones de red NFV y permitirá a los proveedores crear nubes privadas virtuales.

ZTE ha lanzado una nueva solución software para datacenters cloud basada en redes definidas por software (SDN). Con este servicio, ZTE hace su apuesta para posicionar el centro de datos virtual (VDC) como elemento claves para  futuras arquitecturas de red, carriers centrales y comtainers de servicios TIC y por lo tanto también como clave para la transformación de los principales operadores globales.

“La solución uSmartDC de ZTE puede ayudar a los operadores a desplegar arquitecturas de aplicaciones que son similares a Internet. También puede soportar y distribuir los datacenters activos para lograr modelos innovadores y arquitecturas que son similares a la puesta en marcha de la entrada de internet, y poner en marcha innovadores proyectos piloto para el ensayo de nuevos servicios “, comentó, vicepresidente de ZTE durante la presentación de la solución en el MWC.

La solución uSmartDC basada en SDN consiste es una estructura de red abierta donde el controlador SDN es el núcleo de la arquitectura de red SDN. Este controlador es compatible con diferentes tecnologías de red, con protocolos de interfaz southbound/northbound y conla programación dinámica con la que se pueden optimizar continuamente los recursos de la máquina virtual (VM) a través de los recursos empleados de monitorización. También proporciona un control unificado de interruptores OpenFlow y conmutadores no OpenFlow.

El uSmartDC permite a los operadores construir cloud privadas virtuales atribuidas. Este servicio es compatible con los operadores en el desarrollo de servicios basados en la función de red de virtualización (NFV) que pueden evolucionar para proporcionar servicios gubernamentales y servicios de red empresarial al mismo tiempo para lo último en la convergencia de las TIC “, explicó Zhu Jinyun, vicepresidente de ZTE.

OpenStack es la solución que está detrás del nuevo producto SDN de ZTE, lo que proporciona compatibilidad con nube pública y privada y también híbrida, lo que aportaría a los operadores una gestión más flexible y unificada. Además, detecta automáticamente el tipo de tecnologías que utiliza la empresa agilizando el proceso y acortando los tiempos de despliegue.

-Toñi Herrero Alcántara

 

IBM y VMware firman alianza para acelerar crecimiento de la nube híbrida

Ambas empresas anunciaron una alianza estratégica para ayudar a las empresas a aprovechar mejor la velocidad y la economía de la nube híbirda. El nuevo acuerdo permitirá a los clientes empresariales extender fácilmente su carga de trabajo a la nube, en las condiciones existentes, desde el centro de datos definido por software (SDDC) situado en sus propias instalaciones.

IBM y VMware han diseñado en conjunto una oferta de arquitectura y nube que permitirá a los clientes suministrar de forma automática entornos VMware SDDC preconfigurados, que incluyen VMware vSphere, NSX y Virtual SAN, en la nube de IBM.

Con este entorno SDDC, los clientes podrán implementar cargas de trabajo en este entorno de nube híbrida sin modificaciones debido a los modelos comunes de seguridad y redes basados en VMware, añadiendo las herramientas de administración vRealize y vCenter para implementar y administrar los entornos en la nube de IBM como si fueran parte del centro de datos local de un cliente.

IBM ofrecerá herramientas de CloudBuilder y sus capacidades de automatización de la carga de trabajo para aprovisionar automáticamente cargas de trabajo preconfiguradas o personalizadas a la nube.

Pat Gelsinger, CEO de VMware señaló “nuestros clientes podrán implementar de manera eficiente y segura sus probadas soluciones definidas por software con una avanzada automatización de la carga de trabajo para aprovechar la flexibilidad y economía de la IBM Cloud”. “Estamos llegando a un punto de inflexión para que la nube sea la plataforma donde se desarrollará la gran mayoría de los negocios”, dijo Robert LeBlanc, vicepresidente senior de IBM Cloud.

Cuando las nuevas ofertas estén disponibles, los clientes obtendrán beneficios adicionales que incluirán:

  • IBM y VMware proporcionarán los conocimientos, soluciones e infraestructura de nube para ayudar a los clientes a administrar y escalar los recursos de TI que se manejan en nubes públicas y privadas, utilizando las herramientas, los procesos y las API con las que los clientes ya están familiarizados.
  • Mediante la automatización avanzada de cargas de trabajo, los clientes tendrán la posibilidad de aprovisionarse rápidamente de nuevas cargas de trabajo, o escalar las existentes a la IBM Cloud.
  • Las empresas tendrán mayor alcance y escala para iniciarse más fácilmente a nivel local y escalar a nivel mundial con capacidades de nube y también cumplir con la residencia de datos y otros mandatos regulatorios.
  • Los clientes de VMware podrán utilizar un modelo flexible de precios basado en el consumo mensual que lo hace más rentable a los usuarios, al permitir una sencilla opción de “pago por lo que usa”.
  • La IBM Cloud será una plataforma de demostración en el ecosistema de proveedores de la nube VMware vCloud Air Network.

-Redacción

VMware presenta nueva generación de software hiperconvergente para el SDDC

VMware anunció la actualización de su software hiperconvergente empresarial con una nueva versión de VMware Virtual SAN. Como fundamento óptimo del centro de datos definido por software, los sistemas HCI son los sistemas convergentes o sistemas integrados de más rápido crecimiento, y se espera que produzcan un crecimiento en ingresos de unos 1,500 millones de dólares en 2016, según la consultora IDC. Al combinar la computación definida por software, las capacidades de almacenamiento y redes, con el hardware x86 disponible en existencia, los sistemas HCI ofrecen simplificación las operaciones de TI, así como aumento de eficiencia, y reducir gastos operativos y de capital relacionados con TI.

El software hiperconvergente de VMware, que incluye VMware vSphere, Virtual SAN y vCenter Server , transforma a los servidores x86 y al almacenamiento de conexión directa, en sistemas HCI sencillos y robustos que ayudan a las organizaciones a reducir los costos de TI y la complejidad de su administración, además de alcanzar un mayor rendimiento. Junto con su amplio ecosistema de socios, VMware ofrece su software hiperconvergente en el conjunto más amplio de opciones de consumo, desde dispositivos HCI seguros, desarrollados conjuntamente por VMware y EMC, hasta plataformas certificadas en forma de VMware Virtual SAN Ready Nodes y disponible para 11 fabricantes de equipos originales (OEMs).

 

 

VMware Virtual SAN 6.2 ofrecen aumentar la eficiencia del almacenamiento hasta 10 veces

VMware Virtual SAN 6.2, la cuarta generación del almacenamiento nativo de nivel empresarial de VMware para vSphere, introduce nuevas capacidades avanzadas de eficiencia de datos para el almacenamiento completamente flash, además de la nueva Calidad de Servicio y las posibilidades de controlar el rendimiento y la capacidad. Las nuevas características ayudarán a los clientes a lograr un rendimiento más rentable, un mejor apoyo para cualquier aplicación y a acelerar el tiempo de adquirir valor. Con sus nuevas capacidades de eficiencia de datos, VMware Virtual SAN 6.2 permitirá contar con un sistema HCl completamente flash por un precio de un dólar por GB que se utilice y aumentará la eficiencia de almacenamiento hasta 10 veces.

Las nuevas características incluye la deduplicación y compresión que optimizan la capacidad de almacenamiento completamente flash para proporcionar hasta 7x de reducción de datos con un impacto mínimo en los costos de CPU y memoria. También adiciona la codificación para el borrado (RAID 5 / RAID 6) que ayuda a aumentar hasta 2 veces la capacidad de almacenamiento que se puede utilizar, pero mantiene el mismo alto nivel de resistencia de los datos.

Esta nueva versión ofrece, además Calidad de Servicio (QoS) que proporcionarán una mayor visibilidad, control e información sobre las IOPS consumidas por cada máquina virtual, lo que ayuda a eliminar los vecinos ruidosos, así como mejor rendimiento, capacidad y vigilancia de la salud con una administración unificada que harán que los clientes puedan predecir con más facilidad los beneficios de los sistemas = HCI accionados ​​por VMware Virtual SAN.

VMware Virtual SAN está diseñado para ser la solución de almacenamiento óptima para las máquinas virtuales de VMware vSphere. El software habilita servicios de almacenamiento básicos para entornos de producción virtualizados, con mayor rendimiento, escalabilidad, flexibilidad, y menor latencia y costo. Con la característica de administración del almacenamiento basada en normas, VMware Virtual SAN cambia el modelo de gestión para el almacenamiento, desde el dispositivo hacia la aplicación, permitiendo así a los administradores aprovisionar almacenamiento para aplicaciones en cuestión de minutos. VMware Virtual SAN es ideal para una amplia gama de casos de uso, que incluye las aplicaciones cruciales para el negocio, la infraestructura de escritorio virtual (VDI), oficinas y sucursales remotas (ROBO), y entornos de prueba y desarrollo.

Simultáneamente con la introducción de VMware Virtual SAN 6.2, VMware está revelando extensiones a VMware Virtual SAN Nodes (configuraciones precertificadas de servidores) a través de sus socios OEM. Hasta la fecha, VMware se ha asociado con 11 servidores OEM para entregar más de 100 sistemas certificados para ejecutar el software hiperconvergente de VMware.

Las nuevas extensiones para el programa VMware Virtual SAN Ready Node proporcionarán a los socios OEM la opción de instalar en fábrica VMware vSphere y VMware Virtual SAN con controladores certificados y firmware para simplificar las operaciones del día uno y acelerar el tiempo de generación de valor para el cliente. Fujitsu, Hitachi Data Systems y Supermicro son los fabricantes OEM iniciales en ofrecer los nuevos VMware Ready Virtual SAN Nodes. Estos VMware Virtual SAN Ready Nodes ampliados pueden también venir acompañados de las licencias de software o pueden acomodar las licencias proporcionados por el cliente. Además, los socios OEM tienen la posibilidad de ofrecer apoyo unificado tanto para los componentes de hardware como de software.

Estas extensiones permitirán VMware y sus socios del ecosistema continuar ofreciendo a los clientes la más amplia selección de modelos de consumo y configuraciones del sistema. Con el tiempo, se introducirán por los socios ofertas adicionales Virtual SAN Ready Nodes. VMware prevé ampliar aún más las opciones de consumo para su software hiperconvergente a finales de este mes al asociarse estrechamente con EMC para desarrollar una familia de dispositivos hiper-convergentes de próxima generación que aprovecha la tecnología de EMC, VMware y VCE.

 

 

-Comunicado de Prensa.

Virtualización como guía y la descomposición de las redes en 2016

La virtualización será la guía de la evolución y cambio de las funciones de red, ampliando las capacidades de los balanceadores de carga tradicionales y distribuyéndose la potencia en computación.

Durante los últimos 10 años se han ido consolidando nuevas funciones de red en un appliance físico, sin embargo, hoy en día se está produciendo el efecto contrario, se está pasando de lo físico a lo virtual. Esta “descomposición de la red” hará que veamos cómo van migrando más funciones de vuelta a los elementos de donde partieron. Y la virtualización de las funciones de red producirá un cambio cada vez mayor en el diseño de las redes.

“La virtualización elimina los límites de la red y sus funciones pueden desplegarse allí donde tengan más sentido”, ha comentado  Eduardo García, director para la Región del Sur de Europa de KEMP Technologies. “Por ejemplo, desde que las funciones de red virtualizadas pueden localizarse más cerca del usuario final, la potencia en computación puede ser distribuida en torno al extremo de la red, lo que reduce la necesidad de que se tengan que enviar paquetes al centro de datos, algo crítico para una red de baja latencia”.

Además, García señala cómo las capacidades de los balanceadores de carga tradicionales se han ampliado para incluir Web Application Firewalls, IPS, cortafuegos, aceleradores SSL, compresión y almacenamiento en caché, dando lugar a lo que hoy conocemos como ADCs, controladoras de distribución de aplicaciones.

“Lo que tiene sentido en el mundo físico no tiene el mismo sentido en el mundo virtual”

Además “en el caso de los ADCs, podríamos colocar el firewall o los sistemas de prevención de intrusiones en el extremo, mientras que las capacidades de balanceo de carga se podrían colocar más cerca de la aplicación en el centro de datos. Esto evitaría que el tráfico “malo” atraviese con toda la red y termine sobrecargando el centro de datos”.

Además de la creciente descomposición de la red, KEMP también prevé otras tendencias emergentes de cara a 2016, entre ellas, la adopción empresarial de IoT. A pesar de esto es que aunque aún está lejos de ver como Internet de las Cosas dirigirá los objetos de nuestro hogar, las empresas ya estás adoptándolo para mejorar la recogida y análisis de información, como bases para la automatización y el control. El alcance de IoT llegará a entidades grandes y complejas, como las fábricas. Esta evolución supondrá no sólo un incremento en los volúmenes y fuentes de datos, sino que requerirá nuevas capas de seguridad y de distribución de aplicaciones. Estas capas adicionales se entregarán en un entorno virtualizado como microservicios dinámicos que pueden adaptarse ágilmente a los cambios en los patrones de uso que a menudo caracterizan los servicios IOT.

Otra tendencia la supondrán los Centros de Datos Definidos por Software (SDDC). La necesidad de que los servicios de TI puedan adaptarse rápidamente para soportar las dinámicas del negocio llevará a la adopción de sets de herramientas de orquestación y automatización que simplificarán las operaciones de TI. Un enfoque definido por software permite al departamento de TI reaccionar de forma más rápida, hacer un mejor uso de los recursos y tener una visión unificada de la distribución de aplicaciones desde la red a los componentes de las aplicaciones. La clave de este enfoque está en el uso de tecnologías emergentes de redes definidas por software y de la virtualización de las funciones de red, junto con tecnologías consolidadas de servidores y virtualización del almacenamiento. Disponer de un entorno que está virtualizado desde arriba (aplicación) hasta abajo (la red) es la clave para el centro de datos definido por software en 2016.

También surgen modelos de Seguridad Adaptativa. Gracias a la aparición de infraestructuras de entrega de aplicaciones más complejas y dinámicas, las herramientas tradicionales de seguridad diseñadas para identificar amenazas conocidas son insuficientes y veremos un enfoque de seguridad adaptativa. Este modelo podrá ver las políticas de seguridad y comportamientos horneados en el stack de entrega de aplicaciones, lo que impulsará un cambio fundamental en cómo se desarrollan y despliegan las aplicaciones. La capacidad de desplegar y orquestar las funciones de seguridad como microservicios permite la aplicación de políticas de seguridad en múltiples puntos, en lugar de hacerlo en el extremo de la red, como se hace habitualmente.

Y por último, no hay que olvidar el uso de APIs para acelerar el desarrollo y despliegue. El modelo DevOps para el desarrollo y entrega de software impulsará el uso de herramientas y microservicios de terceros que acelerarán el proceso. La clave para la utilización de estos microservicios está en el uso generalizado de las APIs que no sólo proporcionan la funcionalidad de la aplicación, sino que también permitirán la gestión y administraaaación. En el modelo DevOps es fundamental poder proporcionar, monitorear y controlar a través de APIs, ya que es la automatización lo que permite la entrega continuada y asegura la consistencia. Con APIs impulsando microservicios que proporcionan funciones de red y de seguridad, los entornos DevOps podrán adoptar un enfoque tipo Lego para crear y desplegar servicios en 2016.

-NetworkWorld