Etiqueta: Docker

Cuáles son las aportaciones de Linux a la infraestructura y redes de centros de datos

El sistema operativo de código abierto Linux, fue lanzado en 1991 para computadoras, pero su uso se ha expandido para sostener sistemas para automóviles, teléfonos, servidores web y, más recientemente, equipos de redes.

Su longevidad, madurez y seguridad lo convierten en uno de los sistemas operativos más fiables disponibles en la actualidad, lo que significa que es ideal para dispositivos de red comerciales, así como para empresas que quieran utilizarlo para personalizar su propia infraestructura de redes y centros de datos.

Esto a su vez hace que las habilidades de Linux sean muy buscadas por los gerentes de TI. Muchas de las nuevas tecnologías asociadas con DevOps, por ejemplo, contenedores, infraestructura OpenSource y controladores SDN están basadas en Linux.

Entonces, ¿qué es Linux?

Linux, un sistema operativo similar al Unix, se distribuye bajo licencias de código abierto, lo que significa que las siguientes reglas se aplican que lo hacen atractivo para las empresas:

Sistema operativo Linux es de libre ejecución.

Los administradores pueden estudiar el sistema operativo y personalizarlo para fines específicos.

Privilegios de redistribución ilimitados de las versiones originales o modificadas del sistema operativo.

El sistema operativo Linux se compone de:

Núcleo: envía instrucciones a la CPU, periféricos y memoria.

Bootloader: los procesos que gestionan el arranque del sistema. En un equipo de cómputo el usuario reconocería esto por la pantalla de bienvenida que estaba arriba. En un dispositivo de red hay un estado que indica el proceso de arranque.

Daemons: servicios en segundo plano que comienzan en el momento del arranque o después de que el sistema está completamente activo.

Shell: es la línea de comandos de Linux. Puede ser intimidante para las personas que están acostumbradas a trabajar en entornos gráficos, pero la mayoría de los profesionales de la red están acostumbrados a operar en un shell.

Además de la shell, los servidores Linux también tienen un entorno de escritorio gráfico y aplicaciones que se ejecutan en la parte superior de la misma. Hay algunas aplicaciones de red para Linux, como análisis de tráfico, seguridad y administración de redes, que también tienen interfaces gráficas, pero son mucho menos en número que las de servidores y escritorios.

Fundación para el engranaje comercial

En realidad, las interfaces de línea de comandos (CLI) que la mayoría de los administradores de red utilizan hoy para configurar enrutadores y conmutadores de su proveedor de red favorito son versiones altamente personalizadas de Linux con interfaces específicas de proveedores que se ejecutan encima de ellas. El desafío con esto es que las habilidades necesarias para trabajar con ellos no son muy portátiles de vendedor a vendedor. Un ingeniero muy competente que trabaja con Cisco IOS probablemente no podría trabajar con Junos de Juniper porque cada uno incluye su propia capa de abstracción diferente que se encuentra encima del código puro de Linux.

Linux en sí, en lugar de trabajar a través de una capa de abstracción, proporciona acceso directo a las tablas de enrutamiento y reenvío, sistemas de notificación, información de telemetría e interfaces diferentes. Eso puede hacer que Linux sea más flexible, y con el apoyo de la gran comunidad de Linux, potencialmente más rápido para responder a la necesidad de nuevos servicios que un proveedor comercial podría ser.

Linux tiene un excelente ecosistema con API maduras, así como una pila de red ágil optimizada para el centro de datos modernizado. Por ejemplo, Linux está diseñado con un control separado y aviones de reenvío de datos que facilitan la caída en arquitecturas de redes definidas por software, porque la separación de esos planos es la base de SDN.

Otro elemento que los productos basados ​​en Linux pueden aportar a la red es que los conmutadores pueden administrarse con herramientas de automatización y orquestación de código abierto, basadas en políticas, como Ansible, Puppet y Chef. Hay aproximadamente 25 de estas herramientas disponibles con soporte para diferentes sabores de Unix pero todos ellos también soportan Linux.

Productos basados ​​en Linux

Durante la última década ha habido una explosión en el número de productos basados ​​en Linux que han tenido un gran impacto en el espacio de TI, incluyendo:

Kubernetes: administrador de clúster de contenedores de Google

OpenStack: plataforma de software para infraestructuras como plataformas de servicios cloud

Open Daylight: el proyecto basado en Java de la Fundación Linux para acelerar la adopción de SDNs y Network Functions Virtualization (NFV)

Docker: programa de contenedores de software

Open vSwitch (OVS): Interruptor virtual multicapa distribuido para proporcionar una pila de conmutación dentro de entornos de virtualización. OVS en particular es interesante porque ofrece un conjunto más rico de características de red que las capacidades básicas del kernel de Linux.

La creación de redes ha tardado en abrazar Linux, pero cuanto más dependen de la red, más se unen los dominios de red y de servidor. Para los ingenieros de red, el poder acceder al shell nativo de Linux les permite utilizar herramientas y software que solo estaban disponibles sólo para servidores. Esto hace que sea mucho más fácil organizar servicios de red con cambios en servidores y aplicaciones. Además, la naturaleza abierta de Linux ha creado una comunidad masiva que está activamente involucrada en encontrar nuevas maneras de usarlo. Los contenedores han evolucionado en gran medida a través de la participación de la comunidad.

Zeus Kerravala, Network World

Microsoft publica el primer Release Candidate de SQL Server 2017

Microsoft señala que a partir de hoy esta disponible para descarga. Esto significa que el trabajo de desarrollo para la nueva versión de SQL Server ha sido completado para estar disponible para la industria de SQL Server a Windows, Linux, y contenedores Docker.

En lo que destaca esta versión 2017 es:

Soporte Linux para cargas de trabajo de misión crítica tier 1. El soporte de SQL Server 2017 para Linux incluye las mismas soluciones de alta disponibilidad tanto en Linux como en Windows Server, e incluye disponibilidad Always On en grupos, integrada con soluciones nativas de aglomeración en Linux, como Pacemaker.

Procesamiento de datos gráficos en SQL Server. Con las características de datos gráficos disponibles en SQL Server 2017 y Azure SQL Database, los clientes pueden crear nodos y bordes, y descubrir relaciones complejas many-to-many.

Procesamiento adaptable de solicitudes. El procesamiento adaptable de solicitudes es una familia de características en SQL Server 2017 que mantiene corriendo, de manera automática, las solicitudes de bases de datos de una manera tan eficiente como sea posible, sin tener que requerir afinación adicional por parte de los administradores de la base de datos. Adicional a la capacidad de ajustar el modo lote de asignación, el conjunto de características incluye uniones adaptables de modo de lote y capacidades de ejecución intercalada.

Integración de Python para analítica avanzada. Microsoft Machine Learning Services ahora trae para ustedes la posibilidad de correr analítica dentro de las bases de datos a través de Python o R en una manera paralelizada y escalable. La posibilidad de correr analítica avanzada en su tienda operacional sin ETL, significa un tiempo más rápido para obtener información de valor para clientes con una implementación sencilla y una rica extensibilidad, que aceleran arrancar sobre el modelo correcto.

Mejoras en Release Candidate 1

  • Integración SQL Server sobre Linux Active Directory. Para RC1, SQL Server en Linux soporta Active Directory Authentication, que habilita a los clientes unidos al dominio ya sea en Windows o Linux para autentificar en SQL Server a través del uso de credenciales de dominio y el protocolo Kerberos.
  • Transport Layer Security (TLS) para encriptar datos. SQL Server sobre Linux puede utilizar TLS para encriptar datos que son transmitidos a través de una red entre una aplicación de cliente y una instancia de SQL Server. SQL Server sobre Linux soporta los siguientes protocolos TLS: TLS 1.2, 1.1, y 1.0.
  • Mejoras a Machine Learning Services. En RC1 tiene más capacidades de manejo de modelo para R Services sobre Windows Server, incluyendo External Library Managenment. El nuevo lanzamiento también Native Scoring.
  • SQL Server Analysis Services (SSAS). En adición a las mejoras a SSAS de CTP previos de SQL Server 2017, RC1 agrega Dynamic Management Views adicionales, lo que permite análisis y reporteo de dependencia. Vean el blog de Analysis Services para más información.
  • SQL Server Integration Services (SSIS) sobre Linux. La versión previa de SQL Server Integration Services en Linux ahora agrega soporte para cualquier driver Unicode ODBC, si sigue las especificaciones ODBC. (El driver ANSI ODBC no está soportado).
  • SQL Server Integration Services (SSIS) sobre Windows Server. El RC1 agrega soporte para escalar SSIS en ambientes con alta disponibilidad. Los clientes ahora pueden habilitar Always On para SSIS, a través de la configuración de conglomeración de tolerancia de fallos de Windows Server para el escalamiento principal.

N. de P. Microsoft

Red Hat apoya desarrollo de aplicaciones móviles a través de contenedores

Red Hat, realizó el lanzamiento de Mobile Application Platform, diseñada para funcionar en cualquier nube pública, privada o infraestructura local compatible con Red Hat Enterprise Linux. Junto con la actual plataforma de aplicaciones móviles basada en SaaS de Red Hat, las empresas ahora cuentan con un espectro mayor de opciones de implementación para integrar, gestionar y ampliar sus iniciativas de aplicaciones móviles a fin de alcanzar sus objetivos empresariales.

Red Hat OpenShift Container Platform, está basada en contenedores con formato Docker y en Kubernetes, forma parte de la estrategia de la empresa para el desarrollo de aplicaciones modernas que sea nativa de la nube, esté centrada en los dispositivos móviles, se basa en microservicios y sea impulsada por la API. Esta nueva generación de herramientas de desarrollo de aplicaciones también admite DevOps y los procesos ágiles para ayudar a las organizaciones a innovar y responder a las necesidades en constante evolución de la empresa digital.

La implementación de Red Hat Mobile Application Platform sobre OpenShift ofrece una plataforma común para soportar cargas móviles que se ejecutan a la par de las aplicaciones empresariales tradicionales que necesitan ser trasladadas a la nube.

Fiel a su compromiso con el código abierto, Red Hat también anunció la disponibilidad de los módulos de gestión de la fuerza de trabajo (WFM) como una vista técnica preliminar, que tienen sus raíces en el proyecto comunitario de código abierto FeedHenry RainCatcher. Estos módulos basados en JavaScript y Node.js pueden ayudar a acelerar la creación de soluciones para la gestión de la fuerza de trabajo móvil personalizadas que automatizan, optimizan y simplifican los procesos de la fuerza de trabajo en los servicios de campo.

Finalmente, Cathal McGloin, vicepresidente, Plataformas Móviles, Red Hat señaló, “la búsqueda de la transformación digital está dando paso a una nueva empresa móvil en la cual el desarrollo de aplicaciones está cada vez más definido por arquitecturas, procesos y plataformas emergentes que pueden brindar una mayor agilidad empresarial. Red Hat ofrece a las organizaciones un poderoso paquete de soluciones basadas en estas modernas tecnologías para que puedan desarrollar, integrar, implementar y gestionar aplicaciones móviles a la par de cargas de trabajo tradicionales ejecutadas en este entorno de contenedores portátiles independiente de la nube.”

Redacción

 

HPE apuesta por un enfoque integrado e intuitivo de la Seguridad

Hewlett Packard Enterprise (HPE), presentó nuevas soluciones diseñadas para simplificar el enfoque de las operaciones inteligentes de seguridad, DevOps y protección de los datos.

En el marco del HPE Protect, la compañía, presento nuevos productos sobre análisis de seguridad, seguridad de las aplicaciones y seguridad de los datos combinan potencia y flexibilidad con facilidad de uso, lo que ayuda a las organizaciones a innovar audazmente e incorporar la seguridad de una manera más intuitiva para proteger, detectar y responder al cambiante panorama de las amenazas.

En un mundo hiperconectado, los avances tecnológicos como la nube híbrida, los dispositivos administrados por los empleados y la Internet de las cosas (IoT), aceleran la agilidad de los negocios, sin embargo, también pueden generar vulnerabilidades que aumentan los riesgos. Proteger la transformación digital significa crear seguridad en la infraestructura de TI y proporcionar visibilidad y conocimiento aplicable para posibilitar operaciones de seguridad basadas en inteligencia.

“Las transformaciones digitales aumentan la productividad, pero también introducen nuevas vulnerabilidades y amenazas que requieren medidas de seguridad más ágiles y poderosas para proteger lo que más nos importa”, afirmó Sue Barsamian, vicepresidente senior y gerente general de HPE Security Products de Hewlett Packard Enterprise. “

 La nueva generación de operaciones de seguridad inteligente

HPE ADP 2.0 ofrece una búsqueda hasta 50% más rápida y proporciona un Event Broker centralizado que absorbe 1 millón de eventos por segundo, lo que mejora sustancialmente la velocidad, la escalabilidad y la visibilidad de la seguridad de la administración de Big Data en la TI, la tecnología de operaciones (OT), la IoT y las entradas físicas. La solución proporciona conocimientos aplicables basados tanto en correlación en tiempo real como en aprendizaje automático, y es la primera arquitectura abierta del sector que se conecta sin inconvenientes a cualquier aplicación de terceros, otorgándoles a las organizaciones el poder de elegir cómo almacenan, buscan y analizan los datos.

 Fortalecer la prevención a través de la integración

El ecosistema HPE Fortify y el servicio de monitoreo continuo de aplicaciones Fortify on Demand (FoD) ayudan a las organizaciones a crear aplicaciones seguras que se integran perfectamente con los procesos y recursos de pruebas de seguridad dentro del acelerado ciclo de vida del desarrollo de software (SDLC).

Este ecosistema, cuenta con sistemas integrados que abarcan 10 categorías funcionales diferentes de DevOps, entre ellas nube, contenedores y código abierto, así como también más de 20 socios como Microsoft, Docker y Chef, que les permiten a las organizaciones probar y proteger las aplicaciones de manera intuitiva durante el desarrollo. Con el ecosistema HPE Fortify y el monitoreo continuo de aplicaciones FoD, las organizaciones ahora pueden proteger sus aplicaciones antes, durante y luego de lanzarlas al mercado.

Finalmente, se logra la integración entre HPE SecureData y HPE Atalla HSM, la cual brinda a los clientes un enfoque cohesivo e integral de la seguridad para proteger sus datos más sensibles. Estas soluciones proporcionan un enfoque integral de la seguridad que combina las tecnologías Hyper Format-Preserving Encryption (FPE) y Hyper Secure Stateless Tokenization (SST) con criptografía y administración de claves.

 Disponibilidad

La plataforma de datos HPE ArcSight 2.0 estará disponible el 5 de octubre, el ecosistema HPE Fortify y el nuevo servicio de monitoreo continuo de aplicaciones HPE Security FoD actualmente se encuentran disponibles. La solución integrada HPE SecureData y HPE Atalla HSM estará disponible el 21 de septiembre de 2016, todas en todo el mundo.

N. de P. HPE

Linux, un referente en tecnología empresarial

Recuerda aquel Linus Torvalds, el cual lo anunciaron en Usenet, hace 25 años, Linux se ha transformado en la piedra angular del cómputo empresarial, la base de gran parte de la innovación del centro de datos. Actualmente, los diferentes sabores del sistema operativo Linux son tan numerosos y generalizados que, aún un cuarto de siglo después, su adopción sigue aumentando y continúan surgiendo innovaciones.

La magnitud de la influencia de Linux es difícil de explicar: la Bolsa de Nueva York, una de las organizaciones de TI más sofisticadas del mundo, señaló que “fluye como el agua”. Se puede comprender el papel que desempeña Linux de dos maneras distintas:

  • Como una barrera de entrada, extremadamente baja, a un kernel innovador de un sistema operativo de alta calidad.
  • Como un rompehielos para el movimiento más amplio del software de código abierto.
  • Linux es una solución de código abierto, pero el código abierto no es sólo Linux

El código abierto ya existía antes de Linux. No obstante, si no fuera por Linux, no existiría en su forma actual. Linux actuó como el catalizador para el movimiento del software de código abierto. Los triunfos alcanzados permitieron una mayor adopción e innovación y una mayor legitimidad para otros proyectos y comunidades.

Tomemos como ejemplo la plataforma GitHub, que hoy es el hogar de gran parte de las comunidades y los proyectos de código abierto del mundo. GitHub está diseñado sobre el software git, que fue creado por Linus Torvalds, el gran maestro de Linux, para llevar orden al desarrollo del kérnel de Linux. Nunca fue pensado para ser el motor de este sistema de almacenamiento masivo que es hoy. Esta es una situación recurrente en el código abierto, donde los proyectos y las herramientas iniciaron originalmente para apoyar a Linux pero que han crecido hasta transcender esos límites, para así servir a la comunidad en su conjunto y no solamente a Linux.

El estándar de la innovación

Linux tuvo además un profundo impacto fuera del ámbito del código abierto. No sólo debido a la innovación evidente del kérnel, sino también a través de una innovación estandarizada. Nuestro CEO, Jim Whitehurst, suele decir que las piezas intercambiables de la industria de manufactura de comienzos del siglo XX eliminaron gran parte de los procesos “a la medida” (que formaban parte de ella), haciendo posible que prosperara una innovación genuina en las plataformas comunes.

Esto es exactamente lo que Linux ha hecho durante 25 años: ofrecer una plataforma común, estandarizada, predecible, que permite innovar sobre la innovación. El cómputo de nube, por ejemplo, es el resultado de esta innovación estandarizada. Sin la eficiencia técnica y de costos que brinda Linux, el cómputo de nube luciría totalmente distinto – si es que existiera –, sería algo más parecido a los stacks UNIX aislados (de comienzos de la década de los noventa) que a los servicios generalizados y flexibles que esperamos en la actualidad.

Los contenedores de Linux son otro ejemplo de innovación. Estos contenedores usan componentes estandarizados de Linux para proveer una nueva forma de agrupar y consumir aplicaciones empresariales. También hemos observado en ellos el surgimiento de mayor innovación, desde el proyecto Docker hasta Kubernetes, creando un mercado emergente para aplicaciones y herramientas que pueden manejar cientos de procesos sencillos y aislados.

Finalmente, el hardware no es inmune a los efectos de la innovación de Linux. Al proporcionar una plataforma estandarizada, Linux abrió un espacio entre las aplicaciones y el hardware, que dio lugar al surgimiento de los servidores básicos x86 e incluso a la evolución de nuevas plataformas hardware como ARM y System on Chip (SoC). Esta base común para el cómputo ha permitido que las TI empresariales crezcan, haciendo hincapié en la innovación en lugar de sólo mantener funcionando los sistemas con altos costos de mantenimiento y de licenciamiento.

El futuro del centro de datos

Linux, como fuerza motriz de la metodología del código abierto, también ha tenido un efecto profundo en nuestra cultura. A medida que el protagonismo del código abierto y Linux se acentuó, hemos observado cada vez más iniciativas de gestión abiertas y esfuerzos empresariales impulsados por comunidades, como el crowdsourcing o la colaboración abierta, e incluso Kickstarter. El concepto de colaboración transparente y abierta se funde perfectamente con un mundo cada vez más interconectado, especialmente con el auge de las redes sociales; haciendo de las soluciones de código abierto una tendencia que transciende el sector de la tecnología.

Son 25 años… y los que faltan

Linux ha logrado mucho en su corta vida: ha sido el impulsor de las soluciones de código abierto en las empresas, el adalid de la innovación y la apertura entre culturas e industrias, y mucho más. ¿Cuáles serán los desafíos durante los próximos 25 años?

Seguridad: como el fundamento de las implementaciones de TI empresariales, Linux no es sólo una capa de software propicia. Hoy es parte de la infraestructura de seguridad crítica de muchas organizaciones. Esto significa que se necesitan más mecanismos sofisticados para proteger los datos y las aplicaciones, y que las fallas o vulnerabilidades deben ser diagnosticadas y remediadas antes de poder aprovecharse de ellas.

La evolución del hardware: la estandarización del hardware (gracias a Linux) deriva en la existencia de más opciones que se actualizan con mayor frecuencia. Linux necesita conservar su condición de gran estandarizador, lo que implica que debe adaptarse a un nuevo ecosistema de chips y metodologías de hardware en constante evolución.

Contenedores de Linux: para una innovación que lleva su nombre, los contenedores de Linux son los que tienen más potencial de conmocionar a Linux (y al código abierto) en el próximo cuarto de siglo. Desde la redefinición del ciclo de vida de las aplicaciones empresariales hasta los sistemas operativos que tal vez necesiten existir sólo por unos pocos milisegundos, Linux continuará impulsando la automatización, la escalabilidad y el manejo que requieren los contenedores.

Gracias a Linux, el código abierto hoy es protagonista en la TI empresarial y en el mundo corporativo global. Sin él, muchas de las herramientas cotidianas que damos por sentado, desde los servicios bajo demanda hasta la VoIP, no existirían o serían muy distintas. Aun cuando debamos responder las preguntas acerca del futuro, existe una cuestión que se destacará por siempre: le debemos una parte considerable de nuestro mundo actual a un solo mensaje publicado en Usenet en el año 1991.

Brindo por estos 25 años de Linux, y porque sean muchos años más.

Gunnar Hellekson, director de Gestión de Productos, Red Hat Enterprise Linux y Red Hat Enterprise Virtualization

Los Contenedores se posicionan como base tecnológica

Actualmente, las empresas voltean a ver como una buena solución hacia sus proyectos las soluciones de contenedores. Pero, ¿a qué nos referimos? Los contenedores son entornos portátiles y aislados, que permiten a los desarrolladores de software empaquetar aplicaciones con todos los enlaces y bibliotecas necesarias para su ejecución. El uso de esta tecnología mejora la eficiencia de los equipos de software, ya que facilita el trabajo conjunto de sus integrantes, al tiempo que favorece la implementación de aplicaciones en ambientes no heterogéneos.

En las grandes compañías, el conjunto de aplicaciones de software como ERP o CRM, a menudo comienzan como simples proyectos, pero, con el tiempo, se convierten rápidamente en “torpes” e ineficientes, con un código-fuente monolítico que obstruye el progreso de los equipos de desarrolladores. Para superar esta deficiencia, un nuevo enfoque disgrega la aplicación en componentes más pequeños, conocidos como microservicios. La adopción de esta arquitectura da a los dispositivos de desarrolladores, eficiencia operativa en función del pequeño código fuente de cada unidad de la aplicación.

En la medida en que el software pasa a través de diversas etapas del proceso, puede avanzar de la PC del desarrollador, a un entorno de laboratorio o pruebas; o moverse de uno físico a uno virtual y por fin, pasa a la producción. En cada uno de estos ambientes, la aplicación debe tener un rendimiento consistente. La tecnología de container resuelve el problema de los desarrolladores de software para encapsular un componente de la aplicación en un solo paquete ligero. Basada en Linux, dicha tecnología promete funcionar consistentemente entre un ecosistema de ordenador a otro, ya sea virtual o físico.

Los contenedores son también una herramienta ideal para las DevOps, ya sea para los desarrolladores, como para los administradores de sistemas, porque liberan a los primeros para mantener su atención en su actividad principal, mientras el equipo de operaciones se beneficia de la flexibilidad, menores zonas ocupadas en el centro de datos y costos más bajos.

 Gestores de Contenedores

Gracias a los contenedores, las empresas pueden utilizar las herramientas de gestión como OpenShift y Kubernetes, desarrollado por Google, en colaboración con Docker (proyecto OpenSource que proporciona una plataforma para los desarrolladores y administradores de sistemas, que permite crear contenedores). Además de funcionar como equipo de ejecución de containers, Docker también proporciona la gestión de sus sistemas de archivos.

En general, las herramientas de administración del clúster como Kubernetes, crean una abstracción a nivel de componente de la aplicación. Esta abstracción, llamada pod, incluye un grupo de uno o más contenedores, almacenamiento compartido y las opciones para operarlos. Agendar pods en una máquina en el clúster, representa el Docker ejecutando un container.

Finalmente, podemos concluir que las compañías adoptarán cada vez más arquitecturas de microservicios y aplicaciones en ambientes virtualizados y de nube, usando los contenedores.

 

Por Alexandre Cezar es consultor CISSP y experto en seguridad de redes e informaciones en Juniper Networks.

 

HPE y Docker van por aplicaciones distribuidas en infraestructuras híbridas

Durante el Discover de Hewlett Packard Enterprise, destacaron la combinación de la fuerza del proveedor de infraestructura en la nube con el líder de la tecnología de contenedores, junto con Docker desarrollarán soluciones híbridas y un conjunto de aplicaciones que van desde legacy hasta microservicios, con total apoyo de HPE.

HPE realizó el anuncio de una alianza estratégica de alcance mundial con Docker que incluye ventas, salida al mercado, ingeniería, soporte, servicios e intercambio de conocimientos, a través de la cual ambas firmas colaborarán con la finalidad de ayudar a los clientes a transformar y modernizar sus centros de datos de cara a beneficiarse de un entorno de desarrollo más ágil.

En el centro de esta alianza se sitúan los servidores HPE preparados para asegurar el soporte, que garantiza que los servidores de HPE están asegurados con Docker Engine y Docker support. Esto permite a los clientes crear aplicaciones distribuidas que son compatibles con cualquier infraestructura.

“Para sobrevivir y prosperar en la economía de las ideas, las empresas deben transformar la experiencia TI, de modo que las líneas de negocio y los desarrolladores puedan innovar más rápido, de forma más inteligente y sin miedo”, apunta Antonio Neri, vicepresidente ejecutivo y director general del Enterprise Group, Hewlett Packard Enterprise. “Estamos innovando en todo nuestro portafolio de centros de datos para ayudar a los clientes en esa transformación. Junto a Docker, facilitamos a la industria TI la implementación y administración de la tecnología de contenedores, al mismo tiempo que damos soluciones para que las organizaciones optimicen sus inversiones y potencien una nueva generación de aplicaciones, que son parte el negocio”.

“En 2018, más del 50 por ciento de las nuevas cargas de trabajo se desplegarán en contenedores en al menos una etapa del ciclo de vida de la aplicación”. El acuerdo de HPE y Docker ayudará a impulsar esta tendencia mediante el desarrollo de la Infraestructura componible de HPE combinada con los Contenedores de Docker as-a- Service (CaaS) para proporcionar el tipo de agilidad y la gestión TI de la empresa que se espera. Esto se logrará mediante la creación de un ciclo de vida de aplicaciones bidireccional que fomente una asociación compartida entre los desarrolladores y los equipos de operaciones.

“La disponibilidad por defecto de la tecnología de Docker en todos los servidores y la plataforma hiper-convergente de HPE permite beneficiarse a las empresas de las ventajas de la tecnología de contenedores, y aprovechar las inversiones realizadas en los sistemas y procesos existentes”, apunta Ben Golub, CEO de Docker. “Contar con una alianza estratégica que comienza con Docker Engine y que se extiende para incluir nuestra plataforma comercial extremo a extremo, Docker Datacenter, ofrece a los clientes de HPE una solución integral que cubre todas sus necesidades a la vez. Las empresas que se aprovechen de esta solución conjunta pueden alcanzar eficiencia inmediata al mismo tiempo que se centran en las aplicaciones existentes, que pueden multiplicar por 20 la optimización de su infraestructura y enviar sus aplicaciones 13 veces más rápido”.

DealerWorld

 

RackHD es el proyecto de código abierto de EMC

El proyecto está disponible bajo licencia Apache 2.0, el nuevo proyecto responde a los retos de hiperescala en los Datacenter, logrando con ello que la comunidad CoprHD anuncie una actualización de software y nuevas colaboraciones con Intel y la Universidad del estado de Oregón.

EMC Corporation ha anunciado hoy RackHD (Rack Hardware Director), una tecnología de plataforma libre destinada a resolver los retos en la gestión y orquestación de servidores y recursos de red a hiperescala, como respuesta a su compromiso por realizar nuevas y destacadas aportaciones a la comunidad de código abierto. Además, la comunidad CoprHD ha anunciado el lanzamiento de CoprHD 2.4 y nuevas colaboraciones con Intel y la Universidad del estado de Oregón, estos anuncios marcan un hito importante a medida que CoprHD evoluciona más allá de un proyecto de código abierto de un único proveedor. Por último, EMC también ha anunciado mejoras en su proyecto REX-Ray, su motor de orquestación de almacenamiento de código abierto para su uso con contenedores Docker, Mesos y otros.

RackHD API disponible para desarrolladores

RackHD ya ofrece el software para la gestión y orquestación del hardware (M&O) que automatiza el descubrimiento, descripción, aprovisionamiento y programación de una amplia gama de servidores, y una hoja de ruta para agregar dispositivos de red en el futuro.

Los centros de datos modernos son una combinación de múltiples proveedores de almacenamiento, redes y servidores con una creciente variedad de hardware Commercial-Off-the-Shelf (COTS, Commodity) en los casos de uso de hiperescala. La instalación de sistemas operativos de bajo nivel o la actualización de firmware y BIOS a través de numerosos dispositivos, es ya de por sí es una tarea manual complicada para los ingenieros de los centros de datos, cuya complejidad y costes se incrementan un orden de magnitud en el nivel hiper-escala. Por ello, RackHD ha sido creado para automatizar y simplificar estas tareas básicas en una amplia gama de hardware del centro de datos.

Los desarrolladores pueden utilizar la API RackHD como un componente en un sistema de orquestación más grande o crear una interfaz de usuario para la gestión de servicios de hardware independientemente del hardware subyacente. Está diseñado para ayudar a las organizaciones a acelerar el despliegue de aplicaciones modernas, como Plataforma 3, que se basan en un gran número de servidores commodity y en infraestructura heterogénea.

Hoy, RackHD soporta una amplia variedad de servidores basados en arquitectura x86, así como el descubrimiento y monitoreo e switches. El proyecto tiene su propia comunidad RackHD a través de EMC {code} (Community Onramp for Developer Enablement), con el objetivo de fomentar las aportaciones que extenderán el soporte de dispositivos heterogéneos, así como desarrollar nuevas funcionalidades útiles para el Centro de Datos definido por Software (SDDC). Una lista detallada de características y funcionalidades está disponible en la página de la comunidad del proyecto RackHD en GitHub.

-Marga Verdú

Cisco amplía el SDN para integrar VMware y contenedores Docker

Cisco Systems esta semana lanzó nuevas versiones de software para sus switches Nexus 9000 y SDN ACI (Application Centric Infrastructure) que ofrecen una mejor integración con ambientes VMware y soporte para contenedores Docker.

El software pretende ampliar las capacidades de ACI en entornos de múltiples proveedores donde existen varios tipos de hipervisores, plataformas de gestión de nube y cargas de trabajo tanto   físicas, virtuales o de contenedor. Además Cisco tiene ahora cinco mil clientes para su switch Nexus 9000 y 1100 para ACI y su controlador APIC; VMware -con quien rivaliza en SDN- afirma que tiene ahora 900 clientes de pago para su plataforma de virtualización de red NSX.

Esa rivalidad en el campo del SDN no impide que Cisco soporte los ambientes de virtualización de servidores de VMware. Por ello el release 1.2 (1x) del software APIC y del NX-OS 11.2 (1X) de la ACI ofrecen ampliaciones para soportar ambientes VDS y vRealize de VMware.

Con ello Cisco agrega la microsegmentación para cargas de trabajo físicas y virtuales en los releases del nuevo software, incluyendo aquellas en los entornos de VMware vSphere Distributed Switch (VDS) y Microsoft Hyper-V. Esto, además de las capacidades de microsegmentación de ACI que ya se encuentran en Application-centric Virtual Switch (AVS) de Cisco.

La capacidad de microsegmentación permite el aislamiento basado en atributos (dirección IP, sistema operativo o espacio de nombres) para cargas de trabajo físicas sobre bare metal y virtuales sobre VDS y Hyper-V. También permite el aislamiento intragrupal de cargas de trabajo, en donde las máquinas virtuales y las cargas de trabajo bare metal dentro del mismo grupo de políticas de punto final pueden aislarse utilizando firewalls.

El nuevo software ACI también cuenta con soporte para VMware vRealize y herramientas de automatización de nube OpenStack, incluyendo soporte nativo OpFlex para Open vSwitch. OpFlex es un protocolo de política escrito por Cisco, IBM, Microsoft, Citrix y Sungard.

Las políticas definidas en la ACI pueden hacer que los planes de automatización vRealize aceleren el despliegue de aplicaciones, señala Cisco. Tales políticas pueden cosas como cuándo incrementar la infraestructura de la ACI, el aprovisionamiento de infraestructura, establecer dominios de seguridad, planes de servicios compartidos, configuraciones de nubes privadas virtuales, y otras definiciones de red, subred y seguridad.

Agregar OpFlex a OpenStack es para ampliar la automatización de red basada en políticas de ACI al hipervisor Linux, donde reside Open vSwitch. Un agente de OpFlex reside en el hipervisor mientras que un proxy de OpFlex expone una API de la infraestructura de la ACI ante el controlador de OpenStack.

Esto permite que la ACI amplíe las políticas hacia las funciones de red distribuidas Neutron, incluyendo NAT; proporcione un overlay integrado y administrado centralizadamente e infraestructura underlay, con visibilidad operativa en OpenStack, Linux y APIC; y ofrezca una opción de red virtual o networking de políticas basado en grupos, afirma Cisco.

La integración de los contenedores Docker con ACI y APIC se logra a través de un plugin desarrollado por el Proyecto Contiv de código abierto de Cisco. El Proyecto Contiv es un esfuerzo por definir políticas para aplicaciones contenedorizadas.

Gracias a este plugin de código abierto, las políticas de la ACI pueden ampliarse en los contenedores Docker, así como en cargas de trabajo físicas y máquinas virtuales. El plugin de Docker estará disponible en el primer trimestre del 2016, mientras que aquellos para contenedores Kubernetes y Mesos se planean como futuras ampliaciones.

Otras características que destacan de los nuevos releases de software, son una capacidad multisitio que permite la automatización en base a políticas para múltiples centros de datos; y soporte para la inserción automatizada de servicios para cualquier servicio de Capa 4/7 sin necesidad de un paquete de dispositivos.

-Jim Duffy, Network World