Etiqueta: Kubernetes

Cu√°les son las aportaciones de Linux a la infraestructura y redes de centros de datos

El sistema operativo de código abierto Linux, fue lanzado en 1991 para computadoras, pero su uso se ha expandido para sostener sistemas para automóviles, teléfonos, servidores web y, más recientemente, equipos de redes.

Su longevidad, madurez y seguridad lo convierten en uno de los sistemas operativos más fiables disponibles en la actualidad, lo que significa que es ideal para dispositivos de red comerciales, así como para empresas que quieran utilizarlo para personalizar su propia infraestructura de redes y centros de datos.

Esto a su vez hace que las habilidades de Linux sean muy buscadas por los gerentes de TI. Muchas de las nuevas tecnologías asociadas con DevOps, por ejemplo, contenedores, infraestructura OpenSource y controladores SDN están basadas en Linux.

Entonces, ¬Ņqu√© es Linux?

Linux, un sistema operativo similar al Unix, se distribuye bajo licencias de código abierto, lo que significa que las siguientes reglas se aplican que lo hacen atractivo para las empresas:

Sistema operativo Linux es de libre ejecución.

Los administradores pueden estudiar el sistema operativo y personalizarlo para fines específicos.

Privilegios de redistribución ilimitados de las versiones originales o modificadas del sistema operativo.

El sistema operativo Linux se compone de:

N√ļcleo: env√≠a instrucciones a la CPU, perif√©ricos y memoria.

Bootloader: los procesos que gestionan el arranque del sistema. En un equipo de cómputo el usuario reconocería esto por la pantalla de bienvenida que estaba arriba. En un dispositivo de red hay un estado que indica el proceso de arranque.

Daemons: servicios en segundo plano que comienzan en el momento del arranque o después de que el sistema está completamente activo.

Shell: es la línea de comandos de Linux. Puede ser intimidante para las personas que están acostumbradas a trabajar en entornos gráficos, pero la mayoría de los profesionales de la red están acostumbrados a operar en un shell.

Adem√°s de la shell, los servidores Linux tambi√©n tienen un entorno de escritorio gr√°fico y aplicaciones que se ejecutan en la parte superior de la misma. Hay algunas aplicaciones de red para Linux, como an√°lisis de tr√°fico, seguridad y administraci√≥n de redes, que tambi√©n tienen interfaces gr√°ficas, pero son mucho menos en n√ļmero que las de servidores y escritorios.

Fundación para el engranaje comercial

En realidad, las interfaces de línea de comandos (CLI) que la mayoría de los administradores de red utilizan hoy para configurar enrutadores y conmutadores de su proveedor de red favorito son versiones altamente personalizadas de Linux con interfaces específicas de proveedores que se ejecutan encima de ellas. El desafío con esto es que las habilidades necesarias para trabajar con ellos no son muy portátiles de vendedor a vendedor. Un ingeniero muy competente que trabaja con Cisco IOS probablemente no podría trabajar con Junos de Juniper porque cada uno incluye su propia capa de abstracción diferente que se encuentra encima del código puro de Linux.

Linux en sí, en lugar de trabajar a través de una capa de abstracción, proporciona acceso directo a las tablas de enrutamiento y reenvío, sistemas de notificación, información de telemetría e interfaces diferentes. Eso puede hacer que Linux sea más flexible, y con el apoyo de la gran comunidad de Linux, potencialmente más rápido para responder a la necesidad de nuevos servicios que un proveedor comercial podría ser.

Linux tiene un excelente ecosistema con API maduras, as√≠ como una pila de red √°gil optimizada para el centro de datos modernizado. Por ejemplo, Linux est√° dise√Īado con un control separado y aviones de reenv√≠o de datos que facilitan la ca√≠da en arquitecturas de redes definidas por software, porque la separaci√≥n de esos planos es la base de SDN.

Otro elemento que los productos basados ‚Äč‚Äčen Linux pueden aportar a la red es que los conmutadores pueden administrarse con herramientas de automatizaci√≥n y orquestaci√≥n de c√≥digo abierto, basadas en pol√≠ticas, como Ansible, Puppet y Chef. Hay aproximadamente 25 de estas herramientas disponibles con soporte para diferentes sabores de Unix pero todos ellos tambi√©n soportan Linux.

Productos basados ‚Äč‚Äčen Linux

Durante la √ļltima d√©cada ha habido una explosi√≥n en el n√ļmero de productos basados ‚Äč‚Äčen Linux que han tenido un gran impacto en el espacio de TI, incluyendo:

Kubernetes: administrador de cl√ļster de contenedores de Google

OpenStack: plataforma de software para infraestructuras como plataformas de servicios cloud

Open Daylight: el proyecto basado en Java de la Fundación Linux para acelerar la adopción de SDNs y Network Functions Virtualization (NFV)

Docker: programa de contenedores de software

Open vSwitch (OVS): Interruptor virtual multicapa distribuido para proporcionar una pila de conmutación dentro de entornos de virtualización. OVS en particular es interesante porque ofrece un conjunto más rico de características de red que las capacidades básicas del kernel de Linux.

La creación de redes ha tardado en abrazar Linux, pero cuanto más dependen de la red, más se unen los dominios de red y de servidor. Para los ingenieros de red, el poder acceder al shell nativo de Linux les permite utilizar herramientas y software que solo estaban disponibles sólo para servidores. Esto hace que sea mucho más fácil organizar servicios de red con cambios en servidores y aplicaciones. Además, la naturaleza abierta de Linux ha creado una comunidad masiva que está activamente involucrada en encontrar nuevas maneras de usarlo. Los contenedores han evolucionado en gran medida a través de la participación de la comunidad.

Zeus Kerravala, Network World

Red Hat lanza OpenShift Dedicated en la nube de Google

Red Hat realizó el anuncio de la disponibilidad general de OpenShift Dedicated on Google Cloud Platform. Este nuevo producto ofrece la plataforma de contenedores de Red Hat como un servicio gestionado a los clientes empresariales que deseen desarrollar, lanzar y administrar sus aplicaciones con OpenShift Dedicated on Google Cloud Platform como su infraestructura para la nube.

De esta forma, los usuarios pueden acelerar la adopción de contenedores, Kubernetes y patrones de aplicaciones nativas en la nube, aprovechando la vasta experiencia de Red Hat en el segmento empresarial. También obtienen las ventajas de la infraestructura global de Google optimizada para contenedores y pueden ampliar sus aplicaciones más fácilmente a través del ecosistema de servicios de big data, machine learning, cómputo, red y almacenamiento de Google.

OpenShift Dedicated se dise√Ī√≥ a partir de la misma base de c√≥digo que Red Hat OpenShift Container Platform (una plataforma de escala empresarial gestionada por el cliente), lo cual permite a los clientes trasladar sus cargas de trabajo f√°cilmente entre las nubes p√ļblicas y privadas. Para ayudar a los usuarios a comenzar a trabajar con contenedores, OpenShift Dedicated ofrece una plataforma de contenedores para la empresa m√°s segura apoy√°ndose en Red Hat Enterprise Linux, la plataforma Linux empresarial comprobada y confiable de Red Hat.

Google Cloud Platform incluye:

  • Aislamiento de usuario √ļnico y un conjunto de recursos de almacenamiento persistente SSD de 100 GB, 48 TB de IOPS en la red y nueve nodos para implementar aplicaciones basadas en contenedores.
  • Controles administrativos y de seguridad que permiten a los clientes personalizar y acceder con mayor seguridad a sus entornos de nube a trav√©s de funciones VPN y Google Virtual Private Cloud (VPC).
  • Acceso a los servicios y a las capacidades de integraci√≥n y de procesos de negocio de Red Hat JBoss Middleware optimizados para contenedores desde las aplicaciones desarrolladas e implementadas en OpenShift.
  • Disponibilidad en las seis regiones del mundo donde opera Google.
  • Integraci√≥n con los servicios de Google Cloud, incluyendo: Google Cloud PubSub, Google Big Query y Google Cloud Big Table.

Redacción.

Red Hat apoya desarrollo de aplicaciones móviles a través de contenedores

Red Hat, realiz√≥ el lanzamiento de Mobile Application Platform, dise√Īada para funcionar en cualquier nube p√ļblica, privada o infraestructura local compatible con Red Hat Enterprise Linux. Junto con la actual plataforma de aplicaciones m√≥viles basada en SaaS de Red Hat, las empresas ahora cuentan con un espectro mayor de opciones de implementaci√≥n para integrar, gestionar y ampliar sus iniciativas de aplicaciones m√≥viles a fin de alcanzar sus objetivos empresariales.

Red Hat OpenShift Container Platform, está basada en contenedores con formato Docker y en Kubernetes, forma parte de la estrategia de la empresa para el desarrollo de aplicaciones modernas que sea nativa de la nube, esté centrada en los dispositivos móviles, se basa en microservicios y sea impulsada por la API. Esta nueva generación de herramientas de desarrollo de aplicaciones también admite DevOps y los procesos ágiles para ayudar a las organizaciones a innovar y responder a las necesidades en constante evolución de la empresa digital.

La implementaci√≥n de Red Hat Mobile Application Platform sobre OpenShift ofrece una plataforma com√ļn para soportar cargas m√≥viles que se ejecutan a la par de las aplicaciones empresariales tradicionales que necesitan ser trasladadas a la nube.

Fiel a su compromiso con el código abierto, Red Hat también anunció la disponibilidad de los módulos de gestión de la fuerza de trabajo (WFM) como una vista técnica preliminar, que tienen sus raíces en el proyecto comunitario de código abierto FeedHenry RainCatcher. Estos módulos basados en JavaScript y Node.js pueden ayudar a acelerar la creación de soluciones para la gestión de la fuerza de trabajo móvil personalizadas que automatizan, optimizan y simplifican los procesos de la fuerza de trabajo en los servicios de campo.

Finalmente, Cathal McGloin, vicepresidente, Plataformas M√≥viles, Red Hat se√Īal√≥, ‚Äúla b√ļsqueda de la transformaci√≥n digital est√° dando paso a una nueva empresa m√≥vil en la cual el desarrollo de aplicaciones est√° cada vez m√°s definido por arquitecturas, procesos y plataformas emergentes que pueden brindar una mayor agilidad empresarial. Red Hat ofrece a las organizaciones un poderoso paquete de soluciones basadas en estas modernas tecnolog√≠as para que puedan desarrollar, integrar, implementar y gestionar aplicaciones m√≥viles a la par de cargas de trabajo tradicionales ejecutadas en este entorno de contenedores port√°tiles independiente de la nube.‚ÄĚ

Redacción

 

Google adquiere Apigee para acelerar procesos de Transformación Digital

La matriz de Google, Alphabet, realizó el anuncio en el cual adquieren a la empresa Apigee Systems por 625 millones de dólares, en un acuerdo que refleja como las API están conectando cada vez más con los sistemas de software. Apigee, que salió a bolsa en 2015 y en mayó reportó unos ingresos de 67 millones de dólares en el tercer trimestre, hace del software que permite a los desarrolladores usar las API para compartir de forma segura sus datos a través de aplicaciones y dispositivos de terceros, una actividad esencial para las empresas que están en pleno proceso de Transformación Digital.

Diane Green, vicepresidenta senior de Google, ha asegurado en el blog de la compa√Ī√≠a que las API son los centros a trav√©s de los cuales interact√ļan las empresas, socios y clientes.¬† ‚ÄúEn lugar de ir al m√©dico a pedir una receta e ir a la farmacia, se puede usar una aplicaci√≥n que se comunique con estos organismos a trav√©s de una API‚ÄĚ, ejemplific√≥ Greene.

La otra gran ventaja que puede aportar Apigee al gigante de Internet es que puede ayudar a acelerar procesos de digitalización. Google, junto con otros grandes competidores como Facebook o Apple, ha popularizado la práctica de compartir las API con los programadores de otros fabricantes y las empresas con el objetivo de construir plataformas web y móviles.

Por su parte, el ejemplo de la farmacia que ha dado Greene no ha sido accidental. La farmac√©utica Walgreens ha utilizado el software de Apigee desde 2012 para permitir a los desarrolladores crear un software que facilita a los consumidores imprimir fotos y recetas de la aplicaci√≥n m√≥vil. La compa√Ī√≠a cuenta actualmente con m√°s de 300 clientes en todos los sectores. ‚ÄúMientras tanto, la tecnolog√≠a de Google con Apigee ayudar√° a acelerar los esfuerzos de las empresas y facilitar√° las interacciones digitales‚ÄĚ, ha reflejado Greene. ‚ÄúUna buena API debe ser compatible con la seguridad, dar a los desarrolladores la libertad de trabajar en el entorno de desarrollo de su elecci√≥n y debe permitir a la compa√Ī√≠a seguir innovando su servicio‚ÄĚ.

Finalmente se debe destacar que, Greene ha resvelado que en el futuro Google integrará la tecnología Apigee con su software de orquestación Kubernetes para ayudar a las empresas a obtener un mejor control y visibilidad sobre cómo sus sistemas internos se comunican entre sí.

Clint Boulton

 

Los Contenedores se posicionan como base tecnológica

Actualmente, las empresas voltean a ver como una buena soluci√≥n hacia sus proyectos las soluciones de contenedores. Pero, ¬Ņa qu√© nos referimos? Los contenedores son entornos port√°tiles y aislados, que permiten a los desarrolladores de software empaquetar aplicaciones con todos los enlaces y bibliotecas necesarias para su ejecuci√≥n. El uso de esta tecnolog√≠a mejora la eficiencia de los equipos de software, ya que facilita el trabajo conjunto de sus integrantes, al tiempo que favorece la implementaci√≥n de aplicaciones en ambientes no heterog√©neos.

En las grandes compa√Ī√≠as, el conjunto de aplicaciones de software como ERP o CRM, a menudo comienzan como simples proyectos, pero, con el tiempo, se convierten r√°pidamente en “torpes” e ineficientes, con un c√≥digo-fuente monol√≠tico que obstruye el progreso de los equipos de desarrolladores. Para superar esta deficiencia, un nuevo enfoque disgrega la aplicaci√≥n en componentes m√°s peque√Īos, conocidos como microservicios. La adopci√≥n de esta arquitectura da a los dispositivos de desarrolladores, eficiencia operativa en funci√≥n del peque√Īo c√≥digo fuente de cada unidad de la aplicaci√≥n.

En la medida en que el software pasa a través de diversas etapas del proceso, puede avanzar de la PC del desarrollador, a un entorno de laboratorio o pruebas; o moverse de uno físico a uno virtual y por fin, pasa a la producción. En cada uno de estos ambientes, la aplicación debe tener un rendimiento consistente. La tecnología de container resuelve el problema de los desarrolladores de software para encapsular un componente de la aplicación en un solo paquete ligero. Basada en Linux, dicha tecnología promete funcionar consistentemente entre un ecosistema de ordenador a otro, ya sea virtual o físico.

Los contenedores son también una herramienta ideal para las DevOps, ya sea para los desarrolladores, como para los administradores de sistemas, porque liberan a los primeros para mantener su atención en su actividad principal, mientras el equipo de operaciones se beneficia de la flexibilidad, menores zonas ocupadas en el centro de datos y costos más bajos.

 Gestores de Contenedores

Gracias a los contenedores, las empresas pueden utilizar las herramientas de gestión como OpenShift y Kubernetes, desarrollado por Google, en colaboración con Docker (proyecto OpenSource que proporciona una plataforma para los desarrolladores y administradores de sistemas, que permite crear contenedores). Además de funcionar como equipo de ejecución de containers, Docker también proporciona la gestión de sus sistemas de archivos.

En general, las herramientas de administraci√≥n del cl√ļster como Kubernetes, crean una abstracci√≥n a nivel de componente de la aplicaci√≥n. Esta abstracci√≥n, llamada pod, incluye un grupo de uno o m√°s contenedores, almacenamiento compartido y las opciones para operarlos. Agendar pods en una m√°quina en el cl√ļster, representa el Docker ejecutando un container.

Finalmente, podemos concluir que las compa√Ī√≠as adoptar√°n cada vez m√°s arquitecturas de microservicios y aplicaciones en ambientes virtualizados y de nube, usando los contenedores.

 

Por Alexandre Cezar es consultor CISSP y experto en seguridad de redes e informaciones en Juniper Networks.

 

Cisco amplía el SDN para integrar VMware y contenedores Docker

Cisco Systems esta semana lanzó nuevas versiones de software para sus switches Nexus 9000 y SDN ACI (Application Centric Infrastructure) que ofrecen una mejor integración con ambientes VMware y soporte para contenedores Docker.

El software pretende ampliar las capacidades de ACI en entornos de m√ļltiples proveedores donde existen varios tipos de hipervisores, plataformas de gesti√≥n de nube y cargas de trabajo tanto¬†¬† f√≠sicas, virtuales o de contenedor. Adem√°s Cisco tiene ahora cinco mil clientes para su switch Nexus 9000 y 1100 para ACI y su controlador APIC; VMware -con quien rivaliza en SDN- afirma que tiene ahora 900 clientes de pago para su plataforma de virtualizaci√≥n de red NSX.

Esa rivalidad en el campo del SDN no impide que Cisco soporte los ambientes de virtualización de servidores de VMware. Por ello el release 1.2 (1x) del software APIC y del NX-OS 11.2 (1X) de la ACI ofrecen ampliaciones para soportar ambientes VDS y vRealize de VMware.

Con ello Cisco agrega la microsegmentación para cargas de trabajo físicas y virtuales en los releases del nuevo software, incluyendo aquellas en los entornos de VMware vSphere Distributed Switch (VDS) y Microsoft Hyper-V. Esto, además de las capacidades de microsegmentación de ACI que ya se encuentran en Application-centric Virtual Switch (AVS) de Cisco.

La capacidad de microsegmentación permite el aislamiento basado en atributos (dirección IP, sistema operativo o espacio de nombres) para cargas de trabajo físicas sobre bare metal y virtuales sobre VDS y Hyper-V. También permite el aislamiento intragrupal de cargas de trabajo, en donde las máquinas virtuales y las cargas de trabajo bare metal dentro del mismo grupo de políticas de punto final pueden aislarse utilizando firewalls.

El nuevo software ACI también cuenta con soporte para VMware vRealize y herramientas de automatización de nube OpenStack, incluyendo soporte nativo OpFlex para Open vSwitch. OpFlex es un protocolo de política escrito por Cisco, IBM, Microsoft, Citrix y Sungard.

Las pol√≠ticas definidas en la ACI pueden hacer que los planes de automatizaci√≥n vRealize aceleren el despliegue de aplicaciones, se√Īala Cisco. Tales pol√≠ticas pueden cosas como cu√°ndo incrementar la infraestructura de la ACI, el aprovisionamiento de infraestructura, establecer dominios de seguridad, planes de servicios compartidos, configuraciones de nubes privadas virtuales, y otras definiciones de red, subred y seguridad.

Agregar OpFlex a OpenStack es para ampliar la automatización de red basada en políticas de ACI al hipervisor Linux, donde reside Open vSwitch. Un agente de OpFlex reside en el hipervisor mientras que un proxy de OpFlex expone una API de la infraestructura de la ACI ante el controlador de OpenStack.

Esto permite que la ACI amplíe las políticas hacia las funciones de red distribuidas Neutron, incluyendo NAT; proporcione un overlay integrado y administrado centralizadamente e infraestructura underlay, con visibilidad operativa en OpenStack, Linux y APIC; y ofrezca una opción de red virtual o networking de políticas basado en grupos, afirma Cisco.

La integración de los contenedores Docker con ACI y APIC se logra a través de un plugin desarrollado por el Proyecto Contiv de código abierto de Cisco. El Proyecto Contiv es un esfuerzo por definir políticas para aplicaciones contenedorizadas.

Gracias a este plugin de código abierto, las políticas de la ACI pueden ampliarse en los contenedores Docker, así como en cargas de trabajo físicas y máquinas virtuales. El plugin de Docker estará disponible en el primer trimestre del 2016, mientras que aquellos para contenedores Kubernetes y Mesos se planean como futuras ampliaciones.

Otras caracter√≠sticas que destacan de los nuevos releases de software, son una capacidad multisitio que permite la automatizaci√≥n en base a pol√≠ticas para m√ļltiples centros de datos; y soporte para la inserci√≥n automatizada de servicios para cualquier servicio de Capa 4/7 sin necesidad de un paquete de dispositivos.

-Jim Duffy, Network World