Etiqueta: Kubernetes

Cu谩les son las aportaciones de Linux a la infraestructura y redes de centros de datos

El sistema operativo de c贸digo abierto Linux, fue lanzado en 1991 para computadoras, pero su uso se ha expandido para sostener sistemas para autom贸viles, tel茅fonos, servidores web y, m谩s recientemente, equipos de redes.

Su longevidad, madurez y seguridad lo convierten en uno de los sistemas operativos m谩s fiables disponibles en la actualidad, lo que significa que es ideal para dispositivos de red comerciales, as铆 como para empresas que quieran utilizarlo para personalizar su propia infraestructura de redes y centros de datos.

Esto a su vez hace que las habilidades de Linux sean muy buscadas por los gerentes de TI. Muchas de las nuevas tecnolog铆as asociadas con DevOps, por ejemplo, contenedores, infraestructura OpenSource y controladores SDN est谩n basadas en Linux.

Entonces, 驴qu茅 es Linux?

Linux, un sistema operativo similar al Unix, se distribuye bajo licencias de c贸digo abierto, lo que significa que las siguientes reglas se aplican que lo hacen atractivo para las empresas:

Sistema operativo Linux es de libre ejecuci贸n.

Los administradores pueden estudiar el sistema operativo y personalizarlo para fines espec铆ficos.

Privilegios de redistribuci贸n ilimitados de las versiones originales o modificadas del sistema operativo.

El sistema operativo Linux se compone de:

N煤cleo: env铆a instrucciones a la CPU, perif茅ricos y memoria.

Bootloader: los procesos que gestionan el arranque del sistema. En un equipo de c贸mputo el usuario reconocer铆a esto por la pantalla de bienvenida que estaba arriba. En un dispositivo de red hay un estado que indica el proceso de arranque.

Daemons: servicios en segundo plano que comienzan en el momento del arranque o despu茅s de que el sistema est谩 completamente activo.

Shell: es la l铆nea de comandos de Linux. Puede ser intimidante para las personas que est谩n acostumbradas a trabajar en entornos gr谩ficos, pero la mayor铆a de los profesionales de la red est谩n acostumbrados a operar en un shell.

Adem谩s de la shell, los servidores Linux tambi茅n tienen un entorno de escritorio gr谩fico y aplicaciones que se ejecutan en la parte superior de la misma. Hay algunas aplicaciones de red para Linux, como an谩lisis de tr谩fico, seguridad y administraci贸n de redes, que tambi茅n tienen interfaces gr谩ficas, pero son mucho menos en n煤mero que las de servidores y escritorios.

Fundaci贸n para el engranaje comercial

En realidad, las interfaces de l铆nea de comandos (CLI) que la mayor铆a de los administradores de red utilizan hoy para configurar enrutadores y conmutadores de su proveedor de red favorito son versiones altamente personalizadas de Linux con interfaces espec铆ficas de proveedores que se ejecutan encima de ellas. El desaf铆o con esto es que las habilidades necesarias para trabajar con ellos no son muy port谩tiles de vendedor a vendedor. Un ingeniero muy competente que trabaja con Cisco IOS probablemente no podr铆a trabajar con Junos de Juniper porque cada uno incluye su propia capa de abstracci贸n diferente que se encuentra encima del c贸digo puro de Linux.

Linux en s铆, en lugar de trabajar a trav茅s de una capa de abstracci贸n, proporciona acceso directo a las tablas de enrutamiento y reenv铆o, sistemas de notificaci贸n, informaci贸n de telemetr铆a e interfaces diferentes. Eso puede hacer que Linux sea m谩s flexible, y con el apoyo de la gran comunidad de Linux, potencialmente m谩s r谩pido para responder a la necesidad de nuevos servicios que un proveedor comercial podr铆a ser.

Linux tiene un excelente ecosistema con API maduras, as铆 como una pila de red 谩gil optimizada para el centro de datos modernizado. Por ejemplo, Linux est谩 dise帽ado con un control separado y aviones de reenv铆o de datos que facilitan la ca铆da en arquitecturas de redes definidas por software, porque la separaci贸n de esos planos es la base de SDN.

Otro elemento que los productos basados 鈥嬧媏n Linux pueden aportar a la red es que los conmutadores pueden administrarse con herramientas de automatizaci贸n y orquestaci贸n de c贸digo abierto, basadas en pol铆ticas, como Ansible, Puppet y Chef. Hay aproximadamente 25 de estas herramientas disponibles con soporte para diferentes sabores de Unix pero todos ellos tambi茅n soportan Linux.

Productos basados 鈥嬧媏n Linux

Durante la 煤ltima d茅cada ha habido una explosi贸n en el n煤mero de productos basados 鈥嬧媏n Linux que han tenido un gran impacto en el espacio de TI, incluyendo:

Kubernetes: administrador de cl煤ster de contenedores de Google

OpenStack: plataforma de software para infraestructuras como plataformas de servicios cloud

Open Daylight: el proyecto basado en Java de la Fundaci贸n Linux para acelerar la adopci贸n de SDNs y Network Functions Virtualization (NFV)

Docker: programa de contenedores de software

Open vSwitch (OVS): Interruptor virtual multicapa distribuido para proporcionar una pila de conmutaci贸n dentro de entornos de virtualizaci贸n. OVS en particular es interesante porque ofrece un conjunto m谩s rico de caracter铆sticas de red que las capacidades b谩sicas del kernel de Linux.

La creaci贸n de redes ha tardado en abrazar Linux, pero cuanto m谩s dependen de la red, m谩s se unen los dominios de red y de servidor. Para los ingenieros de red, el poder acceder al shell nativo de Linux les permite utilizar herramientas y software que solo estaban disponibles s贸lo para servidores. Esto hace que sea mucho m谩s f谩cil organizar servicios de red con cambios en servidores y aplicaciones. Adem谩s, la naturaleza abierta de Linux ha creado una comunidad masiva que est谩 activamente involucrada en encontrar nuevas maneras de usarlo. Los contenedores han evolucionado en gran medida a trav茅s de la participaci贸n de la comunidad.

Zeus Kerravala, Network World

Red Hat lanza OpenShift Dedicated en la nube de Google

Red Hat realiz贸 el anuncio de la disponibilidad general de OpenShift Dedicated on Google Cloud Platform. Este nuevo producto ofrece la plataforma de contenedores de Red Hat como un servicio gestionado a los clientes empresariales que deseen desarrollar, lanzar y administrar sus aplicaciones con OpenShift Dedicated on Google Cloud Platform como su infraestructura para la nube.

De esta forma, los usuarios pueden acelerar la adopci贸n de contenedores, Kubernetes y patrones de aplicaciones nativas en la nube, aprovechando la vasta experiencia de Red Hat en el segmento empresarial. Tambi茅n obtienen las ventajas de la infraestructura global de Google optimizada para contenedores y pueden ampliar sus aplicaciones m谩s f谩cilmente a trav茅s del ecosistema de servicios de big data, machine learning, c贸mputo, red y almacenamiento de Google.

OpenShift Dedicated se dise帽贸 a partir de la misma base de c贸digo que Red Hat OpenShift Container Platform (una plataforma de escala empresarial gestionada por el cliente), lo cual permite a los clientes trasladar sus cargas de trabajo f谩cilmente entre las nubes p煤blicas y privadas. Para ayudar a los usuarios a comenzar a trabajar con contenedores, OpenShift Dedicated ofrece una plataforma de contenedores para la empresa m谩s segura apoy谩ndose en Red Hat Enterprise Linux, la plataforma Linux empresarial comprobada y confiable de Red Hat.

Google Cloud Platform incluye:

  • Aislamiento de usuario 煤nico y un conjunto de recursos de almacenamiento persistente SSD de 100 GB, 48 TB de IOPS en la red y nueve nodos para implementar aplicaciones basadas en contenedores.
  • Controles administrativos y de seguridad que permiten a los clientes personalizar y acceder con mayor seguridad a sus entornos de nube a trav茅s de funciones VPN y Google Virtual Private Cloud (VPC).
  • Acceso a los servicios y a las capacidades de integraci贸n y de procesos de negocio de Red Hat JBoss Middleware optimizados para contenedores desde las aplicaciones desarrolladas e implementadas en OpenShift.
  • Disponibilidad en las seis regiones del mundo donde opera Google.
  • Integraci贸n con los servicios de Google Cloud, incluyendo: Google Cloud PubSub, Google Big Query y Google Cloud Big Table.

Redacci贸n.

Red Hat apoya desarrollo de aplicaciones m贸viles a trav茅s de contenedores

Red Hat, realiz贸 el lanzamiento de Mobile Application Platform, dise帽ada para funcionar en cualquier nube p煤blica, privada o infraestructura local compatible con Red Hat Enterprise Linux. Junto con la actual plataforma de aplicaciones m贸viles basada en SaaS de Red Hat, las empresas ahora cuentan con un espectro mayor de opciones de implementaci贸n para integrar, gestionar y ampliar sus iniciativas de aplicaciones m贸viles a fin de alcanzar sus objetivos empresariales.

Red Hat OpenShift Container Platform, est谩 basada en contenedores con formato Docker y en Kubernetes, forma parte de la estrategia de la empresa para el desarrollo de aplicaciones modernas que sea nativa de la nube, est茅 centrada en los dispositivos m贸viles, se basa en microservicios y sea impulsada por la API. Esta nueva generaci贸n de herramientas de desarrollo de aplicaciones tambi茅n admite DevOps y los procesos 谩giles para ayudar a las organizaciones a innovar y responder a las necesidades en constante evoluci贸n de la empresa digital.

La implementaci贸n de Red Hat Mobile Application Platform sobre OpenShift ofrece una plataforma com煤n para soportar cargas m贸viles que se ejecutan a la par de las aplicaciones empresariales tradicionales que necesitan ser trasladadas a la nube.

Fiel a su compromiso con el c贸digo abierto, Red Hat tambi茅n anunci贸 la disponibilidad de los m贸dulos de gesti贸n de la fuerza de trabajo (WFM) como una vista t茅cnica preliminar, que tienen sus ra铆ces en el proyecto comunitario de c贸digo abierto FeedHenry RainCatcher. Estos m贸dulos basados en JavaScript y Node.js pueden ayudar a acelerar la creaci贸n de soluciones para la gesti贸n de la fuerza de trabajo m贸vil personalizadas que automatizan, optimizan y simplifican los procesos de la fuerza de trabajo en los servicios de campo.

Finalmente, Cathal McGloin, vicepresidente, Plataformas M贸viles, Red Hat se帽al贸, 鈥渓a b煤squeda de la transformaci贸n digital est谩 dando paso a una nueva empresa m贸vil en la cual el desarrollo de aplicaciones est谩 cada vez m谩s definido por arquitecturas, procesos y plataformas emergentes que pueden brindar una mayor agilidad empresarial. Red Hat ofrece a las organizaciones un poderoso paquete de soluciones basadas en estas modernas tecnolog铆as para que puedan desarrollar, integrar, implementar y gestionar aplicaciones m贸viles a la par de cargas de trabajo tradicionales ejecutadas en este entorno de contenedores port谩tiles independiente de la nube.鈥

Redacci贸n

 

Google adquiere Apigee para acelerar procesos de Transformaci贸n Digital

La matriz de Google, Alphabet, realiz贸 el anuncio en el cual adquieren a la聽empresa Apigee Systems por 625 millones de d贸lares, en un acuerdo que refleja como las API est谩n conectando cada vez m谩s con los sistemas de software. Apigee, que sali贸 a bolsa en 2015 y en may贸 report贸 unos ingresos de 67 millones de d贸lares en el tercer trimestre, hace del software que permite a los desarrolladores usar las API para compartir de forma segura sus datos a trav茅s de aplicaciones y dispositivos de terceros, una actividad esencial para las empresas que est谩n en pleno proceso de Transformaci贸n Digital.

Diane Green, vicepresidenta senior de Google, ha asegurado en el blog de la compa帽铆a que las API son los centros a trav茅s de los cuales interact煤an las empresas, socios y clientes.聽 鈥淓n lugar de ir al m茅dico a pedir una receta e ir a la farmacia, se puede usar una aplicaci贸n que se comunique con estos organismos a trav茅s de una API鈥, ejemplific贸 Greene.

La otra gran ventaja que puede aportar Apigee al gigante de Internet es que puede ayudar a acelerar procesos de digitalizaci贸n. Google, junto con otros grandes competidores como Facebook o Apple, ha popularizado la pr谩ctica de compartir las API con los programadores de otros fabricantes y las empresas con el objetivo de construir plataformas web y m贸viles.

Por su parte, el ejemplo de la farmacia que ha dado Greene no ha sido accidental. La farmac茅utica Walgreens ha utilizado el software de Apigee desde 2012 para permitir a los desarrolladores crear un software que facilita a los consumidores imprimir fotos y recetas de la aplicaci贸n m贸vil. La compa帽铆a cuenta actualmente con m谩s de 300 clientes en todos los sectores. 鈥淢ientras tanto, la tecnolog铆a de Google con Apigee ayudar谩 a acelerar los esfuerzos de las empresas y facilitar谩 las interacciones digitales鈥, ha reflejado Greene. 鈥淯na buena API debe ser compatible con la seguridad, dar a los desarrolladores la libertad de trabajar en el entorno de desarrollo de su elecci贸n y debe permitir a la compa帽铆a seguir innovando su servicio鈥.

Finalmente se debe destacar que, Greene ha resvelado que en el futuro Google integrar谩 la tecnolog铆a Apigee con su software de orquestaci贸n Kubernetes para ayudar a las empresas a obtener un mejor control y visibilidad sobre c贸mo sus sistemas internos se comunican entre s铆.

Clint Boulton

 

Los Contenedores se posicionan como base tecnol贸gica

Actualmente, las empresas voltean a ver como una buena soluci贸n hacia sus proyectos las soluciones de contenedores. Pero, 驴a qu茅 nos referimos? Los contenedores son entornos port谩tiles y aislados, que permiten a los desarrolladores de software empaquetar aplicaciones con todos los enlaces y bibliotecas necesarias para su ejecuci贸n. El uso de esta tecnolog铆a mejora la eficiencia de los equipos de software, ya que facilita el trabajo conjunto de sus integrantes, al tiempo que favorece la implementaci贸n de aplicaciones en ambientes no heterog茅neos.

En las grandes compa帽铆as, el conjunto de aplicaciones de software como ERP o CRM, a menudo comienzan como simples proyectos, pero, con el tiempo, se convierten r谩pidamente en “torpes” e ineficientes, con un c贸digo-fuente monol铆tico que obstruye el progreso de los equipos de desarrolladores. Para superar esta deficiencia, un nuevo enfoque disgrega la aplicaci贸n en componentes m谩s peque帽os, conocidos como microservicios. La adopci贸n de esta arquitectura da a los dispositivos de desarrolladores, eficiencia operativa en funci贸n del peque帽o c贸digo fuente de cada unidad de la aplicaci贸n.

En la medida en que el software pasa a trav茅s de diversas etapas del proceso, puede avanzar de la PC del desarrollador, a un entorno de laboratorio o pruebas; o moverse de uno f铆sico a uno virtual y por fin, pasa a la producci贸n. En cada uno de estos ambientes, la aplicaci贸n debe tener un rendimiento consistente. La tecnolog铆a de container resuelve el problema de los desarrolladores de software para encapsular un componente de la aplicaci贸n en un solo paquete ligero. Basada en Linux, dicha tecnolog铆a promete funcionar consistentemente entre un ecosistema de ordenador a otro, ya sea virtual o f铆sico.

Los contenedores son tambi茅n una herramienta ideal para las DevOps, ya sea para los desarrolladores, como para los administradores de sistemas, porque liberan a los primeros para mantener su atenci贸n en su actividad principal, mientras el equipo de operaciones se beneficia de la flexibilidad, menores zonas ocupadas en el centro de datos y costos m谩s bajos.

聽Gestores de Contenedores

Gracias a los contenedores, las empresas pueden utilizar las herramientas de gesti贸n como OpenShift y Kubernetes, desarrollado por Google, en colaboraci贸n con Docker (proyecto OpenSource que proporciona una plataforma para los desarrolladores y administradores de sistemas, que permite crear contenedores). Adem谩s de funcionar como equipo de ejecuci贸n de containers, Docker tambi茅n proporciona la gesti贸n de sus sistemas de archivos.

En general, las herramientas de administraci贸n del cl煤ster como Kubernetes, crean una abstracci贸n a nivel de componente de la aplicaci贸n. Esta abstracci贸n, llamada pod, incluye un grupo de uno o m谩s contenedores, almacenamiento compartido y las opciones para operarlos. Agendar pods en una m谩quina en el cl煤ster, representa el Docker ejecutando un container.

Finalmente, podemos concluir que las compa帽铆as adoptar谩n cada vez m谩s arquitecturas de microservicios y aplicaciones en ambientes virtualizados y de nube, usando los contenedores.

 

Por聽Alexandre Cezar es consultor CISSP y experto en seguridad de redes e informaciones聽en Juniper Networks.

 

Cisco ampl铆a el SDN para integrar VMware y contenedores Docker

Cisco Systems esta semana lanz贸 nuevas versiones de software para sus switches Nexus 9000 y SDN ACI (Application Centric Infrastructure) que ofrecen una mejor integraci贸n con ambientes VMware y soporte para contenedores Docker.

El software pretende ampliar las capacidades de ACI en entornos de m煤ltiples proveedores donde existen varios tipos de hipervisores, plataformas de gesti贸n de nube y cargas de trabajo tanto聽聽 f铆sicas, virtuales o de contenedor. Adem谩s Cisco tiene ahora cinco mil clientes para su switch Nexus 9000 y 1100 para ACI y su controlador APIC; VMware -con quien rivaliza en SDN- afirma que tiene ahora 900 clientes de pago para su plataforma de virtualizaci贸n de red NSX.

Esa rivalidad en el campo del SDN no impide que Cisco soporte los ambientes de virtualizaci贸n de servidores de VMware. Por ello el release 1.2 (1x) del software APIC y del NX-OS 11.2 (1X) de la ACI ofrecen ampliaciones para soportar ambientes VDS y vRealize de VMware.

Con ello Cisco agrega la microsegmentaci贸n para cargas de trabajo f铆sicas y virtuales en los releases del nuevo software, incluyendo aquellas en los entornos de VMware vSphere Distributed Switch (VDS) y Microsoft Hyper-V. Esto, adem谩s de las capacidades de microsegmentaci贸n de ACI que ya se encuentran en Application-centric Virtual Switch (AVS) de Cisco.

La capacidad de microsegmentaci贸n permite el aislamiento basado en atributos (direcci贸n IP, sistema operativo o espacio de nombres) para cargas de trabajo f铆sicas sobre bare metal y virtuales sobre VDS y Hyper-V. Tambi茅n permite el aislamiento intragrupal de cargas de trabajo, en donde las m谩quinas virtuales y las cargas de trabajo bare metal dentro del mismo grupo de pol铆ticas de punto final pueden aislarse utilizando firewalls.

El nuevo software ACI tambi茅n cuenta con soporte para VMware vRealize y herramientas de automatizaci贸n de nube OpenStack, incluyendo soporte nativo OpFlex para Open vSwitch. OpFlex es un protocolo de pol铆tica escrito por Cisco, IBM, Microsoft, Citrix y Sungard.

Las pol铆ticas definidas en la ACI pueden hacer que los planes de automatizaci贸n vRealize aceleren el despliegue de aplicaciones, se帽ala Cisco. Tales pol铆ticas pueden cosas como cu谩ndo incrementar la infraestructura de la ACI, el aprovisionamiento de infraestructura, establecer dominios de seguridad, planes de servicios compartidos, configuraciones de nubes privadas virtuales, y otras definiciones de red, subred y seguridad.

Agregar OpFlex a OpenStack es para ampliar la automatizaci贸n de red basada en pol铆ticas de ACI al hipervisor Linux, donde reside Open vSwitch. Un agente de OpFlex reside en el hipervisor mientras que un proxy de OpFlex expone una API de la infraestructura de la ACI ante el controlador de OpenStack.

Esto permite que la ACI ampl铆e las pol铆ticas hacia las funciones de red distribuidas Neutron, incluyendo NAT; proporcione un overlay integrado y administrado centralizadamente e infraestructura underlay, con visibilidad operativa en OpenStack, Linux y APIC; y ofrezca una opci贸n de red virtual o networking de pol铆ticas basado en grupos, afirma Cisco.

La integraci贸n de los contenedores Docker con ACI y APIC se logra a trav茅s de un plugin desarrollado por el Proyecto Contiv de c贸digo abierto de Cisco. El Proyecto Contiv es un esfuerzo por definir pol铆ticas para aplicaciones contenedorizadas.

Gracias a este plugin de c贸digo abierto, las pol铆ticas de la ACI pueden ampliarse en los contenedores Docker, as铆 como en cargas de trabajo f铆sicas y m谩quinas virtuales. El plugin de Docker estar谩 disponible en el primer trimestre del 2016, mientras que aquellos para contenedores Kubernetes y Mesos se planean como futuras ampliaciones.

Otras caracter铆sticas que destacan de los nuevos releases de software, son una capacidad multisitio que permite la automatizaci贸n en base a pol铆ticas para m煤ltiples centros de datos; y soporte para la inserci贸n automatizada de servicios para cualquier servicio de Capa 4/7 sin necesidad de un paquete de dispositivos.

-Jim Duffy, Network World