Aplicaciones, Centro de Datos, Cloud Computing, Del dia, Desarrollo, Desarrollo, Destacado, Gobierno/Industria, Industria, Industria, Industria TIC, Infraestructura, Movilidad, Noticias, Noticias, Redes, Seguridad

AWS anuncia la disponibilidad de instancias C5 para Amazon EC2

Amazon Web Services (AWS) anunció la disponibilidad de instancias C5, la siguiente generación de instancias optimizadas para Amazon Elastic Compute Cloud (Amazon EC2).

Leer más...

Aplicaciones, Centro de Datos, Cloud Computing, Del dia, Desarrollo, Destacado, Industria, Infraestructura, Movilidad, News, Noticias, Seguridad

BMC acelera el proceso de migración hacia AWS

BMC anunció una alianza con Amazon Web Services (AWS) para ayudar a los clientes a mover las cargas de trabajo empresariales a la nube de Amazon.

De acuerdo con la encuesta Frost & Sullivan Cloud User Survey, el 57% de quienes toman las decisiones sobre TI consideran que la migración de datos y aplicaciones a la nube representa un desafío.

Leer más...

Cloud Computing, Del dia, Industria, Noticias, Principal, Seguridad

¿Qué es la computación en nube híbrida?

Cómo construir una nube híbrida y lo que significan Amazon, Microsoft y Google en la núbe híbrida.

Muchos creen que la Nube Híbrida es el estado final en el que operan la mayoría de las empresas: algunos recursos de infraestructura en las instalaciones, otros en la nube pública. Otros creen que es un término que ha sido confundido por diversas definiciones de una variedad de proveedores, lo que disminuye el término para que ahora sea vago y nebuloso.

Entonces, ¿qué significa realmente la nube híbrida y cómo pueden los usuarios implementarla?

¿Qué es la computación en nube híbrida?

Si bien no existe una única definición acordada de computación en nube híbrida, tal vez lo más cercano que tenemos es de los Institutos Nacionales de Estándares en Tecnología (NIST): la infraestructura en la nube (híbrida) es una composición de dos o más infraestructuras en la nube distintas (privadas, comunitarias o públicas) que siguen siendo entidades únicas, pero están unidas por tecnología estandarizada o propietaria que permite la portabilidad de datos y aplicaciones.

¿Qué significa eso en términos simples? Básicamente, la mayoría de las personas creen que la computación en nube híbrida significa gestionar una nube pública y una privada como una sola, o al menos poder tener herramientas de administración en ambos entornos. Sin embargo, hay muchos tipos de nube híbrida.

Arquitecturas híbridas en la nube

Si tiene más de un entorno de nube (público y privado, multipublico), entonces puede ser útil contar con una plataforma de administración que abarque estos entornos. Administrar estos entornos por separado puede crear una duplicación innecesaria de esfuerzos y riesgos de seguridad potenciales.

Hay múltiples enfoques para la arquitectura de una nube híbrida:

Software híbrido de gestión de la nube: una plétora de nuevas empresas y proveedores de gestión de infraestructura establecidos han desarrollado un software que permite a los usuarios gestionar de forma centralizada tanto la infraestructura como las aplicaciones en la nube pública y local. En una sola consola, las máquinas virtuales, el almacenamiento, las bases de datos y otros recursos se pueden girar hacia arriba y hacia abajo, independientemente de si están en un centro de datos de la empresa o en la nube pública.

Nube híbrida nativa de vendedor

Otra forma de pensar en la arquitectura de una nube híbrida es ampliar la huella local a la nube pública o viceversa, y conectar los recursos de la nube pública con un centro de datos. En los últimos años, todos los vendedores en la nube de infraestructura popular como servicio (IaaS) han hecho esto más fácil de hacer.

Para la extensión local a la nube pública, las compañías que incluyen VMware, Red Hat, Hewlett Packard Enterprise, Cisco, Dell e IBM permiten a los clientes administrar los recursos de la nube pública. Mientras tanto, los proveedores públicos de IaaS están creando conexiones desde su nube pública a los centros de datos de sus clientes (vea más abajo sobre las estrategias específicas de proveedores de la nube a continuación).

PaaS

Muchas organizaciones utilizan una plataforma como servicio (PaaS), una plataforma de desarrollo de aplicaciones para que los desarrolladores escriban aplicaciones personalizadas sin proporcionar la infraestructura subyacente que necesitan para funcionar. Ejemplos de PaaS incluyen Pivotal Cloud Foundry, Red Hat OpenShift, IBM Bluemix y Apprenda. La mayoría del software principal de PaaS puede ejecutarse en las instalaciones del cliente, alojadas en un entorno privado o de forma nativa en la gran nube pública de IaaS. PaaS configura automáticamente los recursos de infraestructura en estos entornos, convirtiéndolos en una plataforma para la nube híbrida.

AWS, Microsoft y Google se acercan a la nube híbrida

A pesar de una reticencia anterior, los principales proveedores de IaaS en los últimos años han adoptado la integración de su infraestructura de nube pública con los recursos locales de los clientes. Los vendedores están creando herramientas que funcionan en estos entornos y se están asociando con empresas que tienen fuertes vínculos en centros de datos empresariales.

Amazon Web Services: AWS, visto por la mayoría como el líder de la nube público de IaaS, inicialmente se mostró reticente a comercializarse como una compañía de nube híbrida, en lugar de centrarse en sus capacidades de nube pública. En los últimos años, AWS ha creado herramientas como Amazon Storage Gateway, AWS DirectConnect y herramientas de desarrollo de aplicaciones como CodeDeploy. Quizás el mayor movimiento de AWS para respaldar la nube híbrida es una importante alianza con VMware que se anunció por primera vez en 2016. Los clientes pueden ejecutar una suite completa de software VMware en una infraestructura dedicada en la nube pública de AWS.

Microsoft Azure: de los tres grandes proveedores de la nube de IaaS, Microsoft ha sido, con mucho, el vocal más importante en marketing como una compañía de nube híbrida, lo cual no es sorprendente dada su popularidad en la mayoría de las tiendas de informática ya. La plataforma de nube híbrida primaria de Microsoft se denomina Azure Stack, que es un hardware de infraestructura convergente distribuido por Dell EMC, Cisco, Lenovo y HPE. Está diseñado para funcionar como la nube pública de Azure, pero se encuentra en las instalaciones de los clientes. Microsoft también permite que muchas de sus herramientas de administración de software se extiendan dentro de las instalaciones, incluida su plataforma de administración de acceso y seguridad de Active Directory, así como su amplia gama de aplicaciones SaaS, incluida Office 365 y Outlook.

Plataforma Google Cloud: como AWS, Google centró sus primeros esfuerzos de marketing en la nube pública. Desde que la compañía contrató a la ex CEO de VMware, Diane Greene, para encabezar sus esfuerzos en la nube, ha adoptado más plenamente la nube híbrida. El ejemplo más notable de esto es una asociación con Nutanix, el proveedor de infraestructura hiperconvergible, que permite a los clientes ejecutar aplicaciones en Nutanix en las instalaciones y en la nube pública. Google también se asoció con VMware. Google tiene software que se ejecuta en una nube pública y local llamada Kubernetes. Esta plataforma de gestión de contenedores de aplicaciones de código abierto desarrollada por Google puede ejecutarse en las instalaciones o en la nube pública de Google en Google Container Engine.

Brandon Butler

Leer más...

Aplicaciones, Artículos, Centro de Datos, Certificaciones, Cloud Computing, Del dia, Desarrollo, Desarrollo, Gobierno/Industria, Industria TIC, Infraestructura, Más, Movilidad, Network World, Principal, Reporte Especial

[Reporte Especial] El Centro de Datos: convergencia entre on site y cloud

La digitalización del negocio es un paso obligatorio de la empresa, donde cada vez se adoptan más tecnologías disruptivas como Big Data, movilidad e incluso el Internet de las Cosas y la Inteligencia Artificial, haciendo que toda esta carga de procesos y generación de datos recaiga dentro de las operaciones TI y, específicamente, en el centro de datos. Esto obliga a las empresas a invertir en infraestructura y apoyarse en la nube.

Según una encuesta de IDC a líderes TI en las empresas, el 72% de ellos cree que la transformación digital y el crecimiento del negocio es la principal razón para modernizar su infraestructura TI. La consultora afirma que en los últimos tres años la nube híbrida maduró, mientras que las arquitecturas definidas por software y las infraestructuras hiperconvergentes han modificado el estado actual de la infraestructura de TI.

Sin duda la nube se ha convertido en una tendencia que ha crecido con la transformación digital, siendo un aliado para ofrecer agilidad al negocio. ¿Será el centro de datos híbrido el siguiente paso obligatorio? ¿Ya no es suficiente la TI tradicional?

Arturo Benavides, Primary Storage Sales Director en Dell EMC Latinoamérica.

El reto es claro: o se modifican, se redefinen o están condenados a caer en el mercado. Al menos así lo consideró Arturo Benavides, Arturo Benavides, Primary Storage Sales Director de Dell EMC Latinoamérica.  “La transformación digital está obligando a todas las empresas a redefinirse y lo está haciendo a través de nuevas aplicaciones de negocio que son más nativas en cloud, apalancando la tercera plataforma. Para esto se tiene que iniciar modernizando las TI”, comentó.

Según un estudio realizado por esta compañía –en el cual se entrevistó a los CIO de 3,000 organizaciones alrededor del mundo– un 45% tiene claro que si no adoptan la transformación digital (conocida también por las siglas DX),  estarán fuera del mercado en un plazo de unos tres años. Sólo un 5% de los entrevistados ya había definido una estrategia de DX, 12% se encuentra trabajando un modelo muy tradicional, y 42% están empezando a tomar iniciativas de transformación.

Convergencia entre On site y cloud

Por su parte, la firma de consultoría Gartner reconoce la necesidad de alinear iniciativas TI para impulsar el valor de negocio a través del desarrollo ágil, la convergencia de tecnología e infraestructura, y la modernización, automatización y migración a plataformas en la nube. “Los encargados de infraestructura y operaciones, así como sus equipos de trabajo, deben garantizar que los sistemas existentes sean confiables mientras implementan los cambios necesarios para sustentar las nuevas cargas de trabajo”, aseveró Federico De Silva León, Director de Investigación de Gartner.

Federico De Silva León, Director de Investigación de Gartner.

Para HPE, la transformación digital de los negocios se trata de un paso obligatorio que, en definitiva, tocará cada una de las empresas en México y el mundo, donde la perfecta convergencia entre on site y cloud jugará un papel protagónico. “Esto claramente impacta en el centro de datos y la nube. En HPE creemos que vamos a vivir en un mundo híbrido”, puntualizó Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dijo que la compañía tiene tres primicias al respecto: 1) el mundo será híbrido con in house y cloud; 2) la periferia que hoy genera tráfico en la red y datos van a apalancar la generación de aplicaciones; y 3) se transformará el modo en que se entregan este tipo de tecnología, que en HPE se cree será a través de servicios. “Debemos ver las cargas que realmente se necesiten llevar a la nube, cuáles podemos comprar como servicios y cuáles aún tienen que vivir en el centro de datos”, aseveró Lomelín.

Alejandro Lomelín, Director de Ventas para Soluciones de Data Center para Hewlett Packard Enterprise (HPE).

Dell EMC ofrece un modelo similar para llevar el negocio hacia la digitalización aplicando mejoras en el centro de datos y la nube, al que han denominado MAT (Modernizar, Automatizar y Transformar). Con este modelo ayudan a las empresas a entender qué se debe modernizar en las TI, cómo se pueden automatizar los procesos en el centro de datos y transformar a la gente.

Para Adrián Simg, Data Center Group Executive de Lenovo, lograr la convergencia perfecta entre el centro de datos y cloud es un proceso completo de transformación que va más allá de proveer una mejora en infraestructura física. “No sólo se trata del fierro, el almacenamiento y el procedimiento, se trata de cómo hago uso de todo ello, para lo cual se requiere software y personas”, comentó Simg.

 

Principales obstáculos

Lograr tal convergencia parece no ser una tarea sencilla. Al respecto, Gartner señala que uno de los principales retos a los que se enfrenta el CIO tiene que ver con la administración de presupuestos TI de modo eficaz. Según una encuesta de la consultora, este 2017 la segunda prioridad para CIOs en América Latina tiene que ver con modernización de Infraestructura y operaciones (mencionado por el 32% de sus encuestados).

Sin embargo, los presupuestos han sido recortados. Las empresas deben entender que no sólo se trata de recortar presupuestos, sino de generar valor y tratar las inversiones TI como activos, no como gastos. “Las organizaciones de TI que quieren ser exitosas en el futuro deberán poner el eje no sólo en la tecnología, sino también en los resultados de negocio”, comentó De Silva León, de Gartner.

 

Hacia dónde se destinará la inversión

Para Dell EMC, si bien la cuestión de presupuestos parece un obstáculo ahora, hacer el esfuerzo por invertir en modernización trae a la empresa beneficios no sólo en costos, sino en productividad del personal, redireccionando esfuerzos a resultados. “Al modernizar se obtienen ahorros significativos en operación y automatización. Estos ahorros los inviertes ahora en investigación, desarrollo e innovación, permitiendo hacer el circulo virtuoso de lo que es la transformación digital”, aseveró Arturo Benavides.

Esto es lo que permite vislumbrar un mercado prometedor en México. “Vemos que la inversión en general de centros de datos en el país crecerá alrededor del 10% en forma anual por lo menos por los siguientes cinco años”, aseveró Marco Damián, Gerente de Mercado Financiero de Panduit. Agregó que muchos centros de datos han crecido bajo demanda, es decir, conforme han surgido las necesidades. “El área de oportunidad que vislumbramos es que este crecimiento por parte de los usuarios se realice en forma estructurada y ágil, destinando importantes recursos para optimizar la parte de energía y enfriamiento en el centro de datos”.

Marco Damián, Gerente de Mercado Financiero de Panduit.

Y por lo que respecta a los proveedores de servicios, las expectativas de crecimiento parecen fundamentarse en soluciones a la medida. “Un elemento importante es ofrecer todo bajo servicio, es decir, no nada más la infraestructura, las aplicaciones o el software sino todos los componentes bajo un modelo integrado con el centro de datos”, resaltó Ricardo Rentería, Director General de Amazon Web Services en México.

De acuerdo con el directivo, esto significa ofrecer soluciones de ERP, web o almacenamiento que pueden ser integradas bajo el concepto de cloud, aportando características de elasticidad y facturación por minuto/hora con los conceptos de los centros de datos actuales. “Esto garantiza la extensión de las inversiones que los clientes ya tienen, incorporando la innovación que ofrece cloud”, señaló Rentería.

Ricardo Rentería, Director General de Amazon Web Services en México.

Otro de los proveedores de infraestructura en este sector, Intel, busca habilitar nuevos modelos de negocio para entregar servicios más personalizados y orientados hacia un sector o empresa en específico, de manera “que al proveedor de nube le dé una ganancia adicional y al usuario una mejora en la experiencia, así como un modelo de negocio más ajustado a lo que necesita”, explicó Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Dijo que la inversión en los centros de datos se debería enfocar hacia dos grandes rubros: un cambio completo en la cultura organizacional (“más ágil, rápida y abierta en cuanto a dónde se genera la información para tomar decisiones”) y hacia una plataforma digital, en la cual intervenga la toma de decisiones informada (con base en Big Data), a partir de muchas fuentes (Internet de las Cosas), con plataformas que mantengan la confianza que ha ganado la empresa con sus clientes, “y que sea un centro de trabajo con pensamiento innovador que genere una experiencia continua hacia el cliente con interacción 7×24”, explicó Cerecer.

Pedro Cerecer, Director de Cloud Service Providers para Intel Américas.

Por su parte, Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam, afirmó que, de acuerdo con una encuesta aplicada a nivel mundial, en México el 60% de las organizaciones que están invirtiendo en plataformas de Software o en Infraestructura como Servicio, o bien, planean hacerlo en los próximos 12 meses. Este porcentaje es significativo, ya que duplica el promedio de inversión en estos rubros declarado a nivel global. Montes de Oca agregó que su empresa ofrece disponibilidad para el centro de datos moderno, “con tiempos de recuperación menores a 15 minutos para cualquier organización, independientemente de dónde se encuentre su nube”.

Rodolfo Montes de Oca Ruiz, Ingeniero de Preventa de Veeam.

Ofrecer este tipo de garantías puede asegurar “una larga vida” al centro de datos. De hecho, información proporcionada por Furukawa Electric, empresa dedicada al sector de telecomunicaciones, energía y electrónica, señala que el 76% de los datos que existen a nivel mundial residen dentro de un data center (DC), un 17% se encuentran entre el DC y el usuario, y el 5% restante interactúan entre varios centros de datos. “Además, hay muchas cosas que cambiarán en el ámbito de los data centers: la descentralización de la nube, la distribución de contenido más cercana al usuario, y datacenters distribuidos con ancho de banda hiperescalables con velocidades de 200 y 400 gigas”, advirtió Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Germano Alves Da Costa, Ingeniero de Data Center en Furukawa Electric.

Seguridad, control de riesgos y backup

No obstante lo anterior, aún persiste una falta de conciencia respecto a la seguridad de los datos y los sistemas, al menos esa es la perspectiva de Alejandro Lomelín, de HPE, quien aseguró que en las empresas debería haber un mejor manejo de la información y una mejor gobernabilidad. “La información debería vivir en dispositivos muy seguros que no sean vulnerados ni por externos ni por empleados mal intencionados”.

Y es que al producirse mayor cantidad de datos y procesos se generan mayores densidades de calor en diferentes áreas de las salas que alberga el centro de datos. “Es necesario entonces un adecuado sistema de enfriamiento que permita la continuidad del negocio, evitando caídas de sistemas provocadas por el sobrecalentamiento de los equipos”, dijo Alejandro Sánchez, Director Comercial de Stulz México.

Alejandro Sánchez, Director Comercial de Stulz México.

Para lograr lo anterior, recomendó nivelar la carga de energía en todo el centro de datos, estableciendo zonas de baja, media y alta densidad para así enfocar los diferentes niveles de esfuerzos en esas zonas para el suministro del aire acondicionado. “Es un hecho que hoy día estamos viendo una tendencia creciente a que todos los servicios sean a través de la nube y para esto todos los componentes, incluidos los sistemas de enfriamiento, deben estar preparados”, resaltó Sánchez.

Por otra parte, las certificaciones de seguridad juegan un papel importante en esta transformación, especialmente al momento de seleccionar un proveedor de servicios de nube, para que éste garantice que los datos no se van a ver comprometidos, ni mis procesos detenidos. “Existen diferentes niveles de certificación, dando un nivel de confiabilidad que depende de que, en caso de que suceda algo, cuánto tiempo me tardo en recuperar esa continuidad. Entre menos tiempo me tarde, un nivel de certificación más alto se obtiene”, aseguró Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

Eurídice Ibarlucea, Especialista en sistemas de supresión de incendios en Victaulic.

El papel del CIO en este proceso

Gartner reconoce la importancia de destacar el papel del CIO en este proceso y la necesidad de transformar el rol que ejerce dentro del área TI, pasando de ser simples gerentes a convertirse en asesores confiables de los CEO. Según esta firma consultora, deben estar conscientes de que aquellas habilidades que les permitieron llegar a su puesto no necesariamente los llevarán al siguiente nivel.

“Si bien la tecnología siempre será importante, no es lo único ni lo primordial para el CIO, dado que las personas y los procesos de operación de TI resultan tanto o más importante en este proceso”, afirmó Silva León, de Gartner.

Se trata de una primicia compartida también por HPE: “Queremos empoderar a este personaje de tecnología, al área de Sistemas, para que se vuelva un bróker de estos servicios y tenga cierta gobernabilidad de todo el proceso”, comentó Lomelín.

Los CIO deben entender que su papel está cambiando, que se están convirtiendo en habilitadores de servicios, y deben entender que la TI es el medio para lograr que las aplicaciones de negocio trabajen de un modo más eficiente, rentable y seguras, y deben asegurarse de tener las herramientas para poder orquestar el movimiento de la información, de acuerdo con Benavides, de Dell EMC.

Innovación en Data center, un paso obligatorio

Gartner destaca la necesidad de aumentar la influencia mediante innovación, con la construcción de sistemas de TI ágiles y definidos por software, así como detectar comportamientos anormales para monitorear, gestionar, medir, asegurar y alertar; automatizar la toma de decisiones a partir de datos, y unirse a la economía de las API.

Si bien el cloud computing es una solución que llegó para quedarse al ofrecer muchas ventajas para el negocio, el centro de datos no va a desaparecer, al menos así lo consideró Adrián Simg, de Lenovo. “No creo que una empresa vaya a una nube al 100%. Siempre existirá un equilibrio entre el centro de datos y cloud, si bien puede haber más procesamiento o almacenamiento en la nube, pero el centro de datos jamás dejará de existir”, afirmó.

Es por ello que las empresas no deben dejar este importante proceso de actualización de su infraestructura on site de lado, a través de una serie de herramientas, productos y servicios que les ayuden a efientar el data center.

“La optimización de todo lo que tienes en el centro de datos es algo que no va a parar. Pero los ingredientes adicionales que se le ponen al centro de datos para amalgamar este proceso serán la clave”, aseguró Alejandro Lomelín, de HPE.

Uno de los avances más significativos en este aspecto es el almacenamiento, que ha pasado del tradicional gran gabinete lleno de discos duros giratorios que generaban mucho ruido, ocupaban gran espacio y consumían altos niveles de electricidad, al almacenamiento flash que no genera ruido, disminuye en gran medida la generación de calor y consumen mucho menos electricidad. Hoy en día son drives con mucha más capacidad en menos espacios. Además, ayuda a reducir costos operativos, eficientizar la administración generando un centro de datos verde.

Otras de las innovaciones que se han dado en los últimos años a fin de robustecer la infraestructura para el centro de datos tiene que ver con sus sistemas de supresión de incendios, pasando de sistema tradicional de chorros de agua o químicos que suelen ser dañinos para el ambiente y las personas, a sistemas híbridos.

Estos sistemas híbridos combinan nitrógeno (un gas inerte que no acelera el calentamiento global), con micromoléculas de agua para generar una emulsión que no produce humedad residual, permitiendo proteger el centro de datos y áreas críticas, sin interrumpir las actividades del mismo.

Si se comparan los sistemas tradicionales a chorro de agua –que requieren procedimientos más complejos como almacenamiento de agua, bombas, rociadores y otra clase de infraestructura pesada–, los sistemas híbridos sólo necesitan de un almacenamiento reducido de agua y nitrógeno conectado a tuberías de áreas críticas que se están protegiendo. Además, el costo por toda la infraestructura que debe sobrellevar es mucho menor.

“Si se nos cae el sistema, estás dejando de vender, estás perdiendo confiabilidad y clientes. Una vez que pierdes un cliente estás perdiendo negocio, participación de mercado, y otra serie de grandes pérdidas intangibles, pero que a veces tienen más valor que el monetario, incluso estamos hablando de cosas irreemplazables”, puntualizó Eurídice Ibarlucea, de Victaulic.

Esta nueva alternativa es amigable con el medio ambiente, al mismo tiempo que protege los activos que se están resguardando, evitando que se detenga la transmisión de datos, avalando la continuidad del negocio y operaciones.

Para finalizar, Stulz recomendó contar con una plataforma de DCIM (Data Center Infrastructure Management) que permita tener una completa visibilidad y administración de toda la infraestructura física, y no sólo la parte del enfriamiento.

Por su parte, Ricardo Rentería, de AWS, aseveró que todavía veremos la integración entre ambientes site y cloud por algunos años más, “debido a que hay una fuerte inversión en centros de datos locales en México, ya sean propios o por contratos de outsourcing o hosting.

“En lo que las empresas hacen un ciclo completo de proyecto, capacitación, habilitación, definición de estrategias hasta llegar a un cloud natural, veremos una etapa de transición de por lo menos dos años. Tras ese periodo, veremos compañías que ya harán cloud al 100%”, concluyó Rentería.

 

Por Karina Rodríguez y José Luis Becerra

Leer más...

Aplicaciones, Cloud Computing, Del dia, Desarrollo, Destacado, Industria, Movilidad, News, Noticias, Seguridad

AWS añade a sus servicios facturación por segundo     

AWS añade a sus servicios facturación por segundo, este nuevo servicio, señala la empresa que será efectiva a partir del próximo 2 de octubre, afecta a clientes de servicios de instancias EC2, y a los volúmenes de provisión de almacenamiento EBS. La facturación por segundos también es aplicable a Amazon EMR y AWS Batch.  

Con el nuevo anuncio, no solo la facturación por segundos llega a los indicados en el titular EC2 y EBS, sino que también se hace extensible a Amazon EMR y AWS Batch. Así, a partir del 2 de octubre, el uso de instancias de Linux que se inicien en modo bajo demanda On-Demand, Reserved y Spot se facturarán en incrementos de segundos. De forma similar, el almacenamiento provisto para volúmenes EBS se facturará de igual forma. 

Como bien destaca en el blog de la compañía Jeff Barr, Chief Evangelist en Amazon Web Services, “cuando lanzamos EC2 en 2006, la capacidad de usar una instancia durante una hora y pagar solo por esa hora fue una noticia revolucionaria”. El modelo de pago por uso inspiró a nuestros clientes para pensar en nuevas formas de desarrollar sus soluciones, probar y ejecutar aplicaciones de todo tipo, destaca el directivo. 

En la actualidad, parece que AWS está replanteándose la forma de comercializar sus servicios con el fin de ofrecer a los clientes lo que vienen demandando. Barr afirma que “muchos de nuestros clientes sueñan con poder hacer uso de aplicaciones para EC2 con la ejecución de un gran número de instancia en menos tiempo, en ocasiones, solo unos minutos”.   

Amazon EMR, los clientes de la compañía agregan capacidades EMR a sus clusters con el fin de obtener resultados inmediatos. Con la facturación por segundo para las instancias en los clústers de EC2, la suma de nuevos nodos será mucho más rentable para las compañías. 

Barr también indica que “la facturación por segundos evita la necesidad de esta capa adicional de gestión de instancias y aporta ahorro en costes importantes a aquellos clientes que constantemente estén barajando distintas cargas de trabajo. 

Una de las ventajas de la utilización de servicios Cloud es la naturaleza del aprovisionamiento o desprovisionamiento de los recursos según las necesidades. Al facturar por segundos, va a ser posible que los clientes de la compañía tengan mayor elasticidad a la hora de aprovechar los servicios ofrecidos por AWS. 

¿Dónde es aplicable? 

Este cambio se hace efectivo a partir del próximo 2 de octubre en todas las regiones de AWS para todas las instancias de Linux que se inician o se están ejecutando. La facturación por segundo no se aplica actualmente a las instancias que ejecutan distribuciones de Microsoft Windows o Linux que tienen un cargo por hora por separado. Hay un cargo mínimo de 1 minuto por instancia. A falta de que la compañía ofrezca más detalles, los precios de lista y los precios de mercado parece que seguirán cotizados por hora, pero las facturas se calculan hasta el segundo, al igual que el uso de cada instancia reservada. También, las cuentas mostrarán épocas en forma decimal, como aporta el directivo en el post publicado, y en su cuenta de twitter.  

Alfonso Casas  

 

 

Leer más...

Aplicaciones, Cloud Computing, Del dia, Desarrollo, Destacado, Infraestructura, Movilidad, Noticias, Tecnologia

VMware anuncia la disponibilidad inicial de VMware Cloud en AWS

El lanzamiento se realizó durante el VMworld 2017, VMware y Amazon Web Services anunciaron la disponibilidad inicial de VMware Cloud en AWS. Derivado de una alianza estratégica anunciada en octubre de 2016, VMware Cloud en AWS ofrece el centro de datos definido por software de VMware a la nube de AWS, el cual permite a los clientes ejecutar aplicaciones operacionalmente coherentes a través de entornos de nube híbridos, públicos y privados basados en VMware vSphere, con un acceso optimizado a los servicios de AWS.

VMware Cloud en AWS es suministrado, vendido y soportado por VMware como un servicio en la nube elásticamente escalable que elimina las barreras para la migración a la nube y la portabilidad de la nube, aumenta la eficiencia de TI y abre nuevas oportunidades para que los clientes aprovechen un ambiente de nube híbrido.

Los clientes de todas las industrias están acelerando la adopción de la nube de AWS y la infraestructura de VMware, y muchos de ellos quieren la capacidad de integrar perfectamente sus centros de datos locales con AWS utilizando sus herramientas y habilidades existentes con un entorno operativo común basado en el software familiar de VMware.

“VMware y AWS están añadiendo a los equipos de TI y operaciones de las empresas para agregar valor a sus negocios a través de la combinación de las capacidades empresariales de VMware y la amplitud y profundidad de las capacidades y escalabilidad de la nube de AWS, proporcionándoles una plataforma para cualquier aplicación,” comentó Pat Gelsinger, CEO de VMware.

Jassy, CEO de AWS, señaló, “la mayoría de las empresas del mundo han virtualizado sus centros de datos con VMware, y ahora estos clientes pueden mover fácilmente aplicaciones entre sus entornos locales y AWS sin tener que comprar ningún hardware nuevo, reescribir sus aplicaciones o modificar sus operaciones.”

VMware Cloud en AWS ofrece:

  • Capacidades empresariales de VMware SDDC con agilidad, funcionalidad incomparable y experiencia operacional de la nube pública líder de AWS
  • Habilidades, herramientas y procesos idénticos para administrar entornos de nube públicos y privados para que los clientes tengan operaciones consistentes, productividad mejorada y costos reducidos
  • Portabilidad de la carga de trabajo transparente, rápida y bidireccional entre nubes privadas y públicas
  • Flexibilidad para elegir dónde ejecutar aplicaciones basadas en las necesidades empresariales, mientras que se tiene acceso a un amplio conjunto de servicios de AWS y elasticidad de infraestructura para entornos VMware SDDC
  • Tiempo rápido para valorar con la capacidad de escalar la capacidad del anfitrión hacia arriba o hacia abajo en unos pocos minutos, y girar un completo VMware SDDC en menos de un par de horas
  • Capacidad para ejecutar, administrar y asegurar aplicaciones en un entorno de TI híbrido sin tener que comprar hardware personalizado, volver a escribir aplicaciones o modificar modelos operativos

Finalmente, las empresas señalan que VMware Cloud en AWS es ideal para clientes que buscan migrar aplicaciones a la nube pública, desarrollar aplicaciones totalmente nuevas, ampliar la capacidad de sus centros de datos para aplicaciones existentes o proporcionar rápidamente entornos de desarrollo y prueba. También soportará cargas de trabajo en contenedores y servicios de DevOps como Pivotal Cloud Foundry y otros.

Para comenzar a usar VMware Cloud en AWS, visite http://cloud.vmware.com/vmc-aws.

N. de P. AWS

 

Leer más...

Aplicaciones, Del dia, Desarrollo, Destacado, Movilidad, News, Noticias, Seguridad

Las cargas de trabajo en nube pública pueden no ser tan seguras

Las empresas están constantemente innovando para expanderse globalmente y están descubriendo que la nube pública ofrece la escalabilidad y elasticidad necesaria para permanecer competitiva. Para muchos, Amazon Web Services (AWS) se ha convertido en el fabricante IaaS preferido con más del 40% de la cuota de mercado de servicios en nube pública.

Pero ya sea que actualmente se encuentre ya en la nube pública o esté pensando en migrar a ella, la seguridad y protección contra amenazas debe ser una prioridad. De otra forma, puede exponerse a potenciales y graves riesgos.

¿La nube pública ofrece Protección contra amenazas de seguridad?

Amazon Web Services tiene una responsabilidad compartida con sus clientes, lo que significa que AWS gestiona la seguridad de la nube proporcionando seguridad física y de tipo IaaS hasta la capa de hipervisor. Pero, cuando se trata de seguridad en la nube, el cliente es responsable; a él le corresponde garantizar políticas de seguridad eficaces para el contenido, la plataforma, las aplicaciones, los sistemas y las redes que se ejecutan dentro de la nube.

Gigamon y RSA proporcionan la visibilidad y la seguridad que necesita en la nube

Gigamon y RSA se han unido para desarrollar una solución integrada que permite una visibilidad penetrante e inteligente de las cargas de trabajo en AWS. Desde el punto de vista de la seguridad, RSA NetWitness Suite proporciona una plataforma de supervisión e investigación completa que detecta amenazas avanzadas mediante la recogida, filtrado y análisis en tiempo real de paquetes de red, NetFlow y datos de registro en toda la infraestructura de AWS. La Plataforma de Visibilidad de Gigamon complementa y mejora la solución RSA proporcionando acceso al tráfico adecuado en las instalaciones y en AWS reflejando el tráfico seleccionado de cargas de trabajo supervisadas y agregando y distribuyendo inteligentemente el tráfico optimizado a la Suite NetWitness.

Por lo tanto, ahora no hay necesidad de desplegar soluciones puntuales separadas para sus cargas de trabajo in situ y en la nube. En su lugar, puede aprovechar la suite RSA NetWitness integrada con Gigamon para ahorrar tiempo, dinero y recursos en toda su infraestructura.

Finalmente, puede ver cómo obtener visibilidad automatizada en sus cargas de trabajo en la nube, distribuir copias del tráfico y aprovechar la potencia de las aplicaciones GigaSMART para la inteligencia de tráfico. Podrá experimentar de primera mano cómo NetWitness Suite recibe el tráfico de red prioritario de la plataforma de visibilidad Gigamon para investigar e identificar rápidamente posibles amenazas a sus aplicaciones AWS.

Diana Shtil, Senior Manager, Product Marketing, Gigamon

 

Leer más...