Etiqueta: computación en la nube

Cómo agilizar el negocio con NetApp FAS All-Flash

NetApp

Tener disponible arquitectura hibrida de almacenamiento, como FAS8000, hace que las empresas puedan adaptarse a requisitos clave como el tiempo de actividad y la escala, de esta forma se pueden obtener una mejor rentabilidad.

La clave de este entorno es aumentar la competitividad, con ello llegar al éxito empresarial que se espera, poder tener buena optimización en la tecnología que se tenga disponible, hará que aumente el rendimiento de la organización. La tecnología FAS All-Flash (AFF) es una oportunidad real para las empresas que ya están comenzando a comprobar los beneficios que ésta ofrece en una de las áreas críticas: la administración de datos empresariales.

Uno de los sistemas que ofrece la oferta de NetApp en lo que se refiere a sistemas es de almacenamiento FAS tiene un largo historial de implementaciones a sus espaldas, con una base de clientes muy diversa que, en esencia, apuestan por el almacenamiento FAS para abordar sus entornos de misión crítica. Estos sistemas de NetApp, desde sus inicios, se han empleado varios tipos de conexión con los servidores, ya sea a través de soluciones iSCSI, NAS, Fibre Channel, o Fibre Channel sobre Ethernet (FCoE), con el fin de ofrecer la máxima flexibilidad y garantizar el máximo rendimiento. A la eficiencia energética de estos equipos, se unen la posibilidad de integrarse con aplicaciones de negocio, y utilizar los principales hipervisores del mercado, con el fin de gestionar el almacenamiento de manera eficiente sin dejar de lado la alta disponibilidad de los datos. La familia que tiene la firma destaca que las soluciones de almacenamiento FAS de NetApp sea una gran apuesta para entornos virtualizados, especialmente aquellos en los que habitualmente corren aplicaciones de misión crítica.

En la actualidad este procedimiento  la configuración FAS All-Flash la forman sistemas FAS8000, las cuales combinan la funcionalidad del sistema operativo Data ONTAP con avanzadas herramientas de gestión y protección de datos. Esta modalidad ofrece una escalabilidad vertical sin precedentes a la vez que elimina el tiempo de inactividad planificado con operaciones no disruptivas. Mediante el uso del software apropiado, es posible aprovecharse de las funciones de recuperación instantánea de datos, del clonado instantáneo, de la replicación de datos, del backup de disco a disco, así como de la recuperación de datos integrada con aplicaciones. Con el software de virtualización de almacenamiento FlexArray, es posible virtualizar cabinas E-Series de NetApp, así como almacenamiento externo de otros fabricantes, como es el caso de las de EMC, HP, o Hitachi. FlexArray se ejecuta en los sistemas FAS8020, FAS8040, FAS8060 y FAS8080 EX, conectando las cabinas externas a las controladoras mediante una red SAN Fibre Channel.

data-center

La firma es reconocida ya que destaca por la arquitectura que ofrece frente a otras soluciones del mercado, es por la capacidad de albergar varias cargas de trabajo de misión crítica. Es en estos entornos donde las configuraciones FAS All-Flash ofrecen el nivel de rendimiento necesario que las grandes organizaciones demandan, con la latencia más baja para garantizar la continuidad de los procesos de negocio y la disponibilidad de sus servicios. Aunado a esto, los servicios de almacenamiento de Data ONTAP  permiten la virtualización del servicio de almacenamiento, con el fin de crear entornos de almacenamiento definido por software, donde tienen cabida el almacenamiento de los datos en clouds privados, públicos e híbridos.

Con una carrera de 20 años la compañía lleva ofreciendo soluciones de almacenamiento en entornos de misión crítica, varias han sido las tecnologías pioneras desplegadas, como la incorporación de la conectividad 10Gb Ethernet, o el soporte para FCoE en 2009. Con la última plataforma de almacenamiento presentada, la compañía garantiza a sus clientes unas interconexiones que soportan tanto 10 Gb Ethernet FCoE, como 16 Gb Fibre Channel. Pero no debemos olvidar que gran parte del éxito de la familia de sistemas de almacenamiento FAS proviene del sistema operativo Data ONTAP de NetApp, el cual corre sobre cualquier modalidad de sistemas FAS.

La tecnología que se describe es la que se debe aprovechar en estos tiempos, con esto se marcará el futuro del almacenamiento empresarial: mejor conocido como la nube. Los sistemas unificados FAS8000 pueden ser integrados en los centros de datos para que los proveedores exploten al máximo las posibilidades del cloud híbrido.

El apostar por un ambiente de trabajo FAS All-Flash permite obtener un retorno de inversión más rápido al reducir costos y optimizar las cargas de trabajo en base al uso de la tecnología flash. Es posible ampliar esta información, a través del sitio web de NetApp.

-Redacción

Nube híbrida, la tendencia que estará presente en 2014

Nube híbrida en 2014La compañía NetApp hace un recuento de las previsiones para este 2014, fijándose en el impacto que tendrán en el sector, tecnologías como flash, cloud y la definición por software.

1. Las clouds híbridas dominan la tecnología empresarial.

Ya no habrá tensiones dentro del departamento técnico para evolucionar hacia la nube, al entenderse dentro de las organizaciones la necesidad de ir hacia el modelo de cloud híbrida para dar servicio a su cartera de aplicaciones.

Los directores de información ordenarán su cartera de aplicaciones en función de cuáles deben estar controladas en su totalidad (nubes privadas en las instalaciones), parcialmente controladas (nubes públicas de empresa) y cargas de trabajo transitorias (nubes públicas a hiperescala), y aquellas adquiridas como SaaS (Software como Servicio).

El departamento técnico funcionará como agente de servicios en todos estos modelos de cloud. También quedará constancia de la necesidad de mover con facilidad los datos de aplicaciones entre las clouds y para brindar capacidades de servicio de almacenamiento de forma constante entre los diferentes modelos de nube.

2. Si trabajas en TI, eres un proveedor de servicios.

Cada vez se mirará más al departamento interno de Tecnología como otra opción de servicios. Toda la tecnología de una empresa se considerará “nube privada” y las expectativas de respuesta al negocio, la competitividad de costos y los acuerdos de nivel de servicio se compararán con opciones de cloud externas.

3. El almacenamiento definido por software deja claro la realidad frente a la hiperrealidad.

Según se va aceptando la visión del centro de datos definido por software, la evolución de los componentes de infraestructura es cada vez más clara. Empieza a echar raíces el control del software basado en políticas sobre los componentes de infraestructura tradicional. Las versiones virtuales de los componentes de infraestructura (controladores de red y de almacenamiento) son cada vez más habituales.

Los componentes virtuales más valiosos son los que se integran limpiamente con la red y sistemas de almacenamiento físicos existentes, y pueden ofrecer funciones y servicios constantes y coherentes con los ofrecidos por los controladores físicos tradicionales.

4. Crecimiento del mercado All-Flash.

Ahora que las empresas de almacenamiento convencional han comprendido la importancia de esta tendencia en tecnología el mercado de flash experimentará un mayor crecimiento.

La batalla entre el almacenamiento convencional y las ofertas all-flash de vanguardia tendrá a su vencedor entre aquellos que mejor habiliten a sus clientes para poner en marcha el nivel correcto de rendimiento, confiabilidad y escalabilidad en función de sus necesidades y cargas de trabajo específicas.

Los grandes del almacenamiento convencional con capacidad para ofrecer y dar soporte a productos a nivel mundial liderarán el crecimiento en los mercados internacionales.

5. Las SVM permiten la movilidad de los datos y la agilidad de las aplicaciones.

Al igual que las máquinas virtuales permitían el movimiento de aplicaciones en funcionamiento entre servidores físicos, los Solaris Volume Management (SVM) liberarán los datos del almacenamiento físico específico.

Estos contenedores lógicos de volúmenes de datos simplifican la migración de las cargas de trabajo entre clústeres de almacenamiento y ofrecen la posibilidad de clústeres de almacenamiento altamente disponibles en áreas metropolitanas.

6. El almacenamiento privado y público se verá afectado por cuestiones sobre la  gobernabilidad de los datos.

La adopción del cloud computing y los servicios de almacenamiento ha supuesto un reto para las fronteras geopolíticas, que ha llevado a cierta preocupación en las grandes empresas de muchos países en lo referente a las leyes de transparencia con sus gobiernos, a las cuales están sujetos sus datos. Las organizaciones internacionales buscarán opciones de clouds híbridas que les permitan mantener el control soberano de sus datos y aprovechar al mismo tiempo la economía del cloud computing.

7. OpenStack sobrevive al Híper y avanza con los pioneros.

Durante el 2014, OpenStack continuará ganando impulso y se convertirá en la alternativa “abierta” a los productos comerciales para la orquestación del centro de datos. A medida que las distribuciones de OpenStack se perfilan más hacia el “producto” que hacia el “proyecto”, más empresas y proveedores de servicios comienzan a adoptarlo.

8. La adopción de los 40 Gb Ethernet despega en el centro de datos.

La siguiente evolución de Ethernet, los 40 Gb, comienza a extenderse en el núcleo del centro de datos. Anchos de banda mayores permiten que conjuntos de datos mayores se muevan más rápida y fácilmente, lo que anima al crecimiento de los datos.

9. El almacenamiento en clúster, infraestructura convergente, almacenamiento de objetos, bases de datos en memoria siguen creciendo en 2014.

Algunas tendencias tecnológicas que nacieron en 2013 siguen creciendo. La adopción del almacenamiento en clúster se acelera. La infraestructura convergente se convierte en el pilar más importante de la infraestructura del centro de datos. Crece la adopción del almacenamiento de objetos al tiempo que las aplicaciones que rentabilizan las enormes posibilidades de los objetos de datos ganan visibilidad. Y las bases de datos en memoria, con la popular HANA de SAP a la cabeza, se unen a las tendencias del mercado.

10. El Big Data evoluciona hacia el control de la recopilación de datos nuevos.

A la vez que las empresas calculan el valor del análisis de los datos existentes, pasarán a recopilar datos adicionales que necesitarán de su análisis. Surgirán nuevos dispositivos que recopilen más datos sobre el comportamiento de los consumidores, procesos industriales y fenómenos naturales.

Estas fuentes se usarán en los análisis existentes para mejorar la perspectiva y darán lugar a aplicaciones analíticas completamente nuevas.

Diez predicciones de cloud computing para el 2014

Cloud 10 predicciones 2014Este es el momento cuando las personas comienzan a estimar cómo les fue en el año que recién concluyó y cómo les irá en el que acaba de comenzar. También es el momento cuando se ponen de moda las predicciones acerca de los desarrollo en la industria tecnológica para los siguientes 12 meses. He publicado predicciones para la computación en la nube por algunos años y éstas siempre se encuentran entre las piezas más populares que he escrito.

Volviendo atrás a mis antiguas predicciones, me siento impactado no tanto por alguna predicción en particular o por la exactitud (o inexactitud) general de ellas, sino por la forma en que se ha transformado el propio tema de la computación en la nube.

Hace cuatro o cinco años, la computación en la nube era un concepto muy controversial y no probado. Me convertí en un fuerte defensor de ella al escribirVirtualization for Dummies y al encontrarme expuesto a Amazon Web Services en sus días iniciales. Concluí que los beneficios de la computación en la nube harían que ésta se convierta en la plataforma TI por defecto en el futuro cercano.

Estoy complacido en decir que mis expectativas, de hecho, se hicieron realidad. Es obvio que la computación en la nube se está convirtiendo en regla, mientras que los despliegues que no son de nube se están convirtiendo en la excepción. Los escépticos continúan planteando deficiencias con respecto a la computación en la nube, pero el alcance de sus argumentos continua reduciéndose.

En la actualidad, los argumentos contra la computación en la nube son limitados. “Algunas aplicaciones requieren de arquitecturas que no encajan bien en los ambientes de nube”, señalan los críticos, sugiriendo que los ambientes de nube no son universalmente perfectos para cada aplicación. Esto no es una sorpresa.

Otros críticos citan alguna mezcla entre seguridad y cumplimiento, aunque el nivel de ruido en este tema es mucho menor que en el pasado. En sus predicciones para el 2014, James Staten, de la firma de consultoría Forrester Research, sostiene “si uno se está resistiendo a la nube debido a los problemas con la seguridad, se está quedando sin excusas”, y señala que la seguridad de la nube ha mostrado su valía.

Siempre he tomado una perspectiva diferente: la alarma que surgió en torno a la seguridad de la nube fue solamente una cortina de humo del personal de TI que no quería cambiar sus prácticas establecidas. Más aún, las preocupaciones en torno a la seguridad desaparecerían no porque los proveedores de nube repentinamente “probaron” que eran lo suficientemente seguros, sino porque los recalcitrantes miembros del personal de TI se dieron cuenta que debían adoptar la computación en la nube o enfrentar la posibilidad de un cambio mucho mayor: el desempleo.

Con el triunfo de la computación en la nube en camino, ¿qué nos traerá el 2014 como desarrollos en este campo? Este va a ser un año especialmente emocionante para la computación en la nube. Y la razón es simple: en el 2014, todos se darán cuenta que la nube puede generar tipos completamente nuevos de aplicaciones. En este año vamos a ver artículos periodísticos que proclamen lo maravilloso de una aplicación de nube o de otra, y la forma en que la computación en la nube pudo hacer posible la aplicación cuando en el pasado no hubiera podido existir.

Con esto en mente, a continuación describo mis predicciones sobre la computación en la nube. Como en años anteriores, presento la lista dividida en dos secciones: cinco predicciones para usuarios finales y cinco pronósticos para proveedores. Hago esto porque demasiadas predicciones se concentran en el lado del proveedor. Desde mi perspectiva, el efecto de la computación en la nube sobre los usuarios es igualmente importante y merece tanto o más atención.

1. Más empresas se convertirán en compañías de software
Hace un par de años, Mark Andreessen, cofundador de la empresa Netscape y coautor del navegador Mosaic, proclamó que “el software se está comiendo al mundo”. El próximo año, esto será absolutamente obvio. Para ponerlos en términos simples, todos los productos y servicios están quedando envueltos en TI, y todas estas aplicaciones tendrán su hogar en la nube.

Para proporcionar un ejemplo personal, mi doctor sugirió durante mi examen físico anual que comience a registrar mi presión sanguínea.

¿La solución para enviarle los resultados? En lugar de registrar los números en una hoja de cálculo y enviársela por correo electrónico, él recomendó un monitor de presión sanguínea que se conecta a una aplicación para smartphone, la cual automáticamente envía los resultados a su firma y se comunica con una aplicación que descarga las cifras en mi historia clínica.

El efecto neto del cambio hacia productos y servicios envueltos en TI es que el gasto global en TI se incrementará significativamente a medida que TI pase del soporte de backoffice a la entrega de valor en en el frontoffice. El tamaño de TI superará la capacidad on premises y dará como resultado una masiva adopción de la computación en la nube.

2. Los desarrolladores de aplicaciones serán más importantes
Si las aplicaciones se están volviendo más importantes para las ofertas del negocio, entonces aquellos que crean las aplicaciones serán más importantes. La firma de análisis RedMonk afirma que los desarrolladores son ahora cruciales en el diseño e implementación de las ofertas del negocio.

Se están produciendo grandes transformaciones en las prácticas de desarrollo, impulsadas por el actual cambio hacia el código abierto y la adopción de procesos de entrega ágiles y continuos. Esto mejora la productividad y la creatividad de los desarrolladores, y hace que éstos lancen aplicaciones más interesantes e importantes.

No es un secreto que los desarrolladores dirigieron gran parte del crecimiento inicial de la computación en la nube, frustrados por la pobre respuesta de las TI centrales y atraídos por la disponibilidad inmediata de recursos provenientes de los proveedores de nube. Esta adopción temprana cimentó las expectativas de los desarrolladores, pues acceder a los recursos de nube debería ser fácil y rápido, lo cual dio como resultados una mayor adopción de la cloud.

Será interesante observar como las compañías convencionales enfrentan la importancia de los desarrolladores. Muchas han subestimado la importancia de TI y la han tratado como un centro de costos al cual exprimir –o eliminar completamente– a través del outsourcing. Cuando estas compañías comiencen a incrementar sus esfuerzos de desarrollo de aplicaciones, confrontarán un pool de recursos costoso con muchas opciones laborales. O bien, podrán tercerizar estas aplicaciones hacia agencias e integradores especializados cuyos altos precios pueden pagarse sin impactar en la estructura de pagos dentro de la compañía.

Cloud Computing 23. La carga de trabajo de las aplicaciones continuará cambiando hacia los usuarios finales
Gartner causó revuelo el año pasado cuando pronosticó que los CMO (Chief Marketing Officers) controlarían más del 50% del gasto en TI para el 2017. Por supuesto, uno no puede saber cómo va a resultar este pronóstico, pero las dos predicciones anteriores claramente reflejan una perspectiva similar: cuando se trata de aplicaciones, los usuarios finales tienen cada vez más las manos puestas sobre el timón. La cuestión es si éstas aplicaciones orientadas a las empresas serán desplegadas on premises (operadas en casa) o en la nube.

Hay tres hechos relevantes aquí:

* Los usuarios de negocio, como los CMO, tienen mucho menos compromiso con los despliegues on premises. De hecho, les es indiferente el lugar de la carga de trabajo y están, quizás, más abiertos a la nube que sus contrapartes de TI. Existe una mayor probabilidad de que el auspiciador de la aplicación coloque la carga de trabajo en un ambiente de nube, quedando todo lo demás constante.

* Pero no lo está, y ese es el segundo factor. Como se ha anotado, los desarrolladores ya usan el cómputo en la nube para escribir aplicaciones. Existe una gran probabilidad que, al decidir dónde desplegar la aplicación de producción resultante, la elección sea el mismo ambiente en donde ocurrió el desarrollo: la nube.

* El tercer hecho importante es la forma en que el diseño e implementación de la aplicación impactará la decisión de despliegue. Muchos desarrolladores usan características o funcionalidades específicas de un ambiente de nube. Cuando llega el momento del despliegue, la aplicación se encuentra ligada al ambiente de desarrollo y requerirá más trabajo para ser desplegada en otro lugar. Esta “incomodidad” propiciará que otras decisiones de despliegue se realicen en favor de la nube.

Veremos muchas historias en el 2014 de compañías que lanzan nuevas ofertas de negocio para Internet y reconocen que el 99% de ellas se basan en la nube para su procesamiento backend.

4. La nube privada tendrá su momento de la verdad
En años anteriores, las organizaciones TI reconocieron que la computación en la nube proporciona beneficios indudables, pero las preocupaciones en cuanto a la seguridad y la privacidad requirieron que se implementara una nube interna antes de que las aplicaciones “reales” fueran desplegadas.

Muchas de estas iniciativas de nube privada han sido procesos amplios, aunque empantanados por presupuestos limitados, prolongadas evaluaciones por parte de los proveedores, construcción de las habilidades de los empleados y, sí, por políticas internas.

Aunque este tipo de demoras podrían ser aceptadas como parte de los problemas de cambiar hacia una nueva plataforma, el 2014 forzará a las compañías a realmente evaluar el progreso de sus esfuerzos de nubes privadas.

Las decisiones del despliegue de las cargas de trabajo de las aplicaciones se toman todos los días. Olvide la retórica de “transferir sus aplicaciones de nube a una nube interna de calidad de producción”, que usualmente aconsejan los proveedores. La realidad es que, una vez desplegadas, las aplicaciones encuentran su hogar permanente.

Esto significa que las organizaciones TI que están planeando ambientes de nube tienen un corto camino para entregar resultados. Una “nube” que hace que los trabajos de los operadores TI sean más convenientes, pero que no hace nada por los usuarios de nube terminará como un pueblo fantasma: abandonado por los desarrolladores que buscan la agilidad y respuesta del negocio.

5. La gestión de nube atraerá la atención de las personas
De la misma forma en que el cómputo en la nube privada enfrentará algunas duras verdades en el 2014, también lo hará la visión de la nube híbrida como una sola tecnología homogénea que abarcará los centros de datos internos y los ambientes de nube externos alojados por el proveedor de tecnología interno.

En realidad, todas las empresas usarán múltiples ambientes de nube con plataformas heterogéneas. La necesidad más crucial será la de crear u obtener capacidades para administrar los diferentes ambientes de nube con un marco de gestión consistente.

La necesidad de gestionar la nube va más allá de lo técnico. Aunque es crucial tener “un solo panel” que use herramientas consistentes y un gobierno corporativo para toda la variedad de ambientes de nube, también es importante administrar la utilización y el costo de esos ambientes, y eso será cada vez más evidente en este 2014.

6. AWS continuará con su tórrido ritmo de innovaciones
Una de las cosas más sorprendentes de Amazon, es la rapidez con que evoluciona su servicio y entrega nuevas funcionalidades. En ocasiones la industria de los cloud service provider (CSP) se asemeja a una de esas películas en las que un personaje va rápido en una escena mientras que los otros actores se movilizan a un ritmo agonizantemente lento.

Cuando un proveedor tiene un nuevo producto o servicio establecido, su ritmo de innovación cae al confrontar la necesidad de ayudar a sus clientes para que adopten su prometedora oferta inicial. Este fenómeno se le conoce como Crossing the Chasm (cruzar el abismo), proveniente del libro del mismo nombre, el cual refiere la forma en que los proveedores deben parecerse a sus competidores para lograr un éxito generalizado.

A pesar de que los Amazon Web Services (AWS) cruzan la línea de los cuatro mil millones de dólares en ingresos, no parece desacelerar su paso en la innovación. Lejos de ello. En su reciente conferencia re:Invent 2013, AWS anunció cinco nuevas y grandes ofertas, y señaló que ofrecería más de 250 mejoras de servicios en el 2013.

Nada indica que el 2014 será diferente; esperemos muchos nuevo servicios y ofertas de servicio de AWS. En un reciente conjunto de publicaciones acerca de la infraestructura de hardware y software de AWS, noté que, durante sus primeros años, AWS creó una infraestructura global muy grande que entrega confiablemente capacidades fundamentales de computación, almacenamiento y networking.

Amazon logra su innovación porque enfoca el cómputo en la nube como una disciplina de software, no como una extensión del hosting, como lo hacen la mayoría de sus competidores. Este año veremos más evidencias de que el enfoque del software entrega valor al cliente mucho más rápido que el enfoque del hardware.

7. Google y Microsoft tomarán más en serio la nube
Cloud Computing 3De alguna forma, AWS ha tenido ‘pista libre’ hasta el momento. La mayor parte de su competencia ha venido del mundo del hosting, y, como se señaló, ésta es incapaz de tomar un enfoque de software en este terreno. Como resultado, AWS ha mejorado y crecido más rápido que los otros CSP.

Esta ‘pista libre’ terminará en el 2014. Tanto Google (con Google Cloud Platform) como Microsoft (con Windows Azure) tienen a AWS en mente y están desplegando ofertas muy competitivas, diseñadas para dar la batalla.

Las dos han reconocido que sus ofertas iniciales de nube no eran adecuadas. Con la versión 2.0, ambas compañías introdujeron ofertas de nube competitivas.

Microsoft tiene una oportunidad obvia: posee una enorme base instalada y una gran comunidad de desarrolladores. Sus ofertas se integran directamente con las herramientas de desarrollo existentes y hacen que sea sencillo alojar una aplicación en Azure. Su mayor desafío podría no ser la tecnología, sino redirigir la inercia de su actual negocio y base de socios.

He escuchado rumores de distribuidores de Microsoft muy sensibles quienes se preguntan cuál será su rol en el futuro de la compañía. La inevitable tentación para la compañía será moderar su iniciativa Azure para aplacar a los socios actuales. Eso sería negativo, pero son entendibles los motivos por los que la dinámica de las relaciones existentes podrían evitar (o dificultar) el progreso de Azure. Sin embargo, Microsoft entiende que AWS representa una amenaza mortal y ha decidido enfrentarla.

Google se encuentra en una posición diferente. No tiene una base instalada que se vea amenazada por AWS. Sin embargo, ha resuelto ir tras Amazon, usando como armas su respaldo financiero y sus excepcionales recursos técnicos. Un interesante post, que describe las numerosas ventajas que tiene Google Compute Engine frente a AWS, deja en claro que Google apunta directamente a las carencias técnicas de AWS.

De alguna forma, este es un cambio refrescante con respecto a los ineficaces intentos de otros competidores, que insisten en enarbolar “ventajas” sobre AWS de las que nadie se preocupa.

La oferta de Google es quizás la más intrigante de las dos. En la década pasada, Google fue más innovadora que Microsoft. Esto implica que podría ser el oponente más creativo que AWS enfrente en 2014.

En cualquier caso, para AWS el mercado CSP ya no será como “quitarle el caramelo a un niño”, y el 2014 marcará el inicio de una lucha multianual por el dominio entre estas tres empresas.

8. La importancia del ecosistema quedará clara
Casi todos han escuchado del “efecto red”, el cual se refiere al valor añadido a un grupo de usuarios cuando uno más se une al grupo. En ocasiones se resume como “si solo uno tiene fax, entonces éste no es de mucha utilidad”, a menos que muchas personas tengan faxes para poder enviar y recibir mensajes, poseer un fax no ofrece mucho valor.

Con respecto a las plataformas tecnológicas, existe una relación simbiótica entre el “efecto red” del número de usuarios y la riqueza de la funcionalidad que ofrece una plataforma. Esto generalmente no se basa en la capacidad de la propia plataforma sino en los servicios y productos de terceros que son complementarios.

En la actualidad, la riqueza del ecosistema CSP se encuentra totalmente dispareja. No sólo AWS proporciona una plataforma más rica en servicios que sus competidores, sino que también tiene, con mucho, el mayor número de servicios complementarios proporcionados por terceros. En el 2014, a medida que más aplicaciones se desplieguen en proveedores de nubes públicas, la importancia del ecosistema será un punto de interés.

La riqueza del ecosistema de una plataforma afecta directamente la velocidad con la que las aplicaciones pueden crearse y entregarse. Las plataformas de nube que tienen un ecosistema insignificante van a sufrir, incluso si sus servicios fundamentales, como las máquinas virtuales y la capacidad de red, son mejores que las de Amazon.

Claramente, Microsoft debería poder desplegar un ecosistema rico, ya que la clave del éxito de Windows es su ecosistema; gran parte de él, presumiblemente, debería poder portarse a Azure de manera muy sencilla. Veremos cómo Google progresa en este campo durante 2014.

9. VMware se dará cuenta que vCHS es crítico para su futuro
VMware ha estado en una posición entretenida con respecto al cómputo en la nube. Las indudables ventajas de la plataforma dentro del centro de datos corporativo no han sido igualadas por un similar éxito en la nube pública. Por alguna razón –o quizás por muchas razones– los socios CSP públicos de VMware no han podido generar una gran adopción del sabor de VMware en el cloud computing.

VMware está tomando otro sentido en este campo, con un enfoque explícitamente diseñado para ampliar e integrar los ambientes on premises en una oferta de nube híbrida dirigida por VMware. Este enfoque promete mucho, ya que la capacidad para transferir sin problemas una carga de trabajo de ambientes internos a ambientes externos podría resolver muchos dolores de cabeza para las organizaciones de TI.

Este enfoque, llamado vCHS, puede proporcionar beneficios que van más allá de la simple consistencia de la tecnología, ya que permitiría que las organizaciones TI se concentren en un conjunto de habilidades personales, reduciendo así los costos y la complejidad.

El próximo año será importante para VMware y su oferta vCHS. Como se señaló antes, las compañías están tomando decisiones en estos momentos que establecerán el curso para el futuro. Si VMware espera tener un papel importante en la computación en la nube pública como lo tuvo en los ambientes de centro de datos internos, necesita ser parte de esas decisiones. No queda mucho tiempo para obtener una posición en las listas. Uno puede estar seguro que VMware reconoce cuán importante va a ser el 2014 para su futuro y que está planeando una campaña agresiva para mantener su posición de liderazgo en el mercado.

Cloud Computing 410. Se aproxima un “baño de sangre” en precios para la nube pública
Amazon ha tenido “pista libre” hasta el momento. La mayoría de su competencia, en efecto, luchaba en el frente equivocado, o a menos trató de diferenciarse en aspectos acerca de los cuales la mayoría de los adoptadores son apáticos. Una diferencia fundamental entre AWS y la mayoría de su competencia es el costo. Mientras que gran parte de la competencia de Amazon ha alineado sus precios con los modelos de alojamiento existentes, requiriendo compromisos significativos en términos de la cantidad de recursos y la duración del contrato, Amazon hace que sea sencillo comenzar con unos cuantos dólares, sin compromisos.

En efecto, esto ha significado que Amazon está compitiendo con ella misma –y, ha reducido precios desde que lanzó AWS. Ese campo de uno va a expandirse este año con la llegada de Microsoft y Google. El resultado va a ser una feroz guerra de precios, en donde las tres compañías reducirán sus costos de manera repetida para mantener (en caso de Amazon) o lograr (Microsoft y Google) participación de mercado.

Ésta no sólo es una batalla por el dominio del mercado, sino que refleja la naturaleza de la computación en la nube: una industria intensiva en capital en donde es crítico mantener un alto nivel de uso.

Para otros proveedores de nube, ser testigos de esta aglomeración competitiva no sólo será un deporte de observación. Todos los proveedores de nube van a ser confrontados –de manera diaria y continua– con tres competidores con buenos recursos financieros cada uno de los cuales supera a los otros cada vez que reducen sus precios.

Inevitablemente, otros CSP sufrirán daños colaterales, ya que los clientes potenciales llevarán la lista de precios de los tres grandes a las negociaciones de los contratos y esperarán que éstos igualen lo que ofrecen. Para aquellos sin un bajo costo de capital y sin sus propios recursos financieros, el próximo año será el inicio de un largo y lento descenso hacia un problema financiero que sólo se resolverá mediante la consolidación de la industria o cerrando sus ofertas.

La industria de las aerolíneas es un buen ejemplo de ello. Como con la computación en la nube, las aerolíneas son un negocio intensivo en capital; los aviones cuestan mucho, mientras que los asientos son vendidos a bajo costo y con pocos compromisos. La clave para la industria de las aerolíneas es la administración del rendimiento, que es su versión de la utilización de la infraestructura.

En los pasados años se ha visto varias bancarrotas entre las aerolíneas y una manía por las fusiones. El próximo año el mercado de la computación en la nube se verá muy parecido a la industria de las aerolíneas, algo bueno para los clientes, pero peligroso para los proveedores.

Bueno, ahí lo tienen, mis predicciones para el 2014 del cómputo en la nube. Habrá muchos éxitos a medida que los usuarios aprendan a aprovechar las nuevas capacidades que ofrece la computación en la nube, junto con desafíos a muchos en la industria –tanto usuarios como proveedores– que luchan por realizar una transición exitosa a la plataforma en el futuro.

_________________

Bernard Golden es director senior del grupo Cloud Computing Enterprise Solutions de Dell. Es autor de tres libros sobre virtualización y cómputo en la nube, incluyendo Virtualization for Dummies.