Etiqueta: cómputo en la nube

Microsoft da un paso más en el cómputo en la nube, adquiere Cycle Computing

El gigante de Redmond realizó el anuncio de que adquirió a la empresa Cycle Computing, especializada en la orquestación de recursos de computación en la nube, para facilitar a sus clientes el uso de capacidades de supercomputación en entornos cloud.

“En Microsoft, creemos que el acceso a capacidades de supercomputación en la nube tiene el poder de transformar muchos negocios y estará a la vanguardia de la innovación y experimentación que se produzca en las décadas venideras”. Con esta declaración de intenciones, Jason Zander, vicepresidente corporativo de Microsoft Azure anunciaba hace unos días la compra de Cycle Computing por parte del gigante de Redmond, con el fin de facilitar a los clientes de esta última compañía el acceso a recursos de supercomputación. Cycle Computing es una compañía especializada en orquestación de recursos de computación en la nube y una pieza clave para que muchas empresas que antes no podían acceder a herramientas de supercomputación ahora puedan hacerlo gracias a la combinación de esta tecnología con la plataforma en la nube de Microsoft: Azure. “La nube está cambiando rápidamente el mundo de la supercomputación, dando a los clientes la infraestructura y potencia necesaria y bajo demanda para ejecutar cargas de trabajo masivas a escala y sin incurrir en mayores gastos. Tu capacidad de computación ya no está limitada por los metros cuadrados de tu centro de datos”, continúa Zander.

El directivo asevera que la combinación de la infraestructura de supercomputación disponible en la nube pública de Microsoft junto con la tecnología y los años de experiencia de Cycle Computing con las mayores supercomputadoras abren nuevas oportunidades en el mercado. “Cycle Computing ayudará a los clientes a acelerar su movimiento a cloud, y facilitará que puedan tomar ventaja de la infraestructura más eficiente diponible en la nube pública hoy en día”, añade.

Entre los clientes de Microsoft que ya usan las capacidades de supercomputación de Azure se encuentran City of Hope y MetLife, recuerda el directivo.

Por su parte, Jason Stowe, cofundador y Ceo de Cycle, destaca las oportunidades que se abren a su equipo y clientes al unirse con Microsoft. “Su huella global en cloud y su oferta híbrida única se ha creado teniendo a las empresas en mente, y su equipo de supercomputación ha apostado por tecnologías como InfiniBand y una nueva generación de GPU. No podemos esperar para combinar nuestra tecnología cloud de gestión de cargas de trabajo y computación en Windows y Linux con la infraestructura de supercomputación de Microsoft Azure y su alcance de mercado global”, señala.

Redacción

 

México enfrenta los desafíos en políticas de cómputo en la nube

México se encuentra en el lugar 15 de las 24 economías líderes en tecnología de la información, posición que no ha cambiado significativamente en comparación con el lugar 14 obtenido en 2013, un signo de que el entorno legal y normativo para el cómputo en la nube en el país actualmente continua con un crecimiento e innovación constante, esto de acuerdo al último estudio realizado por BSA y The Software Alliance que evaluó las políticas de cómputo en la nube a nivel mundial.

El uso de Internet y la penetración de banda ancha aún se encuentran en niveles bajos en México, además el país continua frente a desafíos en la entrega de una infraestructura moderna de Tecnologías de Información y Comunicaciones (TIC), misma que puede facilitar el cómputo en nube, señaló el estudio 2016 BSA Global Cloud Computing Scorecard.

El estudio señala que nuestro país es uno de los pocos que aún conserva preferencias nacionales al momento de generar oportunidades para la contratación de TIC´s en el gobierno.

La BSA clasificó la preparación en materia de cómputo en la nube de 24 países, los cuales representan el 80 por ciento de los mercados de tecnologías de información en el mundo. Cada país recibe una clasificación de sus fortalezas y debilidades en siete áreas clave.

El cómputo en la nube le permite a cualquier persona, gobierno o empresa pequeña, tener acceso a la tecnología de una manera económica. Estos servicios le permiten un mayor acceso a la conectividad, productividad y por lo tanto a un incremento en su competitividad.

Los resultados de este año revelaron que casi todos los países han realizado mejoras entorno a sus políticas, a partir del lanzamiento de la Scorecard previa de BSA en el 2013.

Sin embargo, la clasificación entre los grupos de países con logros mayores, intermedios y menores se ha ampliado, lo que ha dado como resultado un estancamiento en los países con logros intermedios, a pesar de que algunos de éstos han tenido un mayor desempeño en cuanto a su labor de impulsar políticas del cloud computing.

En cuanto a la clasificación general, Sudáfrica y Canadá fueron los que escalaron un mayor número de posiciones con seis y cinco posiciones respectivamente.

Kiyoshi Tsuru, Country Manager de BSA México, destacó en la exposición del estudio, “tres de los países que se habían encontrado con una clasificación baja, como Tailandia, Brasil y Vietnam, continúan avanzando y están cerrando la brecha con los países de clasificación media. Los mayores mercados de tecnología de la información permanecieron estables con algunos avances modestos”.

Entre las desventajas que observa el ejecutivo sobre la adopción en la nube son:

  • Posible riesgo en el manejo de los datos en una plataforma externa.
  • Centralización de aplicaciones y almacenamiento.

Finalmente, en lo que refiere a tendencias negativas, pocos países fueron los que cambiaron sus políticas de libre comercio o armonización de los manejos de computación en la nube. Rusia y China, particularmente, han impuesto nuevas administraciones que entorpecen al cloud computing, debido a que limitan la habilidad de los proveedores de estos servicios para mover datos de forma adecuada entre fronteras.

Gerardo Esquivel, Computerworld México

Cómo funciona el cómputo en nube y sus aplicaciones

Comstor ha publicado un reporte de cómo funciona la estructura de la Computación en Nube y sus aplicaciones en el entorno corporativo. La firma, define Cloud Computing como una tecnología que virtualiza recursos y equipos, es decir, aplicaciones archivos, software y otros datos que no tienen más que estar instalados o almacenados en la computadora del usuario.

La Nube puede diferenciarse en diferentes tipos, de los cuales destacan:

Nube Pública: Este servicio es proporcionado a usuarios comunes o empresas a través de Internet; está más dirigida al público común que al público corporativo. La Nube, posee un alto rendimiento, acceso directo, bajo costo y escalabilidad, pero presenta un incremento de riesgo en privacidad ya que el usuario se puede enfrentar a eventuales problemas de seguridad debido a su carácter público.

Cifras de la consultora Gartner, señalan que el mercado mundial de servicios de Nube pública debe crecer 16.5% en 2016, para alcanzar un monto de USD 204 mil millones.

Nube Privada: Ofrece todas las funciones básicas de la tecnología exclusivamente a una empresa o grupo específico. Integra todos los departamentos y áreas por medio del modelo de Cloud Computing, además de posibilitar el almacenamiento y acceso a datos corporativos con seguridad, tiene un costo de despliegue mayor que una Nube interna, lo que pude ser un obstáculo para las PyME.

Nube Híbrida: Consiste en mantener algunos sistemas en la Nube privada y otros en la Nube pública, simultáneamente. Es el modelo más utilizado en el mercado corporativo ya que posee un alto rendimiento, acceso directo, bajo costo, escalabilidad, seguridad y un control total.

La Nube Híbrida cubre la demanda de escalabilidad, por ejemplo, cuando una empresa necesita la capacidad adicional de un servidor por un corto periodo de mucho movimiento.

La clasificación del Tipo de Servicio se divide en 3:

Infraestructura como Servicio (IaaS): Que representa la contratación de servidores virtuales, el volumen del tráfico de datos, los datos almacenados y otros rubros. Su costo se basa en la cantidad de servidores virtuales, el volumen de tráfico de datos, los datos almacenados y otros rubros.

Plataforma como Servicio (PaaS): Este modelo es útil porque elimina la necesidad de adquirir hardware y licencias de software, y utiliza la misma estructura como servicio.

Software como Servicio (SaaS): Se trata de un modelo en el cuál la adquisición y/o utilización de un software no está vinculada a la compra de licencias. Permite controlar lo que la empresa necesita, pues sólo se paga lo que se usa.

Finalmente, si desea obtener respuestas a por qué implementar Cloud Computing, y conocer el primer paso para el planteamiento de una estrategia de Nube podría considerar la reducción de costos, la entrega de resultados rápidos, garantía de seguridad y conformidad de datos, mejor utilización de los recursos, suministro de un servicio on-demand (bajo demanda) y la optimización de la gestión de la política de seguridad.

Redacción

Fujitsu renueva sus servicios Iaas y PaaS con K5

La firma japonesa lanza Fujitsu Service Cloud K5, es una plataforma basada en la nube y dirigida a acelerar la transformación digital.

Fujitsu prosigue su apuesta por el modelo de suministro de TI cloud computing, tanto en la modalidad de infraestructura como servicio como en la de plataforma como servicio. La compañía nipona ha lanzado a escala global Fujitsu Service Cloud K5. “Esta es la primera plataforma de cómputo en la nube que permite la transformación digital a través de la perfecta integración de los entornos TI tradicionales con las nuevas tecnologías basadas en la nube”, se destaca dentro del comunicado de la compañía, en el que se hace hincapié en que este servicio acelera el desarrollo de aplicaciones uniendo la fiabilidad a nivel empresarial, el rendimiento y escalabilidad con la rentabilidad de la tecnología cloud basada en código abierto.

Modernizar sin perder el valor de los sistemas heredados

La colaboración de K5, formar parte de la Plataforma Digital de Fujitsu MetaArc, proporciona tecnologías diseñadas para permitir a las organizaciones desarrollar y desplegar nuevas aplicaciones cloud nativas, pero también permite a los clientes explotar el valor de sus infraestructuras tradicionales a través de la integración en las nuevas aplicaciones en la nube. En este sentido, afirman desde la compañía, Fujitsu “permite a las organizaciones capturar el valor de sus sistemas legacy mientras modernizan sus entornos de TI. Los clientes pueden aprovechar las grandes capacidades de K5 en las áreas de integración y desarrollo de aplicaciones, así como las amplias capacidades de MetaArc para el despliegue y la gestión automatizada multicloud”. Por otro lado, subrayan desde la compañía, gracias a la arquitectura abierta de K5  y la capacidad de MetaArc para ejecutar y administrar cargas de trabajo en cualquier plataforma elegida, los nuevos sistemas pueden funcionar tanto en el cloud público como en los entornos propios de los clientes.

Además, la integración de la tecnología UForge, tras la compra de USharesoft por Fujitsu, K5 que se basa en OpenStack, ayuda a la puesta en marcha de las aplicaciones y de la migración automatizada soportando las principales plataformas cloud del mercado, tanto dentro como fuera de las instalaciones y no sólo los servicios en nube de Fujitsu.

K5 está disponible en cuatro modelos de entrega (nube pública, privada virtual alojada, dedicada y dedicada en las instalaciones). La propia Fujitsu está  integrando sus servicios tradicionales con nuevos sistemas para un rápido retorno de la inversión, y está migrando a K5 más de 600 sistemas de negocio y 13 000 servidores.

Redacción

Tendencias a tener en cuenta en el Centro de Datos

La seguridad, cómputo en la nube, el fog computing junto con la sostenibilidad, marcan nuevas tendencias que habrá que tener en cuenta de cara al futuro.

Tradicionalmente, el centro de datos ha evolucionado en respuesta a innovaciones tecnológicas (la mayoría basadas en servidores) ha sido tan grande el ritmo de crecimiento como la dirección de esa evolución por lo que han sido hasta cierto punto predecibles. Tendencias disruptivas como la informática en la nube, la sostenibilidad, la ciberseguridad y el Internet de las Cosas, están impulsando profundos cambios informáticos en todos los sectores y creando oportunidades y retos en el camino. Como resultado, están iniciando nuevos modelos que cambiarán el panorama de los centros de datos y mejorarán la productividad, reducirán los costos y aumentarán la agilidad. Para Emerson Network Power existen cuatro tendencias fundamentales en los centros de datos:

Por un lado está el centro de datos que cumple con la responsabilidad social corporativa. El rendimiento energético sigue siendo importante para un sector con necesidades de consumo aparentemente ilimitadas, pero otros elementos impulsores son una mayor preocupación por reducir la huella de carbono en algunas organizaciones, además están dando mayor relevancia a la sostenibilidad y la responsabilidad corporativa. El sector responde con un mayor uso de la energía alternativa en un esfuerzo por avanzar hacia la economía de bajas emisiones de carbono.

Muy importante es la fortaleza de los datos. El mundo en que vivimos, cada vez más conectado, crea un mayor número de oportunidades a los piratas informáticos. En lo referente al diseño de los centros de datos, las organizaciones están empezando a asumir una propuesta en la que la seguridad esté por encima de todo. Esto les lleva a desplegar contenedores de datos fuera de la red para información altamente confidencial, en algunos casos con equipamiento de suministro eléctrico, refrigeración separada y exclusiva.

También debe tenerse en cuenta el cómputo en la niebla o fog computing. Las arquitecturas distribuidas se están haciendo habituales a medida que el “Edge Computing” se hace más crítico. Introducida por Cisco, la informática en la niebla conecta varias redes pequeñas en una sola red grande, con servicios de aplicaciones distribuidos en dispositivos inteligentes y sistemas informáticos que mejoran el rendimiento y se concentran en el proceso de datos más cerca de dispositivos y redes. Esto es una respuesta lógica a la masiva cantidad de datos que genera el Internet de las Cosas (IoT).

Los modelos de servicios compartidos comenzarán a ser vistos como una posibilidad. A pesar de las mejoras impulsadas por la virtualización, son demasiados los servidores que permanecen infrautilizados: algunos estudios indican que los servidores emplean entre el 5 y el 15% de su capacidad de cálculo y que el 30% de todos los servidores están en estado “de espera”. Se prevé un futuro en el que las organizaciones exploren modelos de servicios compartidos, vendiendo parte de esa capacidad excedente y formando parte efectiva de la nube.

“Estos patrones emergentes de centros de datos son una prueba de los continuos cambios e innovaciones que se están produciendo actualmente en el sector”, ha indicado Lal Karsanbhai, presidente de Emerson Network Power en Europa, Oriente Medio y África.

-Networkworld

9 cosas que necesita saber antes de almacenar datos en la nube

La cantidad de información electrónica (por ejemplo, documentos, imágenes, correos electrónicos, videos) que producen las organizaciones es asombrosa. Almacenar todos los datos digitales en su centro de datos puede ser costoso. Por eso, el almacenamiento en la nube, que a menudo corresponde a una fracción del costo por almacenar la información en el centro de datos, se hizo cada vez más popular.

 

Pero antes de pensar en el almacenamiento en la nube, necesita estar seguro de haber identificado claramente sus necesidades, señala Chris Poelker, vicepresidente de Soluciones Empresariales de FalconStor Software, un proveedor de protección de datos, servicios de virtualización, backup, recuperación de desastres y de duplicación. “¿Es importante el alto rendimiento [y la disponibilidad], o simplemente se está buscando archivar datos?”.

 

También debe investigar un poco antes de elegir dónde almacenar sus datos digitales, ya que no todos los proveedores de almacenamiento en la nube (ni acuerdos de nivel de servicio o SLA) son los mismos.

 

Para ayudarle a determinar si el almacenamiento en la nube es lo adecuado para usted, y encontrar el proveedor de almacenamiento en la nube ideal para sus necesidades, CIO.com consultó a docenas de expertos en gestión de datos y almacenamiento en la nube. Los siguientes son los nueve mejores consejos para el almacenamiento de datos en la nube y para elegir un proveedor de almacenamiento cloud, así como cinco preguntas que debe hacerle a su proveedor antes de firmar un contrato.

 

1. Asegúrese de que el proveedor de la nube está actualizado en cuanto a certificaciones para centros de datos y de la industria. “El proveedor de almacenamiento en la nube que elija debería ser compatible con sus necesidades de privacidad industrial y seguridad”, tales como HIPAA y PCI, señala Karl Bickmore, presidente de CCNS Consulting, un proveedor de outsourcing de TI.

 

También, asegúrese de que el proveedor cumpla con las “nuevas regulaciones, como SSAE 16, que recientemente sustituyó a la SAS 70″, agrega Raghu Kulkarni, CEO de iDrive, un proveedor de servicios de copia de seguridad en línea. “SSAE 16 es una norma fundamental de auditoría, especialmente para las empresas que tienen datos financieros y empresas del sector público, así como para otros sectores en los que es importante la seguridad y la integridad de los datos”.

 

2. Elija un proveedor que conozca su industria. “A veces nos aseguramos de que nos vaya bien simplemente eligiendo los más grandes proveedores de la nube basándonos únicamente en su reputación y la longevidad, pero también hay valor en la elección de un proveedor que entienda su negocio [o industria]”, señala Mark Wojtasiak, gerente de marketing del segmento Cloud de Seagate, un proveedor de soluciones de almacenamiento.

 

“Las necesidades de almacenamiento de datos varían de un sector a otro”, agrega Wojtasiak. “Tal vez su negocio está en las finanzas, la salud o los medios de comunicación y la industria del entretenimiento. Hay proveedores de almacenamiento en la nube que se especializan, o al menos tienen un profundo conocimiento de su industria y los datos que necesita almacenar”, agrega el ejecutivo. “Dicho conocimiento y comprensión pueden hacer una gran diferencia”.

 

3. Comprenda las limitaciones del ancho de banda. “Si va a utilizar la nube como parte de una estrategia de copia de seguridad, es necesario comprender las limitaciones de ancho de banda, tanto para la copia de seguridad inicial de una gran cantidad de datos, como para lo que sucederá en caso de que tenga que restaurar una gran cantidad de datos”, agrega Ed Featherston, arquitecto corporativo de Servicios Tecnológicos de la empresa Collaborative Consulting. “¿El proveedor le ofrece capacidad de transferencia masiva? ¿Cuáles son las limitaciones de ancho de banda para las ubicaciones del proveedor?”, añade.

 

“El almacenamiento en la nube requiere mover datos fuera de las redes de área local de la empresa a una red de área amplia, lo que a menudo resulta en un mayor requerimiento de costos y ancho de banda para el almacenamiento en la nube”, anota Paul McClure, jefe de tecnología de Cloud Solutions Group, del proveedor de gestión de datos de CommVault.

 

“El ancho de banda y las velocidades de transferencia dirigen las expectativas hacia cuánto tiempo tomará mover datos a través del cable. Esto puede tardar minutos, horas o incluso días”, agrega McClure. “El costo del ancho de banda, el potencial y el tiempo son factores importantes a considerar”.

 

4. Asegúrese de que los datos estén encriptados. “Proteja sus datos confidenciales con cifrado de alta seguridad antes de transferirlos a la nube”, señala Jonathan LaCour, vicepresidente de la nube de DreamHost. “Algunos proveedores de almacenamiento pueden ofrecer cifrado del lado del servidor, pero la encriptación de los datos por su cuenta podría ser una solución más sabia”.

 

“Tenga en cuenta que si su proveedor de servicio encripta sus datos, el proveedor de servicio también puede descifrar los datos”, añade Lawrence Garvin, head geek de SolarWinds, un proveedor de software de gestión de TI y herramientas de monitoreo. “Si los datos son encriptados antes de ser transferidos, entonces solo usted podrá descifrarlos. Asegúrese de que sus datos sean encriptados antes de ser transferidos a la nube, o incluso antes de ser almacenados fuera de sitio”.

 

5. Lea cuidadosamente el SLA del proveedor antes de firmar. “Los proveedores ofrecen opciones de niveles de servicio de almacenamiento y los servicios de almacenamiento deberían incluir la escalabilidad bajo demanda para mantener las aplicaciones en funcionamiento, instantáneas de copia de seguridad local y/o fuera de línea, copia de seguridad disponible fuera de las instalaciones y/o recuperación de desastres y almacenamiento de alta disponibilidad sin interrupción debido a mantenimiento o mejoras”, señala Tom Hobika , vicepresidente senior de servicios de TI de EarthLink, un proveedor de TI, datos, servicios de voz y de Internet para las empresas.

 

“El SLA del proveedor debe incluir garantía para las aplicaciones y datos que albergará. Como mínimo, deberá cubrir la disponibilidad de datos y sistemas, tiempo de respuesta para problemas con niveles de gravedad normal y tiempo de respuesta para tratar problemas de seguridad específicos”, añade Hobika.

 

6. Sepa cuánto realmente le va a costar poner su información en la nube. “Cuando se trate de ponerle precio a los servicios de la nube, sepa completamente qué es lo que cubre su servicio mensual y qué es un gasto extra”, señala Casey Burns, director senior de marketing de producto, Nube y Virtualización, de Quantum, un proveedor de centros de datos y soluciones de almacenamiento de escalabilidad horizontal.

 

“A menudo hay cargos adicionales por actividades como ‘put and get’ (envío de sus datos a la nube y obtener los  datos de regreso), o pruebas de DR asociadas con su servicio o el aumento del ancho de banda hasta un límite determinado”, indica Burns. “Lo mejor es hacer algunos modelos de costos para comparar su solución actual con el costo total de un servicio en la nube antes de saltar a la piscina con todo lo que tiene”.

 

7. No compre almacenamiento de más. “Determine la cantidad adecuada de almacenamiento para las necesidades actuales y futuras de su organización”, señala Jeff Erramouspe, CEO del proveedor de copias de seguridad Spanning Cloud Apps. Un estudio de IDC mostró que la mayoría de las empresas experimentan entre el 40 y 60% de crecimiento del volumen de sus datos cada año. Así, puede seguir comprando más almacenamiento terabyte a terabyte, a menos que tenga un plan de precios por usuario”, afirma. Además, “eligiendo un plan por usuario que no limite su consumo de almacenamiento, el precio anual es mucho más predecible. Siempre sabe cuántos usuarios va a tener, rara vez sabe la cantidad de almacenamiento que va a usar”.

 

“Evite comprar más almacenamiento del que necesita”, señala Hubert Yoshida, CTO de Hitachi Data Systems. “Los centros de datos disminuyen sus precios aproximadamente un 24% por año y por lo tanto la compra con un modelo pay as you go impulsará la eficacia y la eficiencia de costos”, añade.

 

8. Asegúrese de que puede recuperar/restaurar los datos. “Cuando está buscando un proveedor de copias de seguridad, no se olvide de pensar en la otra parte de la ecuación -la recuperación”, señala Pete Lamson, vicepresidente senior del proveedor de almacenamiento Carbonite.

 

“Antes de comprometer sus datos con un proveedor, sepa que tan rápido será capaz éste de recuperarlos en caso de pérdida de datos o interrupción, cómo es el proceso de restauración y qué tipo de apoyo va a recibir de encontrarse en algún problema”, indica Lamson . “Esto le ayudará a establecer las expectativas para el negocio y puede ayudarlo a minimizar el tiempo de inactividad”.

 

“Muchos de los servicios que se ofrecen hacen copias de seguridad fácilmente, pero la restauración de datos de forma rápida y eficiente puede ser difícil y costosa”, agrega Aaron Saposnik, consultor de soluciones de infraestructura de SWC Technology Partners. “Compruebe si el proveedor le enviará un disco duro con sus datos o le permitirá una restauración de datos fácil (y si le cobrará extra por estos servicios) antes de firmar”.

 

9. Por último, tenga un plan de respaldo de seguridad. ” Si decide salir de la nube o el proveedor de la nube decide dejarlo [retirarse del negocio], tenga un plan de negocio listo para pasarse a una nueva nube con la mínima interrupción”, señala Brian D. Kelley, CIO del Condado de Portage, Ohio.

 

Jennifer Lonoff Schiff, CIO Estados Unidos

IBM inyecta 1.2 mil mdd en datacenters de nube

IBM inyecta en la nubeIBM anunció que invertirá 1.2 mil millones de dólares este año en la expansión de su infraestructura de nube global, con lo cual despeja cualquier duda de que ve a la computación en la nube como el camino del futuro.

“Tener muchos centros de datos en muchos diferentes países alrededor del mundo será importante en el largo plazo”, sostuvo Lance Crosby, CEO de IBM SoftLayer. “Queremos que el mundo entienda que la nube es transformadora para IBM”.

La compañía planea abrir 15 nuevos centros de datos este año, con lo cual incrementaría en más de 100% la capacidad de nube que adquirió al comprar SoftLayer el año pasado por dos mil millones de dólares.

La empresa planea combinar los nuevos centros de datos, los centros de datos existentes de SoftLayer, y los centros de datos que ya tenía antes de la compra de SoftLayer en una sola operación que proporcionaría servicios de nube pública y privada a sus clientes, así como proporcionar servicios a sus operaciones internas.

Aunque IBM ha permanecido relativamente silente en relación a sus planes de nube, por lo menos en comparación con Microsoft y Amazon Web Services, ha estado ocupada preparándose para un futuro centrado en la nube, señaló Rebecca Wettemann, vicepresidenta de la firma de investigación Nucleus Research. Este anuncio es el siguiente paso lógico de la compañía, sostuvo Wettemann.

“IBM siempre ha tenido un enfoque moderado con los anuncios. Además, ha trabajado silenciosamente con centros de datos por mucho tiempo, y la nube de IBM se ha establecido”, indicó la investigadora. “Hemos sido testigos de una lenta transformación en IBM, la cual ha pasado de una compañía de servicios a una compañía de software, y ahora a una empresa de nube”.

Con la “cartera abierta”

Desde el 2007, IBM ha adquirido más de 15 compañías con software o con experiencia en cómputo en la nube, al invertir más de siete mil millones de dólares en el proceso. “En dichas adquisiciones, IBM ha hecho un buen trabajo al retener a las personas que pueden hacer crecer este negocio”, indicó Wettemann.

De hecho, la adquisición de SoftLayer el pasado agosto tiene un papel fundamental en la nueva expansión. Gracias a su fácil escalabilidad, la arquitectura y el software de soporte que SoftLayer desarrolló para sus propias operaciones, servirá como fundamento de la nube unificada de IBM.

“Todo lo que se vaya a hacer en IBM residirá en la infraestructura como servicio de SoftLayer”, señaló Crosby.

Mediante el uso de los servicios de SoftLayer, IBM ofrecerá una IaaS (Infraestructura como Servicio) global, así como cientos de PaaS (Plataforma como Servicio) y SaaS (Software como Servicio). Por ejemplo, la recientemente anunciada iniciativa de la compañía para comercializar la computación cognitiva tipo Watson, aprovecharía la nube global.

Inicialmente, IBM abrirá centros de datos en Washington, Londres, Hong Kong, Toronto, ciudad de México y Dallas, así como en ciudades de Japón e India. Durante el año se anunciarán otras locaciones adicionales. Asimismo, planea una mayor expansión el próximo año, mediante el establecimiento de nuevas locaciones en Medio Oriente y África.

Según la compañía, los ingresos globales por nube llegarán a los 200 mil millones de dólares al año para el 2020. IBM espera generar siete mil millones de dólares en ingresos de nube en el 2015.

Nube híbrida, la tendencia que estará presente en 2014

Nube híbrida en 2014La compañía NetApp hace un recuento de las previsiones para este 2014, fijándose en el impacto que tendrán en el sector, tecnologías como flash, cloud y la definición por software.

1. Las clouds híbridas dominan la tecnología empresarial.

Ya no habrá tensiones dentro del departamento técnico para evolucionar hacia la nube, al entenderse dentro de las organizaciones la necesidad de ir hacia el modelo de cloud híbrida para dar servicio a su cartera de aplicaciones.

Los directores de información ordenarán su cartera de aplicaciones en función de cuáles deben estar controladas en su totalidad (nubes privadas en las instalaciones), parcialmente controladas (nubes públicas de empresa) y cargas de trabajo transitorias (nubes públicas a hiperescala), y aquellas adquiridas como SaaS (Software como Servicio).

El departamento técnico funcionará como agente de servicios en todos estos modelos de cloud. También quedará constancia de la necesidad de mover con facilidad los datos de aplicaciones entre las clouds y para brindar capacidades de servicio de almacenamiento de forma constante entre los diferentes modelos de nube.

2. Si trabajas en TI, eres un proveedor de servicios.

Cada vez se mirará más al departamento interno de Tecnología como otra opción de servicios. Toda la tecnología de una empresa se considerará “nube privada” y las expectativas de respuesta al negocio, la competitividad de costos y los acuerdos de nivel de servicio se compararán con opciones de cloud externas.

3. El almacenamiento definido por software deja claro la realidad frente a la hiperrealidad.

Según se va aceptando la visión del centro de datos definido por software, la evolución de los componentes de infraestructura es cada vez más clara. Empieza a echar raíces el control del software basado en políticas sobre los componentes de infraestructura tradicional. Las versiones virtuales de los componentes de infraestructura (controladores de red y de almacenamiento) son cada vez más habituales.

Los componentes virtuales más valiosos son los que se integran limpiamente con la red y sistemas de almacenamiento físicos existentes, y pueden ofrecer funciones y servicios constantes y coherentes con los ofrecidos por los controladores físicos tradicionales.

4. Crecimiento del mercado All-Flash.

Ahora que las empresas de almacenamiento convencional han comprendido la importancia de esta tendencia en tecnología el mercado de flash experimentará un mayor crecimiento.

La batalla entre el almacenamiento convencional y las ofertas all-flash de vanguardia tendrá a su vencedor entre aquellos que mejor habiliten a sus clientes para poner en marcha el nivel correcto de rendimiento, confiabilidad y escalabilidad en función de sus necesidades y cargas de trabajo específicas.

Los grandes del almacenamiento convencional con capacidad para ofrecer y dar soporte a productos a nivel mundial liderarán el crecimiento en los mercados internacionales.

5. Las SVM permiten la movilidad de los datos y la agilidad de las aplicaciones.

Al igual que las máquinas virtuales permitían el movimiento de aplicaciones en funcionamiento entre servidores físicos, los Solaris Volume Management (SVM) liberarán los datos del almacenamiento físico específico.

Estos contenedores lógicos de volúmenes de datos simplifican la migración de las cargas de trabajo entre clústeres de almacenamiento y ofrecen la posibilidad de clústeres de almacenamiento altamente disponibles en áreas metropolitanas.

6. El almacenamiento privado y público se verá afectado por cuestiones sobre la  gobernabilidad de los datos.

La adopción del cloud computing y los servicios de almacenamiento ha supuesto un reto para las fronteras geopolíticas, que ha llevado a cierta preocupación en las grandes empresas de muchos países en lo referente a las leyes de transparencia con sus gobiernos, a las cuales están sujetos sus datos. Las organizaciones internacionales buscarán opciones de clouds híbridas que les permitan mantener el control soberano de sus datos y aprovechar al mismo tiempo la economía del cloud computing.

7. OpenStack sobrevive al Híper y avanza con los pioneros.

Durante el 2014, OpenStack continuará ganando impulso y se convertirá en la alternativa “abierta” a los productos comerciales para la orquestación del centro de datos. A medida que las distribuciones de OpenStack se perfilan más hacia el “producto” que hacia el “proyecto”, más empresas y proveedores de servicios comienzan a adoptarlo.

8. La adopción de los 40 Gb Ethernet despega en el centro de datos.

La siguiente evolución de Ethernet, los 40 Gb, comienza a extenderse en el núcleo del centro de datos. Anchos de banda mayores permiten que conjuntos de datos mayores se muevan más rápida y fácilmente, lo que anima al crecimiento de los datos.

9. El almacenamiento en clúster, infraestructura convergente, almacenamiento de objetos, bases de datos en memoria siguen creciendo en 2014.

Algunas tendencias tecnológicas que nacieron en 2013 siguen creciendo. La adopción del almacenamiento en clúster se acelera. La infraestructura convergente se convierte en el pilar más importante de la infraestructura del centro de datos. Crece la adopción del almacenamiento de objetos al tiempo que las aplicaciones que rentabilizan las enormes posibilidades de los objetos de datos ganan visibilidad. Y las bases de datos en memoria, con la popular HANA de SAP a la cabeza, se unen a las tendencias del mercado.

10. El Big Data evoluciona hacia el control de la recopilación de datos nuevos.

A la vez que las empresas calculan el valor del análisis de los datos existentes, pasarán a recopilar datos adicionales que necesitarán de su análisis. Surgirán nuevos dispositivos que recopilen más datos sobre el comportamiento de los consumidores, procesos industriales y fenómenos naturales.

Estas fuentes se usarán en los análisis existentes para mejorar la perspectiva y darán lugar a aplicaciones analíticas completamente nuevas.

Diez predicciones de cloud computing para el 2014

Cloud 10 predicciones 2014Este es el momento cuando las personas comienzan a estimar cómo les fue en el año que recién concluyó y cómo les irá en el que acaba de comenzar. También es el momento cuando se ponen de moda las predicciones acerca de los desarrollo en la industria tecnológica para los siguientes 12 meses. He publicado predicciones para la computación en la nube por algunos años y éstas siempre se encuentran entre las piezas más populares que he escrito.

Volviendo atrás a mis antiguas predicciones, me siento impactado no tanto por alguna predicción en particular o por la exactitud (o inexactitud) general de ellas, sino por la forma en que se ha transformado el propio tema de la computación en la nube.

Hace cuatro o cinco años, la computación en la nube era un concepto muy controversial y no probado. Me convertí en un fuerte defensor de ella al escribirVirtualization for Dummies y al encontrarme expuesto a Amazon Web Services en sus días iniciales. Concluí que los beneficios de la computación en la nube harían que ésta se convierta en la plataforma TI por defecto en el futuro cercano.

Estoy complacido en decir que mis expectativas, de hecho, se hicieron realidad. Es obvio que la computación en la nube se está convirtiendo en regla, mientras que los despliegues que no son de nube se están convirtiendo en la excepción. Los escépticos continúan planteando deficiencias con respecto a la computación en la nube, pero el alcance de sus argumentos continua reduciéndose.

En la actualidad, los argumentos contra la computación en la nube son limitados. “Algunas aplicaciones requieren de arquitecturas que no encajan bien en los ambientes de nube”, señalan los críticos, sugiriendo que los ambientes de nube no son universalmente perfectos para cada aplicación. Esto no es una sorpresa.

Otros críticos citan alguna mezcla entre seguridad y cumplimiento, aunque el nivel de ruido en este tema es mucho menor que en el pasado. En sus predicciones para el 2014, James Staten, de la firma de consultoría Forrester Research, sostiene “si uno se está resistiendo a la nube debido a los problemas con la seguridad, se está quedando sin excusas”, y señala que la seguridad de la nube ha mostrado su valía.

Siempre he tomado una perspectiva diferente: la alarma que surgió en torno a la seguridad de la nube fue solamente una cortina de humo del personal de TI que no quería cambiar sus prácticas establecidas. Más aún, las preocupaciones en torno a la seguridad desaparecerían no porque los proveedores de nube repentinamente “probaron” que eran lo suficientemente seguros, sino porque los recalcitrantes miembros del personal de TI se dieron cuenta que debían adoptar la computación en la nube o enfrentar la posibilidad de un cambio mucho mayor: el desempleo.

Con el triunfo de la computación en la nube en camino, ¿qué nos traerá el 2014 como desarrollos en este campo? Este va a ser un año especialmente emocionante para la computación en la nube. Y la razón es simple: en el 2014, todos se darán cuenta que la nube puede generar tipos completamente nuevos de aplicaciones. En este año vamos a ver artículos periodísticos que proclamen lo maravilloso de una aplicación de nube o de otra, y la forma en que la computación en la nube pudo hacer posible la aplicación cuando en el pasado no hubiera podido existir.

Con esto en mente, a continuación describo mis predicciones sobre la computación en la nube. Como en años anteriores, presento la lista dividida en dos secciones: cinco predicciones para usuarios finales y cinco pronósticos para proveedores. Hago esto porque demasiadas predicciones se concentran en el lado del proveedor. Desde mi perspectiva, el efecto de la computación en la nube sobre los usuarios es igualmente importante y merece tanto o más atención.

1. Más empresas se convertirán en compañías de software
Hace un par de años, Mark Andreessen, cofundador de la empresa Netscape y coautor del navegador Mosaic, proclamó que “el software se está comiendo al mundo”. El próximo año, esto será absolutamente obvio. Para ponerlos en términos simples, todos los productos y servicios están quedando envueltos en TI, y todas estas aplicaciones tendrán su hogar en la nube.

Para proporcionar un ejemplo personal, mi doctor sugirió durante mi examen físico anual que comience a registrar mi presión sanguínea.

¿La solución para enviarle los resultados? En lugar de registrar los números en una hoja de cálculo y enviársela por correo electrónico, él recomendó un monitor de presión sanguínea que se conecta a una aplicación para smartphone, la cual automáticamente envía los resultados a su firma y se comunica con una aplicación que descarga las cifras en mi historia clínica.

El efecto neto del cambio hacia productos y servicios envueltos en TI es que el gasto global en TI se incrementará significativamente a medida que TI pase del soporte de backoffice a la entrega de valor en en el frontoffice. El tamaño de TI superará la capacidad on premises y dará como resultado una masiva adopción de la computación en la nube.

2. Los desarrolladores de aplicaciones serán más importantes
Si las aplicaciones se están volviendo más importantes para las ofertas del negocio, entonces aquellos que crean las aplicaciones serán más importantes. La firma de análisis RedMonk afirma que los desarrolladores son ahora cruciales en el diseño e implementación de las ofertas del negocio.

Se están produciendo grandes transformaciones en las prácticas de desarrollo, impulsadas por el actual cambio hacia el código abierto y la adopción de procesos de entrega ágiles y continuos. Esto mejora la productividad y la creatividad de los desarrolladores, y hace que éstos lancen aplicaciones más interesantes e importantes.

No es un secreto que los desarrolladores dirigieron gran parte del crecimiento inicial de la computación en la nube, frustrados por la pobre respuesta de las TI centrales y atraídos por la disponibilidad inmediata de recursos provenientes de los proveedores de nube. Esta adopción temprana cimentó las expectativas de los desarrolladores, pues acceder a los recursos de nube debería ser fácil y rápido, lo cual dio como resultados una mayor adopción de la cloud.

Será interesante observar como las compañías convencionales enfrentan la importancia de los desarrolladores. Muchas han subestimado la importancia de TI y la han tratado como un centro de costos al cual exprimir –o eliminar completamente– a través del outsourcing. Cuando estas compañías comiencen a incrementar sus esfuerzos de desarrollo de aplicaciones, confrontarán un pool de recursos costoso con muchas opciones laborales. O bien, podrán tercerizar estas aplicaciones hacia agencias e integradores especializados cuyos altos precios pueden pagarse sin impactar en la estructura de pagos dentro de la compañía.

Cloud Computing 23. La carga de trabajo de las aplicaciones continuará cambiando hacia los usuarios finales
Gartner causó revuelo el año pasado cuando pronosticó que los CMO (Chief Marketing Officers) controlarían más del 50% del gasto en TI para el 2017. Por supuesto, uno no puede saber cómo va a resultar este pronóstico, pero las dos predicciones anteriores claramente reflejan una perspectiva similar: cuando se trata de aplicaciones, los usuarios finales tienen cada vez más las manos puestas sobre el timón. La cuestión es si éstas aplicaciones orientadas a las empresas serán desplegadas on premises (operadas en casa) o en la nube.

Hay tres hechos relevantes aquí:

* Los usuarios de negocio, como los CMO, tienen mucho menos compromiso con los despliegues on premises. De hecho, les es indiferente el lugar de la carga de trabajo y están, quizás, más abiertos a la nube que sus contrapartes de TI. Existe una mayor probabilidad de que el auspiciador de la aplicación coloque la carga de trabajo en un ambiente de nube, quedando todo lo demás constante.

* Pero no lo está, y ese es el segundo factor. Como se ha anotado, los desarrolladores ya usan el cómputo en la nube para escribir aplicaciones. Existe una gran probabilidad que, al decidir dónde desplegar la aplicación de producción resultante, la elección sea el mismo ambiente en donde ocurrió el desarrollo: la nube.

* El tercer hecho importante es la forma en que el diseño e implementación de la aplicación impactará la decisión de despliegue. Muchos desarrolladores usan características o funcionalidades específicas de un ambiente de nube. Cuando llega el momento del despliegue, la aplicación se encuentra ligada al ambiente de desarrollo y requerirá más trabajo para ser desplegada en otro lugar. Esta “incomodidad” propiciará que otras decisiones de despliegue se realicen en favor de la nube.

Veremos muchas historias en el 2014 de compañías que lanzan nuevas ofertas de negocio para Internet y reconocen que el 99% de ellas se basan en la nube para su procesamiento backend.

4. La nube privada tendrá su momento de la verdad
En años anteriores, las organizaciones TI reconocieron que la computación en la nube proporciona beneficios indudables, pero las preocupaciones en cuanto a la seguridad y la privacidad requirieron que se implementara una nube interna antes de que las aplicaciones “reales” fueran desplegadas.

Muchas de estas iniciativas de nube privada han sido procesos amplios, aunque empantanados por presupuestos limitados, prolongadas evaluaciones por parte de los proveedores, construcción de las habilidades de los empleados y, sí, por políticas internas.

Aunque este tipo de demoras podrían ser aceptadas como parte de los problemas de cambiar hacia una nueva plataforma, el 2014 forzará a las compañías a realmente evaluar el progreso de sus esfuerzos de nubes privadas.

Las decisiones del despliegue de las cargas de trabajo de las aplicaciones se toman todos los días. Olvide la retórica de “transferir sus aplicaciones de nube a una nube interna de calidad de producción”, que usualmente aconsejan los proveedores. La realidad es que, una vez desplegadas, las aplicaciones encuentran su hogar permanente.

Esto significa que las organizaciones TI que están planeando ambientes de nube tienen un corto camino para entregar resultados. Una “nube” que hace que los trabajos de los operadores TI sean más convenientes, pero que no hace nada por los usuarios de nube terminará como un pueblo fantasma: abandonado por los desarrolladores que buscan la agilidad y respuesta del negocio.

5. La gestión de nube atraerá la atención de las personas
De la misma forma en que el cómputo en la nube privada enfrentará algunas duras verdades en el 2014, también lo hará la visión de la nube híbrida como una sola tecnología homogénea que abarcará los centros de datos internos y los ambientes de nube externos alojados por el proveedor de tecnología interno.

En realidad, todas las empresas usarán múltiples ambientes de nube con plataformas heterogéneas. La necesidad más crucial será la de crear u obtener capacidades para administrar los diferentes ambientes de nube con un marco de gestión consistente.

La necesidad de gestionar la nube va más allá de lo técnico. Aunque es crucial tener “un solo panel” que use herramientas consistentes y un gobierno corporativo para toda la variedad de ambientes de nube, también es importante administrar la utilización y el costo de esos ambientes, y eso será cada vez más evidente en este 2014.

6. AWS continuará con su tórrido ritmo de innovaciones
Una de las cosas más sorprendentes de Amazon, es la rapidez con que evoluciona su servicio y entrega nuevas funcionalidades. En ocasiones la industria de los cloud service provider (CSP) se asemeja a una de esas películas en las que un personaje va rápido en una escena mientras que los otros actores se movilizan a un ritmo agonizantemente lento.

Cuando un proveedor tiene un nuevo producto o servicio establecido, su ritmo de innovación cae al confrontar la necesidad de ayudar a sus clientes para que adopten su prometedora oferta inicial. Este fenómeno se le conoce como Crossing the Chasm (cruzar el abismo), proveniente del libro del mismo nombre, el cual refiere la forma en que los proveedores deben parecerse a sus competidores para lograr un éxito generalizado.

A pesar de que los Amazon Web Services (AWS) cruzan la línea de los cuatro mil millones de dólares en ingresos, no parece desacelerar su paso en la innovación. Lejos de ello. En su reciente conferencia re:Invent 2013, AWS anunció cinco nuevas y grandes ofertas, y señaló que ofrecería más de 250 mejoras de servicios en el 2013.

Nada indica que el 2014 será diferente; esperemos muchos nuevo servicios y ofertas de servicio de AWS. En un reciente conjunto de publicaciones acerca de la infraestructura de hardware y software de AWS, noté que, durante sus primeros años, AWS creó una infraestructura global muy grande que entrega confiablemente capacidades fundamentales de computación, almacenamiento y networking.

Amazon logra su innovación porque enfoca el cómputo en la nube como una disciplina de software, no como una extensión del hosting, como lo hacen la mayoría de sus competidores. Este año veremos más evidencias de que el enfoque del software entrega valor al cliente mucho más rápido que el enfoque del hardware.

7. Google y Microsoft tomarán más en serio la nube
Cloud Computing 3De alguna forma, AWS ha tenido ‘pista libre’ hasta el momento. La mayor parte de su competencia ha venido del mundo del hosting, y, como se señaló, ésta es incapaz de tomar un enfoque de software en este terreno. Como resultado, AWS ha mejorado y crecido más rápido que los otros CSP.

Esta ‘pista libre’ terminará en el 2014. Tanto Google (con Google Cloud Platform) como Microsoft (con Windows Azure) tienen a AWS en mente y están desplegando ofertas muy competitivas, diseñadas para dar la batalla.

Las dos han reconocido que sus ofertas iniciales de nube no eran adecuadas. Con la versión 2.0, ambas compañías introdujeron ofertas de nube competitivas.

Microsoft tiene una oportunidad obvia: posee una enorme base instalada y una gran comunidad de desarrolladores. Sus ofertas se integran directamente con las herramientas de desarrollo existentes y hacen que sea sencillo alojar una aplicación en Azure. Su mayor desafío podría no ser la tecnología, sino redirigir la inercia de su actual negocio y base de socios.

He escuchado rumores de distribuidores de Microsoft muy sensibles quienes se preguntan cuál será su rol en el futuro de la compañía. La inevitable tentación para la compañía será moderar su iniciativa Azure para aplacar a los socios actuales. Eso sería negativo, pero son entendibles los motivos por los que la dinámica de las relaciones existentes podrían evitar (o dificultar) el progreso de Azure. Sin embargo, Microsoft entiende que AWS representa una amenaza mortal y ha decidido enfrentarla.

Google se encuentra en una posición diferente. No tiene una base instalada que se vea amenazada por AWS. Sin embargo, ha resuelto ir tras Amazon, usando como armas su respaldo financiero y sus excepcionales recursos técnicos. Un interesante post, que describe las numerosas ventajas que tiene Google Compute Engine frente a AWS, deja en claro que Google apunta directamente a las carencias técnicas de AWS.

De alguna forma, este es un cambio refrescante con respecto a los ineficaces intentos de otros competidores, que insisten en enarbolar “ventajas” sobre AWS de las que nadie se preocupa.

La oferta de Google es quizás la más intrigante de las dos. En la década pasada, Google fue más innovadora que Microsoft. Esto implica que podría ser el oponente más creativo que AWS enfrente en 2014.

En cualquier caso, para AWS el mercado CSP ya no será como “quitarle el caramelo a un niño”, y el 2014 marcará el inicio de una lucha multianual por el dominio entre estas tres empresas.

8. La importancia del ecosistema quedará clara
Casi todos han escuchado del “efecto red”, el cual se refiere al valor añadido a un grupo de usuarios cuando uno más se une al grupo. En ocasiones se resume como “si solo uno tiene fax, entonces éste no es de mucha utilidad”, a menos que muchas personas tengan faxes para poder enviar y recibir mensajes, poseer un fax no ofrece mucho valor.

Con respecto a las plataformas tecnológicas, existe una relación simbiótica entre el “efecto red” del número de usuarios y la riqueza de la funcionalidad que ofrece una plataforma. Esto generalmente no se basa en la capacidad de la propia plataforma sino en los servicios y productos de terceros que son complementarios.

En la actualidad, la riqueza del ecosistema CSP se encuentra totalmente dispareja. No sólo AWS proporciona una plataforma más rica en servicios que sus competidores, sino que también tiene, con mucho, el mayor número de servicios complementarios proporcionados por terceros. En el 2014, a medida que más aplicaciones se desplieguen en proveedores de nubes públicas, la importancia del ecosistema será un punto de interés.

La riqueza del ecosistema de una plataforma afecta directamente la velocidad con la que las aplicaciones pueden crearse y entregarse. Las plataformas de nube que tienen un ecosistema insignificante van a sufrir, incluso si sus servicios fundamentales, como las máquinas virtuales y la capacidad de red, son mejores que las de Amazon.

Claramente, Microsoft debería poder desplegar un ecosistema rico, ya que la clave del éxito de Windows es su ecosistema; gran parte de él, presumiblemente, debería poder portarse a Azure de manera muy sencilla. Veremos cómo Google progresa en este campo durante 2014.

9. VMware se dará cuenta que vCHS es crítico para su futuro
VMware ha estado en una posición entretenida con respecto al cómputo en la nube. Las indudables ventajas de la plataforma dentro del centro de datos corporativo no han sido igualadas por un similar éxito en la nube pública. Por alguna razón –o quizás por muchas razones– los socios CSP públicos de VMware no han podido generar una gran adopción del sabor de VMware en el cloud computing.

VMware está tomando otro sentido en este campo, con un enfoque explícitamente diseñado para ampliar e integrar los ambientes on premises en una oferta de nube híbrida dirigida por VMware. Este enfoque promete mucho, ya que la capacidad para transferir sin problemas una carga de trabajo de ambientes internos a ambientes externos podría resolver muchos dolores de cabeza para las organizaciones de TI.

Este enfoque, llamado vCHS, puede proporcionar beneficios que van más allá de la simple consistencia de la tecnología, ya que permitiría que las organizaciones TI se concentren en un conjunto de habilidades personales, reduciendo así los costos y la complejidad.

El próximo año será importante para VMware y su oferta vCHS. Como se señaló antes, las compañías están tomando decisiones en estos momentos que establecerán el curso para el futuro. Si VMware espera tener un papel importante en la computación en la nube pública como lo tuvo en los ambientes de centro de datos internos, necesita ser parte de esas decisiones. No queda mucho tiempo para obtener una posición en las listas. Uno puede estar seguro que VMware reconoce cuán importante va a ser el 2014 para su futuro y que está planeando una campaña agresiva para mantener su posición de liderazgo en el mercado.

Cloud Computing 410. Se aproxima un “baño de sangre” en precios para la nube pública
Amazon ha tenido “pista libre” hasta el momento. La mayoría de su competencia, en efecto, luchaba en el frente equivocado, o a menos trató de diferenciarse en aspectos acerca de los cuales la mayoría de los adoptadores son apáticos. Una diferencia fundamental entre AWS y la mayoría de su competencia es el costo. Mientras que gran parte de la competencia de Amazon ha alineado sus precios con los modelos de alojamiento existentes, requiriendo compromisos significativos en términos de la cantidad de recursos y la duración del contrato, Amazon hace que sea sencillo comenzar con unos cuantos dólares, sin compromisos.

En efecto, esto ha significado que Amazon está compitiendo con ella misma –y, ha reducido precios desde que lanzó AWS. Ese campo de uno va a expandirse este año con la llegada de Microsoft y Google. El resultado va a ser una feroz guerra de precios, en donde las tres compañías reducirán sus costos de manera repetida para mantener (en caso de Amazon) o lograr (Microsoft y Google) participación de mercado.

Ésta no sólo es una batalla por el dominio del mercado, sino que refleja la naturaleza de la computación en la nube: una industria intensiva en capital en donde es crítico mantener un alto nivel de uso.

Para otros proveedores de nube, ser testigos de esta aglomeración competitiva no sólo será un deporte de observación. Todos los proveedores de nube van a ser confrontados –de manera diaria y continua– con tres competidores con buenos recursos financieros cada uno de los cuales supera a los otros cada vez que reducen sus precios.

Inevitablemente, otros CSP sufrirán daños colaterales, ya que los clientes potenciales llevarán la lista de precios de los tres grandes a las negociaciones de los contratos y esperarán que éstos igualen lo que ofrecen. Para aquellos sin un bajo costo de capital y sin sus propios recursos financieros, el próximo año será el inicio de un largo y lento descenso hacia un problema financiero que sólo se resolverá mediante la consolidación de la industria o cerrando sus ofertas.

La industria de las aerolíneas es un buen ejemplo de ello. Como con la computación en la nube, las aerolíneas son un negocio intensivo en capital; los aviones cuestan mucho, mientras que los asientos son vendidos a bajo costo y con pocos compromisos. La clave para la industria de las aerolíneas es la administración del rendimiento, que es su versión de la utilización de la infraestructura.

En los pasados años se ha visto varias bancarrotas entre las aerolíneas y una manía por las fusiones. El próximo año el mercado de la computación en la nube se verá muy parecido a la industria de las aerolíneas, algo bueno para los clientes, pero peligroso para los proveedores.

Bueno, ahí lo tienen, mis predicciones para el 2014 del cómputo en la nube. Habrá muchos éxitos a medida que los usuarios aprendan a aprovechar las nuevas capacidades que ofrece la computación en la nube, junto con desafíos a muchos en la industria –tanto usuarios como proveedores– que luchan por realizar una transición exitosa a la plataforma en el futuro.

_________________

Bernard Golden es director senior del grupo Cloud Computing Enterprise Solutions de Dell. Es autor de tres libros sobre virtualización y cómputo en la nube, incluyendo Virtualization for Dummies.