Etiqueta: hiperrealidad

Nube híbrida, la tendencia que estará presente en 2014

Nube híbrida en 2014La compañía NetApp hace un recuento de las previsiones para este 2014, fijándose en el impacto que tendrán en el sector, tecnologías como flash, cloud y la definición por software.

1. Las clouds híbridas dominan la tecnología empresarial.

Ya no habrá tensiones dentro del departamento técnico para evolucionar hacia la nube, al entenderse dentro de las organizaciones la necesidad de ir hacia el modelo de cloud híbrida para dar servicio a su cartera de aplicaciones.

Los directores de información ordenarán su cartera de aplicaciones en función de cuáles deben estar controladas en su totalidad (nubes privadas en las instalaciones), parcialmente controladas (nubes públicas de empresa) y cargas de trabajo transitorias (nubes públicas a hiperescala), y aquellas adquiridas como SaaS (Software como Servicio).

El departamento técnico funcionará como agente de servicios en todos estos modelos de cloud. También quedará constancia de la necesidad de mover con facilidad los datos de aplicaciones entre las clouds y para brindar capacidades de servicio de almacenamiento de forma constante entre los diferentes modelos de nube.

2. Si trabajas en TI, eres un proveedor de servicios.

Cada vez se mirará más al departamento interno de Tecnología como otra opción de servicios. Toda la tecnología de una empresa se considerará “nube privada” y las expectativas de respuesta al negocio, la competitividad de costos y los acuerdos de nivel de servicio se compararán con opciones de cloud externas.

3. El almacenamiento definido por software deja claro la realidad frente a la hiperrealidad.

Según se va aceptando la visión del centro de datos definido por software, la evolución de los componentes de infraestructura es cada vez más clara. Empieza a echar raíces el control del software basado en políticas sobre los componentes de infraestructura tradicional. Las versiones virtuales de los componentes de infraestructura (controladores de red y de almacenamiento) son cada vez más habituales.

Los componentes virtuales más valiosos son los que se integran limpiamente con la red y sistemas de almacenamiento físicos existentes, y pueden ofrecer funciones y servicios constantes y coherentes con los ofrecidos por los controladores físicos tradicionales.

4. Crecimiento del mercado All-Flash.

Ahora que las empresas de almacenamiento convencional han comprendido la importancia de esta tendencia en tecnología el mercado de flash experimentará un mayor crecimiento.

La batalla entre el almacenamiento convencional y las ofertas all-flash de vanguardia tendrá a su vencedor entre aquellos que mejor habiliten a sus clientes para poner en marcha el nivel correcto de rendimiento, confiabilidad y escalabilidad en función de sus necesidades y cargas de trabajo específicas.

Los grandes del almacenamiento convencional con capacidad para ofrecer y dar soporte a productos a nivel mundial liderarán el crecimiento en los mercados internacionales.

5. Las SVM permiten la movilidad de los datos y la agilidad de las aplicaciones.

Al igual que las máquinas virtuales permitían el movimiento de aplicaciones en funcionamiento entre servidores físicos, los Solaris Volume Management (SVM) liberarán los datos del almacenamiento físico específico.

Estos contenedores lógicos de volúmenes de datos simplifican la migración de las cargas de trabajo entre clústeres de almacenamiento y ofrecen la posibilidad de clústeres de almacenamiento altamente disponibles en áreas metropolitanas.

6. El almacenamiento privado y público se verá afectado por cuestiones sobre la  gobernabilidad de los datos.

La adopción del cloud computing y los servicios de almacenamiento ha supuesto un reto para las fronteras geopolíticas, que ha llevado a cierta preocupación en las grandes empresas de muchos países en lo referente a las leyes de transparencia con sus gobiernos, a las cuales están sujetos sus datos. Las organizaciones internacionales buscarán opciones de clouds híbridas que les permitan mantener el control soberano de sus datos y aprovechar al mismo tiempo la economía del cloud computing.

7. OpenStack sobrevive al Híper y avanza con los pioneros.

Durante el 2014, OpenStack continuará ganando impulso y se convertirá en la alternativa “abierta” a los productos comerciales para la orquestación del centro de datos. A medida que las distribuciones de OpenStack se perfilan más hacia el “producto” que hacia el “proyecto”, más empresas y proveedores de servicios comienzan a adoptarlo.

8. La adopción de los 40 Gb Ethernet despega en el centro de datos.

La siguiente evolución de Ethernet, los 40 Gb, comienza a extenderse en el núcleo del centro de datos. Anchos de banda mayores permiten que conjuntos de datos mayores se muevan más rápida y fácilmente, lo que anima al crecimiento de los datos.

9. El almacenamiento en clúster, infraestructura convergente, almacenamiento de objetos, bases de datos en memoria siguen creciendo en 2014.

Algunas tendencias tecnológicas que nacieron en 2013 siguen creciendo. La adopción del almacenamiento en clúster se acelera. La infraestructura convergente se convierte en el pilar más importante de la infraestructura del centro de datos. Crece la adopción del almacenamiento de objetos al tiempo que las aplicaciones que rentabilizan las enormes posibilidades de los objetos de datos ganan visibilidad. Y las bases de datos en memoria, con la popular HANA de SAP a la cabeza, se unen a las tendencias del mercado.

10. El Big Data evoluciona hacia el control de la recopilación de datos nuevos.

A la vez que las empresas calculan el valor del análisis de los datos existentes, pasarán a recopilar datos adicionales que necesitarán de su análisis. Surgirán nuevos dispositivos que recopilen más datos sobre el comportamiento de los consumidores, procesos industriales y fenómenos naturales.

Estas fuentes se usarán en los análisis existentes para mejorar la perspectiva y darán lugar a aplicaciones analíticas completamente nuevas.