Categoría: SaaS

Tendencias en cloud computing para este 2019

¿Hacia dónde se dirige la nube este año, tanto en términos de tecnología como de los grandes proveedores que impulsan la industria? Según los expertos, en 2019 el mercado de cloud computing superará los 200,000 millones de dólares, un 20% respecto al año anterior.

 

Impulso de nube híbrida

Sin duda es un segmento de mercado importante, según las predicciones de la nube de Forrester. “Casi el 60% de las empresas norteamericanas ahora dependen de plataformas de nube pública, cinco veces el porcentaje que hace cinco años”, dijo un analista de Forrester. “Las nubes privadas también están creciendo rápidamente, ya que las empresas no sólo trasladan las cargas de trabajo a las mejores nubes públicas de hiperescala, sino que crean poderosas plataformas de nube locales en sus propios centros de datos, utilizando gran parte del mismo software de código abierto que pueden encontrar en las nubes públicas .

Gartner predice que para 2025, el 80% de las organizaciones habrán migrado de los centros de datos locales a la colocación, el alojamiento y la nube.

 

Google Cloud hará nuevos avances

Todavía es muy temprano, pero el nuevo CEO de Google Cloud, Thomas Kurian, tiene una gran oportunidad de ganarle a Google una parte más grande del pastel de participación en el mercado de la computación en la nube global, al convertir al proveedor en una mejor máquina de venta empresarial.

Si Kurian es capaz de comercializar mejor a Google como un proveedor empresarial, en lugar de ser un especialista en aprendizaje automático, puede esperar que la compañía mantenga su reciente impulso y obtenga una mayor participación del mercado global de AWS y Microsoft. En una descripción más general del mercado, Fabel de Canonical espera “ver que Google se centre en sus credenciales de AI, Microsoft en sus capacidades de migración de carga de trabajo y que Amazon continúe presionando a AWS en el espacio del sector público”.

El auge de la red de servicios.

Con el lanzamiento de AWS App Mesh y el código abierto de Google Istio, 2018 vio la llegada de la ‘red de servicio’. Esperamos que esta tecnología gane popularidad a medida que más organizaciones busquen una forma de administrar la complejidad y unificar la administración del flujo de tráfico, el cumplimiento de políticas de acceso y la agregación de datos de telemetría a través de microservicios en una consola de administración compartida.

 

Y de redes de aplicaciones.

“Salesforce, Workday, SAP, Oracle y otros líderes de aplicaciones están abriendo sus plataformas y agregando nuevas herramientas de desarrollo, integraciones y opciones de implementación, con la vista puesta en qué industrias específicas pueden apuntar para acelerar la adopción. Las aplicaciones SaaS se están convirtiendo en plataformas de desarrollo y ese cambio comenzará a dar frutos en 2019 “, escribe Bartoletti en Forrester, duplicando una predicción que hizo el año pasado. Sin embargo, tiene una buena razón, ya que la adquisición récord de Mulesoft por parte de Salesforce de  6.500 millones de dólares fue una clara jugada de integración.

 

Impulso sin servidor

Ross Winser, director de investigación senior de Gartner, por su parte predice: “Más del 20% de las organizaciones globales habrán implementado tecnologías de computación sin servidor para 2020, lo que representa un aumento de menos del cinco% en la actualidad”.

 

IDG.es

Commvault anuncia nueva solución de Backup & Recovery as-a-Service

Commvault anunció el portafolio Backup & Recovery as-a-Service (B&RaaS) que ofrece su principal oferta Commvault Complete Backup & Recovery, con paquetes prácticos como un servicio (as-a-Service) orientados a resultados y simplificar la protección y gestión de datos.

El portafolio incluye tres nuevos servicios basados en nube: Commvault Complete B&RaaS, Commvault Complete B&RaaS para virtual machines y Commvault Complete B&RaaS para aplicaciones nativas en la nube. Todos ofrecen la flexibilidad de seleccionar resultados específicos que atienden mejor sus necesidades de negocios y de uso para aumentar la simplicidad, facilidad y economía de costos. 

Commvault B&RaaS ofrece a sus clientes un fácil modelo de entrega “point and click”, que les permite reducir costos operacionales de tecnología en infraestructura de datos, software, servicios, capacitación y cumplimiento.

Incluye opciones de servicio para gestión de datos, protección de virtual machines y aplicaciones en Amazon Web Services (AWS) y Microsoft Azure, ya sea como aplicación de nube nativa, como Microsoft Office 365TM y SalesforceTM instalados y gestionados por Commvault, los clientes podrán obtener una infraestructura de back-end para protección y gestión de datos configurados y desarrollados automáticamente bajo demanda.

Todo lo que un cliente necesita tener instalado y funcionando rápidamente está incluido en Commvatult Complete Backup & Recovery as-a-Service, incluyendo administración de sistemas, servicios administrados remotamente y servicios profesionales.

De igual manera, el servicio ofrece el hardware Commvault HyperscaleTM según sea necesario, implementado en las instalaciones del cliente. Eso permite recuperaciones rápidas de copias locales, ya sea como capacidades de aprovechar recursos como el Commvault IntelliSnapTM.

 

Disponibilidad:

El Commvault Backup & Recovery as-a-Service estará activo y disponible para suscripción en Microsoft Azure Marketplace, AWS Marketplace y Commvault Marketplace en diciembre de 2018. Los nuevos servicios también estarán disponibles para compra a través de la red de socios de Commvault con opciones adicionales para soporte, planos y personalización.  

¿Cuál es el futuro de la virtualización de servidores?

La virtualización de servidores es una de esas tecnologías que tiene un concepto simple y un impacto profundo en los centros de datos empresariales.

¿Qué pasaría si, en lugar de ejecutar una instancia de sistema operativo y una aplicación por servidor, puede agregar una capa de software, conocida como hipervisor, que le permite ejecutar varias instancias del sistema operativo y las cargas de trabajo asociadas en un único servidor físico?

Esa es la idea detrás de la virtualización de servidores, y la idea se remonta a los mainframes de IBM en la década de 1960 y fue popularizada por VMware, que introdujo el software de virtualización para servidores x86 a principios de la década de 2000. Desde entonces, otros proveedores han desarrollado sus propias plataformas de virtualización de servidores y la industria en su conjunto ha creado herramientas avanzadas de administración, automatización y orquestación que hacen que la implementación, el movimiento y la administración de las cargas de trabajo de las máquinas virtuales (VM) sean muy sencillas.

Antes de la virtualización de servidores, las empresas tratan la proliferación de servidores, la potencia de cálculo subutilizado, con alza de facturas de energía, con los procesos manuales y con la ineficiencia general y falta de flexibilidad en sus entornos de centros de datos.

La virtualización de servidores cambió todo eso y ha sido ampliamente adoptado. De hecho, es difícil encontrar una empresa que no esté trabajando la mayor parte de sus cargas de trabajo en un entorno de máquina virtual.

La virtualización de servidores tomó un dispositivo físico y lo dividió en dos, lo que permite que múltiples sistemas operativos y múltiples aplicaciones completas aprovechen la potencia informática subyacente.

En la siguiente ola de computación, desarrolladores de aplicaciones está cortando en partes más pequeñas qué servicios se ejecutan en un lugar de cara a experimentar con la informática sin servidor (también conocida como función-as-a-service (FAAS).

 

Beneficios de la virtualización de servidores

El servidor virtual comenzó y se reunió con la consolidación del servidor base. Se pueden combinar múltiples aplicaciones en una sola pieza de hardware, reduciendo así el número total de servidores necesarios en el centro de datos. Menos servidores, menos bastidores, menos equipo de red. Todo se traduce en ahorros de dinero, desde el espacio físico hasta los costes de mantenimiento y el aire acondicionado.

La virtualización de servidores reduce la necesidad de gastos de capital en hardware nuevo, lo que le permite desconectarse de la actualización de hardware.

Con la virtualización de servidores los avances en la automatización le permiten girar una máquina virtual en cuestión de segundos y mover varias cargas de trabajo en el toque de un botón en respuesta a las cambiantes necesidades del negocio.

La virtualización de servidores también ofrece la alta disponibilidad, velocidad, escalabilidad, agilidad, rendimiento y flexibilidad que requieren las empresas altamente conectadas basadas en la web de hoy en día.

Y la virtualización de servidores es la tecnología subyacente que permite a los proveedores de computación en la nube ofrecer sus servicios. Cuando un cliente solicita una infraestructura-as-a-Service (IaaS) de un proveedor de servicio en la nube, Comienzan con máquinas virtuales y después añadir sobre las características de almacenamiento, gestión y seguridad asociados necesarios para llevar a cabo la tarea en cuestión.

 

Los diferentes tipos de virtualización de servidores

Con la virtualización estándar basada en hipervisor, el hipervisor o monitor de máquina virtual (VMM) se ubica entre el sistema operativo host y la capa de hardware subyacente, proporcionando los recursos necesarios para los sistemas operativos invitados.

La virtualización de para y la virtualización completa modifican el sistema operativo invitado antes de la instalación en la máquina virtual. Esto mejora el rendimiento ya que el sistema operativo huésped modificado se comunica directamente con el hipervisor, lo que elimina la sobrecarga de la emulación.
También se intenta la virtualización asistida por hardware para reducir la sobrecarga del hipervisor, pero lo hace a través de extensiones de hardware, en lugar de modificaciones de software.

Con la virtualización a nivel kernel, en lugar de usar un hipervisor, ejecuta una versión separada del kernel de Linux. Esto hace que sea fácil de ejecutar múltiples máquinas virtuales en un único host, con un controlador de dispositivo utilizado para la comunicación entre el principal núcleo de Linuxy las máquinas virtuales. Finalmente, con la virtualización del sistema operativo, puede ejecutar entornos múltiples pero lógicamente distintos en una única instancia del kernel del sistema. Con la virtualización a nivel de sistema, todas las máquinas virtuales deben compartir la misma copia del sistema operativo, mientras que la virtualización de servidores permite que diferentes máquinas virtuales tengan diferentes sistemas operativos.

 

Neal Weinberg

Tenable lanza solución para asegurar infraestructura crítica en IT/OT

Tenable presentó solución diseñada para reducir el riesgo de ciberseguridad en los entornos IT / OT convergentes. Las mejoras en la plataforma Tenable.io e Industrial Security, se trata de una solución de descubrimiento de activos y detección de vulnerabilidades para sistemas de tecnología de operación (OT), en asociación con Siemens, permite a las organizaciones gestionar la exposición cibernética de manera integral en TI y OT y priorizar la remediación basada en criticidad del activo y la vulnerabilidad.

La tecnología operacional (OT) y los sistemas de infraestructura crítica se diseñaron inicialmente para trabajar de manera aislada del resto de la red y protegidos de amenazas de ciberseguridad externas. Pero la transformación digital ha convertido a estos sistemas aislados en dispositivos conectados, lo que los convierte en objetivos de alto valor para los atacantes. De hecho, los ataques a los activos de OT a menudo inician  comprometiendo los sistemas de TI y luego moviéndose lateralmente, como observó el FBI y el Departamento de Seguridad Nacional al emitir una advertencia sin precedentes sobre los ataques patrocinados por el estado ruso en la infraestructura crítica de los EE. UU.

Los entornos convergentes contienen una combinación de dispositivos y sistemas de TI y OT que exigen un enfoque holístico de seguridad cibernética para que las organizaciones puedan administrar, medir y reducir con precisión los riesgos de ciberseguridad.

Las mejoras incluyen:

  • Escaneo Inteligente: éste construye una capa de inteligencia sobre escaneo activo y monitoreo de red pasiva para evaluar los sistemas de TI y OT dentro de un solo flujo de trabajo. En ciertas situaciones el escaneo activo puede ser demasiado intrusivo para los sensibles sistemas OT y puede causar la interrupción del sistema, si se realiza en estos dispositivos. El Escaneo Inteligente dejará de analizar activamente los activos de TI cuando se encuentre con un dispositivo OT.

 

  • Cobertura ampliada de activos de OT: Tenable ha ampliado sus capacidades de evaluación sobre una gama aún más amplia de activos de OT. El soporte ampliado incluye más de 250 dispositivos y aplicaciones adicionales de Siemens, Schneider y Rockwell / Allen-Bradley, que brindan a los clientes una mayor visibilidad sobre todos sus activos de OT y entornos mixtos de tecnología de TI / OT.

 

  • Mapas de topología interactivos: los nuevos mapas de topología 2D y 3D muestran las relaciones entre los recursos de TI y OT como parte de un sistema convergente. Este nuevo nivel de inteligencia de activos de TI y OT, combinado con nuestra profunda inteligencia de vulnerabilidad, proporciona a los clientes un heat map basado en riesgo, en la criticidad del activo y en la vulnerabilidad, lo que permite una priorización más eficiente y una remediación más rápida.

 

“Los desafíos de seguridad que enfrentan las organizaciones con tecnologías operativas no pueden exagerarse. Los activos de TI y OT individualmente, y juntos como sistemas convergentes, forman parte de la superficie de ataque moderna y, por lo tanto, son puntos de riesgo de ciberseguridad. Las organizaciones que determinan su estado de seguridad sin contemplar los activos de OT como parte de la superficie de ataque, carecen de la visibilidad crítica necesaria para comprender su exposición cibernética “, dijo Dave Cole, director de producto de Tenable.

 

Cómo la emulación puede ayudarlo a alcanzar la Transformación Digital

La emulación y la virtualización se presentan hoy en día como tecnologías que provocan transformaciones importantes en las industrias al permitir volver algo rígido y obsoleto en sistemas más flexibles, capaces de ofrecer a las empresas numerosos beneficios; pero qué significa software clásico “legacy” o heredado.

Según Eduardo Serrat, CTO de Stromasys “Sistemas Clásicos “Legacy”, incluyen, software y hardware clásico, por su parte es software que ha estado en funcionamiento por mucho tiempo y que aún satisface una necesidad requerida por la empresa. Tiene una misión crítica y está sujeto a una versión particular de un sistema operativo o modelo de hardware (sujeto a un proveedor exclusivo) al que ya le ha llegado el fin de su existencia. Generalmente la duración de vida del hardware es más corta que la del software. Al pasar de los años, el hardware se vuelve más difícil de mantener, pero se conserva porque está instalado y (por el momento) funcionando y es demasiado complejo y/o costoso remplazarlo.”

En este escenario, quienes tienen instalados los sistemas “legacy” están en todas partes; bancos, empresas de energía (incluyendo plantas nucleares), producción de todo tipo (control de procesos), industria de la defensa, transporte, hospitales, entidades de gobierno y educativas, seguros, y más.

 

 7 beneficios empresariales frente la emulación y la virtualización:

  • Mitigacion de riesgos ante una falla castastrofica de los sistemas clásicos “Legacy”.
  • Modernización de sus sistemas clásicos “legacy”. Las soluciones de emulación y virtualización pueden ser utilizadas en todo tipo de industrias y la compañía puede seguir operando sus aplicaciones heredadas sin tener que pasar por un proceso de readiestramiento.
  • Reducción de costos operativos mediante la reducción de hasta un 85% de espacio físico, y hasta un 90% los costos de consumo de energía y disipación de calor.
  • Aumento de productividad, ya que estos sistemas modernos tienen mejor rendimiento en términos de “performance”.
  • Incorporación de esquemas de alta disponibilidad y la capacidad de responder rápidamente a las necesidades de los clientes.
  • Ser parte de la tan mencionada transformación digital que estamos viviendo y mejor colaboración, puesto a que estos sistemas heredados que fueron sistemas aislados en el pasado, pasan a ser parte del ecosistema y la transformación digital de la empresa.
  • Automatización, siendo parte del ecosistema, antiguos procesos manuales pueden ser automatizados

Se venden menos servidores, pero a un precio más alto

El último informe de Gartner sobre el mercado mundial de servidores correspondiente al primer trimestre del año revela un crecimiento del 33.4% en ingresos y de un 17.3% en comercialización de unidades.

El crecimiento ha sido favorecido por los aumentos en el gasto en centros de datos hiperescala además del gasto de grandes y medianas empresas.

“Están invirtiendo en su infraestructura y on-premises para dar soporte a reemplazos de servidores y a los requerimientos de crecimiento aunque sigan con sus inversiones en soluciones de nube pública”, analizó Jeffrey Hewitt, de Gartner.

El mercado de servidores global ingresó un total de 16.692 millones de dólares durante los tres primeros meses del año, lo que supuso un incremento interanual del 33.4%.

Por fabricantes, Dell EMC lideró el ranking, con unos ingresos de 3,593 millones de dólares por esta vía, un 51.4% más que hace un año.

HPE ocupa el segundo puesto, con unos ingresos de 3,321 millones de dólares y un crecimiento interanual del 10.4%.

La china Inspur Electronics ha sido quien ha experimentado el mayor incremento de ingresos, un 120.4% interanual hasta los 1,188 millones de dólares.

 

IDG.es

Mercado mundial de infraestructura de aplicaciones y ‘middleware’ creció 12% en 2017: Gartner

El cambio significativo de los modelos de negocios digitales que aprovechan tecnologías como la computación en la nube, internet de las cosas, análisis de datos e inteligencia artificial, está impulsando el gasto mundial en infraestructura de aplicaciones y middleware (AIM).

Las cifras de Gartner muestran que los ingresos del mercado de AIM alcanzaron los  28.5 mil millones de dólares en 2017, un aumento del 12.1% con respecto a 2016.

Es más, la consultora pronostica que el mercado de AIM crecerá aún más rápido en 2018, lo cual el gasto disminuirá cada año, llegando a alrededor del 5% en 2022.

Las tendencias tecnológicas más amplias que impulsan el mercado AIM son comúnmente aceptadas entre las empresas: migración a plataformas y servicios en la nube, demanda cada vez mayor de datos y análisis casi en tiempo real, un cambio hacia una economía API, proliferación rápida de terminales IoT y despliegue de IA.

“Un nuevo enfoque de la infraestructura de aplicaciones es la base sobre la que las organizaciones construyen sus iniciativas digitales y, por lo tanto, la sólida demanda en el mercado AIM es un testimonio de la digitalización”, ha explicado Fabrizio Biscotti, vicepresidente de investigación de Gartner. “Cuantas más empresas avancen hacia modelos de negocios digitales, mayor será la necesidad de una infraestructura de aplicaciones moderna para conectar datos, software, usuarios y hardware de manera que entreguen nuevos servicios o productos digitales”.

Los paquetes de integración de aplicaciones heredadas, que conforman segmentos más grandes atendidos por operadores ya establecidos como IBM y Oracle, han logrado un crecimiento de un dígito en 2016 y 2017. Gartner espera que este crecimiento continúe hasta el 2022.

“En general, podemos decir que el crecimiento de los productos en las aplicaciones heredadas es lento”, ha comentado Biscotti.

Sin embargo, el pequeño segmento iPaaS, construido predominantemente en torno a la nube ya  las ofertas de integración de aplicaciones basadas en código abierto, continuarán disfrutando de un crecimiento de dos dígitos. “En iPaaS encontramos las bases para un futuro digital, ya que los productos en este segmento generalmente son más ligeros, tienen una infraestructura de TI más ágil adecuada para los casos de uso en rápida evolución en torno al negocio digital”, ha contado Bindi Bhullar, director de investigación de Gartner. “El resultado es que los proveedores iPaaS bien financiados, los proveedores de herramientas de integración de código abierto y las herramientas de integración de bajo coste desafían la posición dominante de los proveedores tradicionales”.

Aunque el segmento de iPaaS es todavía una pequeña parte del mercado general, ya ha superando  el mil millón de dólares en ingresos por primera vez en 2017 después de crecer más del 60% en 2016 y 72% en 2017. Esto convierte a iPaaS en uno de los segmentos de software de más rápido en términos de crecimiento.

“El mercado de iPaaS también está comenzando a consolidarse, sobre todo con la reciente adquisición de MuleSoft por parte de Salesforce”, ha mencionado Bhullar. “Todavía hay mucho espacio para una mayor consolidación, con más de la mitad del mercado AIM en manos de proveedores fuera de los cinco principales. Este segmento está disfrutando de un crecimiento de dos dígitos, lo que probablemente alentará a que los grandes jugadores que empiecen a perder mercado comiencen a sumarse a él”.

Por su parte, Biscotti ha agregado que los desafíos más exitosos en el mercado de AIM serán aquellos que posicionen sus productos como complementarios a la infraestructura de software heredada existente, en lugar de reemplazarla, que es común en la mayoría de las grandes organizaciones.

 

IDG.es

Nube, 90% más segura que servidores on-premise

Distracción, olvido y fugacidad son tres características para describir a la era digital. La mayoría de los negocios han escuchado o experimentado de lo que son capaces amenazas malware como Wannacry o NotPetya. Las vulnerabilidades en la red están a la orden del día y es necesario minimizar la brecha de seguridad y tomar el control de nuestros equipos.

Una práctica común es la actualización y configuración de parches de seguridad en los sistemas operativos, un proceso engorroso que quita tiempo, dificulta el trabajo y finalmente, no garantiza la seguridad que buscamos.

“Las ventajas del software en la nube son muy fáciles de identificar: ahorro en el mantenimiento del software, actualización automática de sistemas y fundamentalmente, protección de datos”, aseveró Esteban Rey, CEO de On Cloud. No caben dudas acerca de la vulnerabilidad de los entornos de red normales -muchos más susceptibles a los ataques ciber piratas- que aquellos que están alojados en una compañía. “Nosotros diseñamos soluciones en la nube a partir de las premisas de seguridad, ese es nuestro pilar y el punto de arranque de toda nuestra oferta de valor”, concluyó.

En 2017, la consultora Deloitte presentó un reporte en donde afirma que México es el segundo país con mayor actividad de ciberataques en América Latina y señala las prácticas más comunes de Malware: robo de identidad, hackeo a medios de comunicación y secuestro a bases de datos. En este contexto, tomar decisiones acerca de dónde o como gestionar tanto los datos personales como los de una empresa son vitales.

“Nadie está exento de un ataque, pero el hecho de trabajar en la nube puede ofrecer ciertas garantías como la recuperación de datos en periodos de tiempos muy cortos incluso minutos. Se mitiga el riesgo”, afirma Rey.

La piratería cibernética tiene consecuencias dramáticas para los consumidores, pero la gravedad aumenta cuando los efectos de un ciberataque impactan en ventas, valores de mercado y cualquier otra variable de una empresa. La información financiera suele ser el objetivo principal de un ataque, se trate de un holding multinacional o incluso de una Pyme. Se estima que en México las pérdidas anuales registradas por este tipo de prácticas suman 2 mil millones de dólares.

Universidad Anáhuac moderniza su estructura de infraestructura de red

La Universidad Anáhuac, campus Querétaro, anunció la renovación completa de su infraestructura de red con la tecnología de Aruba, una compañía de Hewlett Packard Enterprise, con el objetivo de ofrecer conectividad estable, ubicua y de alto desempeño a sus alumnos, personal docente y administrativo.

En el mundo digital que nos encontramos actualmente, mantener una conectividad estable y veloz se ha vuelto indispensable, por ello no sólo se renovó la Universidad Anáhuac campus Querétaro renovó su infraestructura física de red, también adoptó soluciones de inteligencia que le permiten gestionar dicha red de manera inteligente.

“Actualmente la conectividad ya no es un extra, sino una verdadera necesidad tanto para los alumnos, como para todos los que aquí laboramos”, comentó Óscar García, Coordinador de Servicios de Tecnología de la Universidad.

El objetivo principal es calidad en conectividad para correr aplicaciones en aula, agilizar procesos y simplificar algunas de las tareas del proceso de enseñanza.

Se ha logrado un pico de 6,800 conexiones concurrentes, una prueba que la red superó con creces y que permitió a la Universidad Anáhuac, campus Querétaro, medir la capacidad de su red en cuanto al número de conexiones.

 

El doble valor de la nube para un mundo siempre conectado

La nube es una de las tecnologías a las que cada vez mayor número de organizaciones está recurriendo, pues implementada inteligentemente les permite ofrecer servicios más ágiles y seguros, de manera fácil y eficiente. Hace poco más de una década que nació este formato de cómputo, pero es hoy que vive su mayor momento debido al ritmo de la innovación en la historia reciente, impulsado por estrategias de transformación digital, colaboración 7.24.365 e hiper disponibilidad, entre otras.

Es significativo el número de organizaciones en las que la nube está cambiando la forma en que cumplen tanto con sus metas de producción como con las de protección. De acuerdo con el Reporte de Disponibilidad 2017 de Veeam, las empresas a nivel nacional están invirtiendo aceleradamente en la nube, en diversos formatos: 67%, en software como servicio (SaaS); 50%, en infraestructura como servicio (IaaS), y 40%, en plataforma como servicio (PaaS). De manera adicional, 57% de ellas también invierten en respaldo como servicio (BaaS), y 43%, en recuperación ante desastres como servicio (DRaaS).

Para la conformación del mundo permanentemente activo y conectado que empresas y usuarios esperan, la nube está demostrando tener, pues, un doble valor: por un lado, ciertamente es el habilitador por excelencia de la transformación digital de los negocios, al abrir la puerta a una mayor productividad de los empleados mediante herramientas de colaboración y automatización de procesos que hacen más ágil la operación, pero por otro –no menos importante–, la nube es también uno de los principales ingredientes con los que las compañías garantizan la disponibilidad de datos, aplicaciones e infraestructura.

Los cambios por venir

El naciente fenómeno del aprovechamiento dual del cómputo en la nube implica ciertas modificaciones a la tendencia tecnológica que esta modalidad representa, las cuales comenzarán a hacerse presentes en las iniciativas de TI de las organizaciones.

La más notoria es, sin duda, el uso de una estrategia de nube híbrida, dado que no existe un único entorno de nube que sea perfecto para cada carga de trabajo. En este sentido, las plataformas de gestión de ambientes multi-nube seguirán madurando para dar paso a la óptima integración de los diferentes tipos de nubes. De igual forma lo harán los servicios de bases de datos en la nube, como Azure Cosmos y Google Cloud Spanner, permitiendo el desarrollo de nuevas aplicaciones de misión crítica, de híper escala y sumamente distribuidas.

Conforme este tipo de soluciones y otras aplicaciones nativas en la nube continúen mejorando para un mayor aprovechamiento del entorno Cloud, el interés de las empresas por integrar datos y análisis en cada herramienta que se entregue en la nube será cada vez mayor. Características atractivas como baja latencia, escalamiento horizontal y distribución geográfica proporcionarán el tipo de potencia que requieren las tendencias globales, como el Internet de las Cosas (IoT).

De cara al futuro, una vez que se vayan dando estas modificaciones, la inteligencia artificial (IA) habilitada a través de las plataformas de nube comenzará también a penetrar de forma masiva en las diferentes industrias y aplicaciones empresariales.

Si hoy día tecnologías como Alexa, Cortana y Siri ya demuestran el poder de esta tendencia y su impacto en la vida diaria, imagine lo que la IA y las capacidades del aprendizaje automático harán por las organizaciones, impulsadas por petabytes de datos y recursos computacionales ágiles y eficientes. Por citar unos ejemplos, podemos pensar en el gran impacto que podrían tener la investigación biotécnica, los modelos económicos y financieros, y la experiencia de los clientes, entre otras.

La pregunta para las organizaciones en la actualidad no gira en torno a subirse o no a la nube, sino a cuál es la mejor estrategia para tener éxito. Apenas estamos comenzando a entender las nuevas dinámicas que provocarán la evolución de la nube y las aplicaciones que se monten en ella, así como la creciente automatización y, por supuesto, la nueva agilidad que ofrecerá la hiper disponibilidad.  Lo que sí es un hecho es el alto valor que la nube tiene en la tarea de las empresas de prepararse para la nueva era digital de los negocios y la interacción con clientes.

Por: Paul Mattes, vicepresidente del Grupo de Nube Global de Veeam.