Del dia, Destacado, Noticias, Principal

Seis tips para virtualizar servidores

Sin lugar a duda, el retorno sobre la inversión que los expertos atribuyen a la virtualización resulta de un irresistible atractivo. Pero Gartner advierte que existe el peligro de realizar una implementación incorrecta de múltiples factores, incluidos los costos, la estrategia de gestión, el enfoque, la arquitectura y el software, por lo que no conviene introducirla sin realizar una planificación detallada con anterioridad. Podría evitarse muchos problemas si las empresas dedicaran el tiempo y el esfuerzo necesario a realizar los análisis adecuados de sus activos antes de lanzarse a la virtualización de sus máquinas. “En los próximos cinco años, el mercado de la virtualización para servidores, todavía bastante joven, irá alcanzando su madurez. La competencia en este segmento irá aumentando progresivamente y forzará a los suministradores a introducir cambios en los precios”, explica Phil Dawson, vicepresidente de investigación de Gartner. Sin embargo, la mayoría de las empresas, sin embargo, no pueden permitirse esperar a que tal madure se produzca, según Dawson, porque muchos de los problemas que la virtualización promete resolver están aquí ya. Entre esos problemas destaca la proliferación de servidores, en continuo aumento debido a la creciente necesidad de soportar las cargas TI corporativas, siempre en aumento, y la necesidad de reducir tanto el espacio ocupado por los equipos en los centros de datos como los cada vez más altos costos del suministro eléctricol de los data centers. Las empresas que hoy experimentan dichos problemas y tienen prisa por resolverlos mediante la virtualización, no deben preocuparse. Pese a la relativa inmadurez del mercado, “cualquier organización que despliegue al menos 50 máquinas virtuales al año podría elaborar ya un caso de negocio con rápidos tiempos de retorno sobre inversión (ROI) hoy día”, asegura Dawson. “Con el enfoque y la estrategia de virtualización adecuados, y con un plan a largo plazo sobre los cambios que la introducción de estas tecnologías implicarán en los procesos y herramientas de gestión, las empresas podrán aumentar la eficiencia de sus proyectos de virtualización desde el principio y conseguirán modificar la arquitectura de sus servidores para hacerlos más eficientes, convirtiéndolos en una pila fluida de capacidad dinámica”. Según Dawson, de esta manera, no sólo se conseguirá resolver los retos de control de consumo de energía y espacio de los centros de datos que afectan a un gran número de organizaciones. Además de ello, los departamentos TI ganarán en eficiencia y flexibilidad como proveedor de capacidad servidor para los usuarios finales de los servicios que gestionan. Desde 2001, los analistas de Gartner han tenido miles de interacciones con sus clientes en proyectos de virtualización y los asuntos más comunes sobre los que han girado tales contactos han sido las prácticas más recomendables en el punto de partida. Durante sus conversaciones con más de 1,000 empresas que se encaminan hacia una arquitectura servidor virtualizada y madura, la consultora ha identificado seis prácticas especialmente recomendables en las fases iniciales de cualquier proyecto de esta naturaleza. Y dada la importancia concedida por la consultora a una buena planificación previa para el éxito de la virtualización, ha decidido ponerlas a disposición de las organizaciones interesadas. Tales prácticas son las siguientes: Comenzar con iniciativas pequeñas, pero pensando en grande En primer lugar, aunque consultores y OEMs recomendarán generalmente optar por virtualizaciones de servidores de gran escala, Gartner advierte que tanto desde el punto de vista de costes, como del de la gestión y la cultura corporativa, lo más conveniente es empezar con iniciativas de pequeño alcance. Pero siempre teniendo en cuenta que ese no será el fin. Conviene enfocar los proyectos teniendo en cuenta que existirán dos fases muy diferentes en los despliegues de la virtualización de servidores. La primera de ellas habrá de enfocarse en la consolidación de servidores, los ahorros en costos y el incremento en el nivel de uso del hardware. La segunda será más importante desde una perspectiva estratégica, como también más compleja de implementar, aunque al mismo tiempo proporcionará mucho más valor a la empresa. En esta última fase, el eje cambiará, convirtiéndose en el máximo objetivo la entrega de nuevos servicios y la mejora de la calidad y velocidad de los ya existentes. Exigir un ROI rápido Dado que el mercado –y, por tanto, el precio- de las tecnologías de virtualización está, como se ha dicho ya, evolucionando rápidamente, es importante que los “business cases” que se desarrollen antes de iniciar el proyecto para demostrar la conveniencia para el negocio de emprenderlo incluyan un rápido retorno sobre la inversión realizada. Gartner aconseja que tales documentos muestren un ROI completo en el plazo de seis meses, o aún menos, para las iniciativas de virtualización. Como ya se ha comentado, la consultora asegura que los casos de negocio más atractivos podrán elaborarse en compañías que desplieguen 50 máquinas virtuales o más en un año. Virtualizar las aplicaciones adecuadas No toda aplicación es un buen candidato para ser virtualizada. En particular, se corre el peligro de que aquellas con elevadas necesidades de entrada y salida (input/output) pierdan eficiencia si corren sobre máquinas virtuales. Por otra parte, conviene señalar que en las aplicaciones que ya estén utilizando eficientemente el hardware para ellas designado, la virtualización no generará ahorros. No olvidemos que, en este sentido, sus beneficios se derivan de su capacidad para eliminar ineficiencias en el uso de las capacidades. Según Gartner, las mejores aplicaciones objetivo en este tipo de proyectos tienden a ser las empaquetadas de menor tamaño y las más antiguas. Hoy día, la mayoría de las máquinas virtuales se despliegan en aplicaciones relacionadas con tareas de producción, generalmente en servidores menos críticos pero que van aumentando su importancia para el negocio. Definir la estrategia de almacenamiento También constituye un factor especialmente crítico para maximizar la agilidad ganada por las empresas gracias a sus despliegues virtualizados el decidir cómo y dónde almacenar las imágenes y los datos de aplicación, dada la estrecha interrelación entre almacenamiento y servidores. Por ejemplo, si una organización guarda imágenes virtuales en un sistema de almacenamiento DAS (Direct Attached Storage), su capacidad para replicar o recuperar tales imágenes, especialmente en caso de fallo, estará limitada. Si, por el contrario, tales imágenes se encuentran soportadas sobre un sistema de almacenamiento central, tendrá la flexibilidad que ofrece la posibilidad de acceder a las imágenes virtuales desde cualquier servidor conectado a tal sistema. Comprender los aspectos que afectan al software La virtualización ha sido una tendencia de mercado en tan rápido crecimiento que los proveedores de software todavía se encuentran reaccionando en lo que se refiere a la definición de los sistemas de precios y licencias para las aplicaciones que corren sobre entornos virtualizados, como también en la determinación de sus políticas de soporte. Gartner prevé que este punto continuará siendo un aspecto problemático del mercado en el futuro próximo. Hasta que se ideen nuevos y más adecuados modelos de precios y licencias, los usuarios deberían esforzarse especialmente por comprender las políticas al respecto de los distintos suministradores de software independientes (ISV) lo más detalladamente posible y aceptar que, hasta que los asuntos relacionados con los ISV se resuelvan, los servidores de pequeño tamaño seguirán representando la norma en este tipo de entornos. Combinar máquinas virtuales de manera efectiva Finalmente, resultará mucho más recomendable disponer de un proceso flexible para reasignar dinámicamente la capacidad servidor que concebir un mapa perfecto de consolidación estático. Las cargas de trabajo son intrínsecamente cambiantes y poder tratar con tales cambios de forma dinámica constituye, por tanto, un objetivo clave, particularmente en las etapas tempranas de los proyectos de virtualización.