Del dia, Destacado, Noticias, Principal

Virtualización de servidores no está excento de ri

Ciertamente, la virtualización de servidores ofrece beneficios irresistibles a las empresas, pero también puede ocasionarles dolores de cabeza. Entre los primeros cabe destacar el ahorro de equipos y hardware en el centro de datos –y el consiguiente ahorro de espacio- la agilización de las cargas de trabajo, una mayor flexibilidad en la recuperación ante desastres, la reducción de costos, y, por ende, la disminución de las emisiones de carbono que perjudican a nuestro planeta. Todas estas ventajas tienen, no obstante, un precio, que puede llegar a ser muy alto si la planificación no es la adecuada. En el camino hacia la virtualización existen algunos obstáculos difíciles de superar y que la empresa debe conocer y prever de antemano. Un tropezón podría llegar a arruinar cualquier proyecto de esta naturaleza. Sin duda, le resultará traumático el darse cuenta repentinamente de que la plantilla de TI de su empresa no está preparada para llevarlo a cabo y requiere una importante formación al respecto, por ejemplo. O quizá se lleve una sorpresa desagradable al no haber previsto que le llevaría al menos un mes tomar el control de su entorno de servidor para poder empezar a trabajar en su transformación. También podría verse obligado a gastar dinero extra para cubrir algunos costos ocultos o comprar nuevo equipamiento, porque -sí, así es- para lo que se supone un proyecto de consolidación de servidor, probablemente necesitará al principio adquirir nuevas máquinas. E incluso si consigue arreglárselas para salir airoso de estas y algunas otras dificultades, lo más probable es que, al menos en algunos momentos, se sienta confundido ante los numerosos -y, a veces, contradictorios- reclamos de liderazgo en rendimiento de los diferentes proveedores de virtualización. Más allá del marketing Probablemente existe un exceso de marketing en los discursos de los fabricantes de este tipo de tecnologías. Bajando a la realidad, podría decirse que, en rigor, el rasgo esencial de la virtualización de servidor consiste en romper el matrimonio tradicional entre el hardware y el software (en este caso, entre el sistema físico y el software de sistema operativo), y en permitir, como consecuencia, que un único servidor físico hospede muchos servidores virtuales con sistemas operativos diferentes. Los beneficios de ello derivados acercarán a la empresa a lo que cualquier responsable de TI consideraría el nirvana informático, una de cuyas características es, sin duda, la consolidación de servidores. Los propios fabricantes se han dejado seducir por la idea. Realmente el mercado está inundado de casos de éxito relacionados con la virtualización del servidor, y el ritmo con que se producen aumenta cada día. Y los beneficios por ella prometidos están teniendo un claro reflejo en la industria. La firme apuesta del mercado por estas tecnologías hizo que la unidad de virtualización de EMC, VMWare, adquiriera un valor de casi $1,000 millones de dólares en su salida al mercado bursátil. Citrix Systems, que en diciembre de 2007 adquirió al proveedor de virtualización de servidor XenSource, se apresuró a presentar en marzo Xen Server 4.1, la primera versión de este hipervisor desarrollada tras la compra. Por su parte, la firma de investigación de mercado Gartner la definió como “la tendencia más importante en el ámbito de servidores hasta 2012”. Y hasta Microsoft ha demostrado su elevado interés por este negocio con el lanzamiento de su hipervisor (o gestor de máquina virtual) Hyper-V, que compite ya directamente con las ofertas de VMware, líder indiscutible en la actualidad, y Citrix. Pero más allá de la fiebre de virtualización que inunda el mercado, lo cierto es que la virtualización de servidor cambia desde sus fundamentos más profundos la apariencia y el funcionamiento de los centros de datos. Y ninguna gran transformación es fácil. Pueden no conseguirse ahorros en hardware Una de las mayores ironías de la virtualización de servidor consiste en que muchas empresas esperan conseguir ahorrar con ella grandes cantidades de dinero desde el principio, cuando, como se ha apuntado, la realidad es muy diferente. A menudo les exigirá al principio gastos adicionales. Esto se debe a que la virtualización de servidor demandará ineludiblemente dos cosas: almacenamiento compartido y servidores potentes, ricamente configurados y equipados con chips de memoria basada en hardware del tipo de algunos de los ofrecidos por AMD e Intel. Incluso si usted ya cuenta con este tipo de servidores, no podrá evitar cierta inversión derivadas de las peculiares exigencias del nuevo entorno que planea introducir. Las cuestiones de interoperatividad de servidor, por ejemplo, frustrarán muchas jornadas de los trabajadores implicados en proyectos de virtualización. Por poner un caso, “no se pueden mezclar plataformas AMD e Intel en el mismo cluster ESX (VMware)”, como explica Chris Wolf, analista de Burton Group. “Resulta imposible mover una máquina virtual entre ellos sin reiniciarla”. Algo parecido ocurre con las redes de área de almacenamiento (SAN). No todas las SAN soportan un entorno virtualizado. Además, el ancho de banda existente en la empresa quizá resulte de pronto insuficiente para satisfacer las demandas de un número creciente de servidores virtuales, lo que obligará a terminar gastando dinero adicional en nuevos servidores, conmutadores y otros equipamientos de TI. Y, lo que es peor, los costos de actualización pueden llegar a eclipsar casi todos los ahorros iniciales derivados de los servidores que se hayan logrado eliminar mediante la consolidación, como advierte el consultor y colaborador de InfoWorld Test Center Matt Prigge. Cuando la virtualización de servidores empezó a ganar adeptos, los observadores de la industria pensaron que el mercado de servidores podría entrar en una etapa difícil, debido a la previsible reducción en la demanda de equipos. Después de todo, como se ha dicho varias veces, la virtualización permite consolidar un mayor número de aplicaciones en uno menor de servidores, preferiblemente en aquellos ya existentes en la empresa. En un principio pareció que los expertos tenían razón: Gartner cree que la virtualización llegó a reducir el mercado de servidores x86 en un 4% durante 2006. Pero pronto se hizo evidente, según Doug Dineley, editor ejecutivo de InfoWorld Test Center, “que, para virtualizar, se necesitaba estandarizar rigurosamente el hardware de la granja virtual”, por lo que muchas plataformas de servidor debían ser sustituidas por otras. De hecho, el mercado de servidores no ha perdido su fuerza, como demuestra el hecho de que el año pasado se vendieran ocho millones de nuevos servidores a nivel mundial, un 6,7% más que en 2006, de acuerdo con las cifras de la consultora IDC. En cualquier caso, la mayoría de los responsables de TI corporativos abordan la estandarización de hardware y la virtualización de servidor lentamente, sin prisas, aprovechando por lo general los ciclos normales de sustitución de las máquinas. Y la introducen, además, experimentando en áreas no críticas -como los servidores de impresión- antes de llevarla a las aplicaciones de correo electrónico y a las bases de datos corporativas. Se trata de un enfoque extremadamente cauto, según IDC, quien augura que “no empezaremos a ver realmente el impacto de la virtualización en el crecimiento de las entregas de unidades servidor hasta transcurridos dos, tres o cuatro años”. Conseguir profesionales adecuados Los cambios tecnológicos no son, por otra parte, la única exigencia imprevista que la virtualización impondrá en la empresa. IDG Research Services, unidad hermana de InfoWorld, entrevistó a fi­nales del año pasado a 464 empresas para conocer sus experiencias con la virtualización. El 44% de ellas señaló la formación y la falta de profesionales con las habilidades adecuadas como el reto más difícil de resolver, seguido de asuntos relacionados con los sistemas de licencias de software, la escalabilidad y el rendimiento, y la complejidad. Por tanto, no espere que su plantilla de TI tenga todas las respuestas necesarias en los proyectos de virtualización. Le llevará al menos un mes el conseguir tan sólo una comprensión precisa de las cargas servidor actuales y de los picos de demanda, un conocimiento, por otra parte, imprescindible para tomar la decisión adecuada sobre qué servidores pueden y deben virtualizarse. En las pequeñas empresas con sólo un puñado de empleados de TI, quizá sea incluso necesario contratar -¡otra sorpresa!- un caro consultor altamente calificado para llevar a cabo la planificación de las capacidades. Si no lo hacen, el proyecto podría resultar en un absoluto fracaso. Además muchas pequeñas compañías no dispondrán de la experiencia SAN necesaria o, por ejemplo, de la capacidad para combinar en un mismo engranaje conmutadores Cisco y las complejas pilas de networking virtual VMware. La virtualización mezcla tantos aspectos diferentes de las redes, de la configuración servidor y de la configuración del almacenamiento, que requiere una gran diversidad de conocimientos y habilidades para que su implementación resulte un éxito, incluso en un entorno pequeño. Aunque tampoco las grandes organizaciones lo tendrán fácil. Conseguir implicar adecuadamente a personas de equipos distintos –servidores, almacenamiento, continuidad de negocio, seguridad…- en el mismo proyecto resultará complicado, especialmente cuando, como por lo general ocurre, han formado siempre parte de departamentos bastante independientes, con escasa comunicación entre sí. Todos ellos, en cualquier caso, deberán además recibir formación específica. Un administrador deberá comprender, por ejemplo, que, si se produce un problema con una aplicación, antes de intentar resolverlo tendrá que estar seguro del lugar en que se encuentran las máquinas virtuales sobre la granja de servidores existente. De lo contrario, podría reiniciar un servidor, e involuntariamente, tirar abajo las máquinas virtuales que corran sobre él sin saber con antelación qué aplicaciones iban a resultar afectadas. Esta precaución, por ejemplo, no era necesaria en los entornos tradicionales, donde resultaba sencillo saber qué plataformas de hardware soportaban qué aplicaciones. Por tanto, el administrador habrá de ser formado en la naturaleza del nuevo entorno y en el impacto que su actuación puede tener sobre él. Los aumentos de rendimiento pueden no ser los esperados Aún si salen airosas del duro trabajo descrito hasta ahora, las empresas que adopten la virtualización quizá finalmente terminen sintiéndose algo decepcionadas. Muchas habrán abrazado la virtualización de servidor con enormes expectativas, para después ver cómo el rendimiento cae al poco tiempo. Wolf señala con un dedo acusador de tal decepción a los fabricantes: “en mi opinión, la forma en que VMware publicita sus marcas de rendimiento es completamente inexacta”. Explica que los materiales publicitarios de este fabricante sobre los máximos alcanzados por su máquina virtual son correctos, pero se han conseguido corriendo una única máquina virtual sobre un único host físico. Es decir, suponen la dedicación del recurso de hardware, con lo cual, se basan en unas condiciones en las que la virtualización no ofrecería precisamente su principal atractivo: la consolidación. En un entorno en producción típico resulta incluso bastante conservador el soportar entre ocho y 12 máquinas virtuales por host físico. Por tanto, los datos de los fabricantes no describen un escenario realista, sino demasiado optimista. Además, eluden cuestiones como la sobreasignación de núcleos CPU, que puede cargar excesivamente el programador de la CPU del hipervisor y, en consecuencia, reducir el rendimiento. Otro potencial enemigo del rendimiento en estos entornos es la memoria, según Wolf, especialmente cuando se trata de virtualizar aplicaciones multitarea o multihilo. Cuando los hilos separados dentro de un sistema operativo intentan refrescar continuamente la memoria, las tablas de la página sombra (shadow page tables) –un sistema utilizado en la virtualización completa (full virtualization) mediante el cual se mantienen dos conjuntos de tablas de página: el conjunto del dominio invitado, invisibles al hardware vía cr3, y las tablas de página visibles al hardware, mantenidas por el hipervisor- son sometidas a backup. El resultado es un aumento de la latencia. Para las aplicaciones con una fuerte dependencia de la memoria, los picos de latencia y los tiempos de reacción de las aplicaciones empeorarán; hasta el punto de que los usuarios pueden empezar a sufrir “tiempos muertos” en sus conexiones. La memoria asistida por hardware constituye una posible solución a este problema, pero no siempre. Algunas aplicaciones corren mejor con virtualización de memoria asistida por hardware, mientras que otras lo hacen con las tablas de página sombra. El deterioro del rendimiento llegará en algunos casos a ser considerable y obligará a la empresa a comprar más servidores. Muchos ejecutivos renegarán de la virtualización debido a que hará más lentos los tiempos de respuesta de los recursos que utilizan para realizar su trabajo, y pedirán que las aplicaciones sean de nuevo soportadas por sus propios servidores. Si se llega a este tipo de situaciones, recuperar de nuevo la confianza en la tecnología de virtualización podría llevar a la empresa un par de años. Algunas dificultades más Un rendimiento pobre, la falta de preparación de la plantilla y los costos ocultos, representan, en cualquier caso, sólo algunos ejemplos de los problemas que pueden acompañar a la virtualización de servidor. Administrar el paradero exacto de las máquinas virtuales probablemente se convierta también en una pesadilla para muchos responsables de TI, dado que tales máquinas pueden ser trasladadas de un servidor físico a otro e incluso salir del centro de datos sobre un disco duro portátil. También abundarán los riesgos para la seguridad: por ejemplo, en un entorno virtual, resultarán más probables los problemas de auditoría por la ausencia de una completa separación entre zonas de seguridad. Y también existe la amenaza de la proliferación descontrolada de servidores virtuales, porque las nuevas aplicaciones son más fáciles de desplegar y poner en funcionamiento en un mundo virtual. La virtualización aumenta el apetito de software. Una compañía pasó de 1,000 aplicaciones a casi 1,300 tras la virtualización de sus servidores. Y este inconveniente no sólo ocasionará el aumento de los costos por licencias de software, sino también la carga asociada al seguimiento y administración de las nuevas aplicaciones. Por supuesto, todas las dificultadas mencionadas no impedirán que las empresas adopten las tecnologías de virtualización. Después de todo, si su implementación es la adecuada, los beneficios pueden resultar enormes, demasiado para renunciar a ellos de antemano. Pero conocer la forma de iden­tificar y evitar los riesgos puede hacer el proceso mucho más sencillo, y el premio, mucho más valioso.