Del dia, Destacado, Noticias, Principal

El camino a virtualizar

[widget id="text-31"]

Una de las premisas que los estrategas de TI tienen siempre presentes en sus empresas es que la tecnología no sirve sólo a la tecnología misma, cada uno de los desarrollos e innovaciones relacionadas con las TIC, siempre deberán tener un efecto positivo en toda la organización. La reducción de costos por otro lado aunque no es la principal función del CIO sí es una parte fundamental de la TI, en este sentido tecnologías como la virtualización tiene este propósito, además de la reducción de espacio en el site… ¿Efectos colaterales? Ya veremos. Una de las primeras cosas a saber de la virtualización es que a pesar del boom y la promoción que empresas como VMware, Citrix, Microsoft, EMC, HP, Hitachi y otras más, lo cierto es que es un concepto ya conocido desde hace varios años y que data desde el uso de los mainframes y la creación de máquinas virtuales, lo que en un principio ayudó a reducir la adquisición de hardware. Pero la virtualización como muchas de las tecnologías obedece a la urgencia no sólo de ahorro en energía y mejor administración, ya que hace algunos años la adquisición de servidores menos robustos para una aplicación hizo que la base instalada de éstos se convirtiera en un verdadero problema de administración y gobernabilidad esta estrategia se había mantenido un par de años por las empresas consumidoras debido a los altos costos de los productos. Según Jorge Hernández, analista de Servidores de IDC en Latinoamérica, existe una base instalada de alrededor de 1.4 millones de servidores y una relación entre el costo de éstos y su mantenimiento es de 50 a 50, es decir “era más barato comprar el servidor que su mantenimiento, lo que a su vez hace más complicada la labor de TI y la administración general de los mismos”. Como detonante, el crecimiento de los datacenter más allá de las capacidades de los administradores se debió a los intentos por reducir costos adquiriendo servidores más pequeños, pero que a su vez aumentaba el tamaño de los sites e incrementaba las toneladas de aire caliente y consumo de energía, en opinión de Adrián Moheno, gerente de Soluciones de EMC, “la virtualización ha venido aliviando estas desventajas en los datacenter” y a medida que creció la implementación en las empresas, los CIOs están optando cada vez más por este esquema. ¿Pero cómo saber cuál es el nivel de aceptación de los CIOs en México hacia esta tecnología? La primera labor de las empresas es orientar o “Evangelizar” sobre el tema, actividad que las empresas desde hace años vienen haciendo, ya que según Enrique Corro, SE de VMware, en muchas ocasiones ya no es necesario orientar sobre este tema aunque reconoció que esta labor aún existe entre los proveedores, “les mostramos cuál es la estrategia correcta para la virtualización y ver cómo debemos dar el primer paso y lo siguientes hacia el futuro y empezar a demostrar los beneficios sobre la virtualización”. Estrategia similar aplica Hitachi, pues en palabras de Enrique Erazo, gerente de Producto de Hitachi Data Systems, consideró que la virtualización, ya no será algo novedoso, y tarde o temprano las empresas irán hacia allá, y coincidió con que la dicha tecnología ya tiene un grado de madurez muy aceptado, “sobre todo el almacenamiento ya no es nuevo”, enfatizó. Sin embargo hay opiniones encontradas, pues según información proporcionada por Microsoft “menos del 5% de todos los servidores están virtualizados, este segmento de mercado apenas está naciendo”, lo que representaría un crecimiento del mercado en los siguientes años, aunque coincide con la tendencia de que pronto sabremos más de esta tecnología. Lo anterior significaría que poco a poco cada CIO iría sumándose a un proyecto de virtualización para su empresa en los próximos años. ¿Desventajas al virtualizar? Por supuesto la reducción de gastos de energía y tiempo de administración en las áreas de TI es una estrategia a seguir sin importar el tipo de empresa o la industria a la que pertenezca, aunque aun hay interrogantes como ¿Limitar los recursos a las aplicaciones podría poner el riesgo el desempeño de éstas? La respuesta es negativa, y al respecto Stephen Alan Herrod, CTO and VP de VMWare, aseguró que la virtualización y la capacidad de esta tecnología para aprovechar los cada vez más robustos procesadores y servidores es tan amplia que se pueden correr aplicaciones muy demandantes en un esquema de virtualización sin ningún problema, “hoy la virtualización puede aprovechar el performance de los nuevos procesadores multi core y el rendimiento de éstos es bastante bueno”. Afirmó que la mayoría de las aplicaciones se pueden consolidar en un esquema de virtualización, aunque Enrique Corro, de VMWare, señaló que el abuso de esta técnica puede generar una falta de gobernabilidad en los sistemas “es posible que el exceso provoque que se pierda el control acerca de quien crea o modifica una máquina virtual”, aunque reconoció que es muy esporádico este caso por otro lado Adrián Moheno de EMC no percibe problemas con la implementación “es un tema de moda y una pregunta usual, hay que asegurarse que la tecnología no quede demasiado grande o pequeña para la organización y los planes a futuro pero no hay desventajas visibles” señaló. Sin embargo, no es recomendable una implementación parcial, ya sea en ciertas aplicaciones o en los servidores que se están adquiriendo al ir incrementando el tamaño del site, en caso de que se esté pensando en entrar en este esquema lo óptimo es iniciarlo en todos los aplicativos y plataformas. De hecho, José Castillo, gerente de Producto de Servidores Misión Crítica de HP, sugiere que quienes así lo están planeando deberán realizarlo con miras a un cambio estructural, “el gerente de TI no puede hacerlo sólo por hacerlo, la junta directiva y el mismo CIO debe estar consciente del cambio, aunque la implementación es relativa a la tecnología, ya que si se decide implementar virtualización de forma parcial se convertirá en un silo de TI”. El costo de la virtualización Como en todas las implementaciones donde participen proveedores, se habla de los costos y de los beneficios siendo la relación de ambos la premisa del ROI, aunque las diferentes firmas aseguran que en muchos de los casos el ROI es un elemento difícil de medir, pero que por otro lado las necesidades de modificar el gasto de recursos es urgente, según un comunicado de F5 Networks, las empresas están recurriendo a la virtualización como una solución de espacio no sólo físico sino de almacenamiento “28% de las empresas tiene al menos un Petabyte de almacenamiento en sus centros de datos, mientras en el otro extremo está el 8% de las compañías que tiene un Exabyte o más”, lo que se traduce en necesidades inmediatas de soluciones de almacenamiento. A pesar de que esta encuesta fue realizada a empresas de todo el mundo, es parte de un reflejo de lo que sucede en nuestro país. De hecho Jorge Hernández, de IDC, señaló que el crecimiento de la base instalada en servidores los últimos años creció dramáticamente hasta alcanzar la cifra de 900% en sólo 15 años. En este sentido las compañías proveedoras han tenido que cambiar el esquema hacia las “ventas consultivas” las cuales han proliferado gracias a la necesidad de saber hasta qué punto necesitan virtualización, sobretodo en cuestión de almacenamiento. Enrique Erazo, de Hitachi, comentó que si se llegara a dar el caso de que el cliente realmente lo requiera, “ofrecemos una estrategia en capas, funcional para nuestros clientes, pero todo basado en ventas consultivas”. Pero en realidad la virtualización es una exigencia enorme, que podría no formar parte del core de actividades del CIO sino hasta del CFO incluso, y la dirección general. Por supuesto los acrónimos utilizados en TI no están en dichos requerimientos del plan de trabajo del CFO, pero terminan reflejados en esta nueva tecnología, de hecho las soluciones de Microsoft y VMware ya están pensadas como soluciones que otorgan grandes beneficios financieros más que tecnológicos y en muchos de los casos de “Green IT”, Javier Carrión, de VMWare, asegura que las soluciones están más por el sentido financiero “es una solución financiera en la estrategia porque el impacto técnico es muy fácil de demostrar”. Según los datos aportados por IDC y publicados por Microsoft “se estima que por cada dólar que las compañías gastan en infraestructura de TI y tecnología nueva, desembolsan 8 dólares para mantener sus sistemas actuales”, por todo esto, las necesidades de ahorro en cualquier sentido se han encaminado a que también la dirección general ponga sus ojos en la virtualización, “nuestras soluciones tienen un enfoque financiero, ya que finalmente se ocupan de la reducción en costos y mejoras en la parte de negocio de los clientes”, afirmó Javier Carrión, de VMWare, lo que pone sobre la mesa la participación del CFO y el CEO en la decisión de implementar esquemas de virtualización sobretodo a nivel corporativo. Virtualización segura Aunque es un tema relativamente nuevo, existen varias soluciones de seguridad en el mercado que trabajan bajo esquemas virtualizados, las arquitecturas a su vez están cada día más dirigidas a una estrategia de virtualización con su parte de seguridad. De igual forma, la integración de software de seguridad y gobernabilidad está diseñada por estrategias compartidas, tal es el caso de VMWare y Trend Micro que promete el análisis y reparación de máquinas virtuales fuera de línea en ambientes VMWare igual que en ambientes físicos, por su parte Symantec en los mismos ambientes tiene un producto que ayuda a la mejora de la gobernabilidad y detección de amenazas en ambientes virtuales. Las aplicaciones contra pérdida de datos, son una de las prioridades de los ambientes ya virtualizados, de hecho uno de los sectores a los cuales va dirigida la oferta de virtualización de VMWare son las implementaciones DRP y Business Continuity. CA es otro jugador que también mantiene ofertas, en conjunto con ambientes de VMWare para la protección de pérdida de datos y gobernabilidad. Efectos de la virtualización Sin duda el mayor efecto de la virtualización lo está viviendo el mercado de servidores, las empresas que ya decidieron entrar en este esquema y optaron por la adopción temprana de esta tecnología están adquiriendo menos hardware. La tendencia es a mover menos unidades, pero con un valor agregado en ellas “el mercado de servidores va a crecer en valor y no así en unidades. La estrategia es seguir por la consolidación”, comentó Jorge Hernández de IDC. En otras proyecciones IDC apuntó que los servidores X86 fueron los que mantuvieron la tendencia de crecimiento de 14% al año anterior apoyado por los sectores financiero de comercio y el sector educación, aunque proyectaron también para este 2008-2009 el boom de la virtualización y el cambio de oferta con la baja de demanda de servidores tipo mainframe “aunque no desaparecerán siguen con mucho auge”, comentó Hernández y anticipó el alza del mercado para los equipos X86 blade. Mientras que la oferta de virtualización seguirá en función de los principales jugadores que en los próximos años serán no sólo de VMWare, además veremos ofertas de Mircrosoft y Citrix, quienes se disputarán el mercado. Pero los proveedores conscientes de este fenómeno, seguirán desarrollando estrategias partir de la tendencia, sin relegar la oferta de servidores con software de virtualización integrado en las tarjetas, al respecto Stephen Alan, de VMWare comentó, “tenemos socios estratégicos como HP, DELL o incluso IBM para seguir promoviendo esquemas virtualizados con soluciones VMware en distintos fabricantes de hardware”. Por su parte HP mantendrá una estrategia hacia la propuesta de valor, con relación de 10 a 1 en servidores de 64 bits basados en X86 reconociendo la tendencia del mercado, “los costos de hardware sí han disminuido, pero en 5 años “ya está estable” aunque mucho se debe a que los servidores ya son más baratos”, comentó José Castillo, de HP. Aunque estas no son las únicas consecuencias de la adopción de la virtualización no sólo en México sino a nivel mundial, el principal movimiento por supuesto se está reflejando en las propias empresas en el área de TI y la disponibilidad del CIO y su gente hacia la redirección de recursos. Microsoft ha publicado que las empresas gastan entre 20 y 30% menos en operaciones y mantenimiento, lo cual es bueno si el CIO tiene una estrategia de mejora en su departamento para considerar los nuevos recursos, y a la creación de una “TI dinámica”, de acuerdo con esta postura Stephen Alan, de VMWare, aseguró “en nuestra experiencia el equipo de IT se vuelve más eficiente”. Pero la distribución de carga de trabajo en el CIO y su staff es motivo a considerar si no hay un plan a seguir. La principal necesidad de las empresas por las cuales decide implementar tecnologías de información es la reducción de costos y el futuro del personal que tiene una organización totalmente automatizada y auto-administrable es incierto. Aunque algunas empresas apuntan a que este nuevo “tiempo disponible” del staff puede estar encaminado al desarrollo de sistemas inhouse. Por un lado está la ventaja de la reducción del error humano en la tarea repetitiva de la administración de aplicaciones, Stephen Alan, de VMWare, comentó; “administrar servidores dejará de ser una tarea repetitiva y aburrida y por supuesto se reducirán los errores humanos por hacer lo mismo una y otra vez”, aunque señaló que esto puede propiciar una baja en el staff. Concluyendo La virtualización, como varios de los especialistas en el tema señalaron no es una moda o un boom mediático, es un camino y una tendencia que solo está esperando a madurar en la aceptación de los tomadores de decisiones, el caso de los CIOs es vital ya que en muchas ocasiones significa todo un rediseño en la estructura del departamento de TI. Por su parte, las empresas ya tienen encaminados varios de sus productos hacia la virtualización en todos los sentidos, y en cuando a la adopción de esta tecnología, se está convirtiendo en una obligación de mejores prácticas de negocio en TI en lugar de una simple moda pasajera. Por otro lado, la adopción del sector financiero en esta tecnología, dejará seguramente de ser un paradigma para comenzar a convertirse en un estándar de TI y no de industrias, aunque poco a poco según los expertos el sector manufacturero la está adoptando junto con telecomunicaciones y otras industrias. Por supuesto, las compañías proveedoras lo saben, por ello Oracle o SAP, entre tantas, ya manejan soluciones que se adaptan a los ambientes virtualizados. Está claro que las diferentes ventajas obligan a un buen estratega de TI a considerarla dentro de sus planes a mediano y largo plazo, por la reducción “crítica” de costos, aunque la relación de servidores físicos a virtuales varía dependiendo del proveedor, y se mantiene entre 10 a 1 y 20 a 1, mientras que el efecto benéfico de precios apunta a la reducción de costos y aumento de valor en servidores y almacenamiento, incluso ya existen servidores de alrededor de 7 mil dólares de misión crítica como oferta de HP. En cuanto al efecto dado a la estrategia de equipo de tecnologías de información en las empresas, se verá afectada dependiendo de la madurez de su TI y de su régimen ya sea de carácter público o privado, en cuyo primer caso aumentan las posibilidades de prescindir de personal. Las cuestiones ecológicas forman una estrategia a gran escala de las compañías más directamente relacionadas con la virtualización, de hecho VMware asegura que Gartner sostiene la madurez de TI en el nivel de virtualización como última etapa. Por supuesto la virtualización que comenzó hace más de dos décadas con la creación de (virtual machines) máquinas virtuales en grandes mainframes, hoy alcanza incluso los escritorios virtuales (virtual desktop) o VDIs donde la movilidad está incluida y corriendo desde un sólo servidor donde casi se prescinde de hardware. De cualquier manera, la inclusión de planes de virtualización en los planes estratégicos de la empresa, primero bajo el plan de ahorro de espacio y costo en servidores y después sobre esquemas de mejores prácticas es ya un tema común entre los CIOs.

Deja un comentario