Categoría: Virtualización

Home Office podría ser obligatorio en México, ¿está preparado?

Recientemente, Lyndiana Bugarín Cortés, diputada del Partido Verde Ecologista de México (PVEM) propuso hacer obligatorio el home office en México por lo menos un día a la semana, así como horarios flexibles en la entrada y salida de la oficina. Además, expuso que, en el traslado de la oficina a la casa y viceversa, los empleados invierten un promedio de una hora y 21 minutos, lo que resulta en 16 horas perdidas a la semana, mermando así la productividad del país.

El teletrabajo, sin duda, ha representado un sueño para muchos de los habitantes de la ciudad de México, lugar donde el tráfico es cada vez más difícil y llegar a destino se convierte en una aventura diaria.

Una estrategia de movilidad no es simplemente permitir el acceso remoto a los dispositivos móviles.

La movilidad ofrece nuevas modalidades de trabajo (home office, workshifting…) adaptables según las necesidades de cada empresa y proporciona a las personas la opción de elegir la hora, el lugar y el dispositivo que prefieran para realizar su trabajo. Al adaptar su entorno a su estilo de trabajo, o al propio reloj del cuerpo, las personas pueden mejorar drásticamente la productividad personal sin tener la ansiedad de saber si hoy les toca circular o no.

Sin embargo, estas prácticas todavía no han desplegado todo su potencial en el país, pero… ¿cuáles son las razones principales? Citrix realizó el estudio en Latinoamérica, incluido México: “Qué pasa en Latam: cloud, seguridad y trabajo flexible” donde se visualizó que, en muchos casos no existe una coordinación entre lo que creen los encargados de TI que deben implementar en relación a lo que necesitan los trabajadores digitales mexicanos para su productividad diaria.

Según el estudio de Citrix, el 71% de los trabajadores mexicanos consideró hoy en día “muy importante” la flexibilidad laboral.

No obstante, sólo el 40% de las empresas brindan opciones de trabajo flexible a sus empleados, el 19% proporciona “home office” y solo 14% les permite a los empleados trabajar desde cualquier lugar.

Muchas de las barreras para la implementación de esquemas de trabajo flexibles son culturales: el 66% de los gerentes de TI mexicanos todavía creen que los empleados son más productivos si están en las oficinas.

Los trabajadores digitales mexicanos tienen una visión diferente. Según el estudio de Citrix, el 83% de los empleados del país dijeron que prefieren un trabajo con horario flexible y que haciendo “home office” serían igual de productivos o más. No obstante, el estudio de este año de Citrix muestra que, el 77% de los gerentes de TI creen que a los directivos de las compañías les hace falta confianza hacia sus empleados para implementar esquemas de trabajo flexibles. En consecuencia, el 52% no han adaptado todavía sus espacios de trabajo físicos para las nuevas políticas de trabajo flexible.

 

Factores para una correcta implementación de la movilidad

Claramente, una estrategia de movilidad debe contemplar varios aspectos que van desde analizar qué empleados son elegibles para este modelo hasta la implementación de tecnologías que los habiliten a acceder a su información desde cualquier lugar y dispositivos, pero cumpliendo- a la vez- con las políticas de seguridad corporativas.

Gracias a las tecnologías de virtualización y colaboración se puede brindar un marco completo para la colaboración eficaz a distancia.

Todos los datos estarán disponibles para el equipo, asegurando que cada miembro tenga acceso a las mismas versiones de aplicaciones de software, incluso si sus oficinas u organizaciones están en un programa de actualización diferente, de modo que puedan tomar decisiones, comunicarse con los clientes y desarrollar proyectos, todo de una forma totalmente segura.

En conclusión, actualmente, los grandes vínculos del trabajador moderno con la tecnología están cambiando la forma en que las organizaciones operan.

Para que las compañías puedan maximizar las ventajas de la era digital, en México, el cambio de mentalidad debe ser inminente por la rápida integración de la transformación digital en todas las áreas de las organizaciones locales para seguir siendo competitivas.

Sin duda, la adopción de las tecnologías de virtualización, movilidad y soluciones en la nube ayudarían a acelerar el proceso para que las modalidades de trabajo flexibles como el home office sean ya una realidad en México, en beneficio tanto de los empleados como de las empresas y en última instancia, para la economía del país.

 

 

Por: Juan Pablo Jiménez,

Vicepresidente,

Citrix para Latinoamérica y El Caribe.

¿Cuál es el futuro de la conectividad inalámbrica?

La evolución de las telecomunicaciones y, por ende, de la tecnología, han hecho que el cableado de redes inalámbricas cambie significativamente. En la actualidad las demandas colectivas de tecnología y conectividad inalámbrica siguen creciendo a niveles antes impensados; las personas hoy requieren más cobertura y mayor capacidad de las redes, especialmente para servicios de transmisión de video HD o aplicaciones como la realidad virtual. Pero ¿significa esto que el futuro deberá ser inalámbrico para soportarlos?

“Hoy el 4G está dando paso a las redes 5G. En las generaciones anteriores de redes inalámbricas, el diseño de sitios celulares más comunes tenía radios de estación base demasiado grandes y voluminosos en la parte inferior de las torres celulares, con cables coaxiales que conectan los radios a las antenas en la parte superior de la torre. Con los cables coaxiales, la elección del cable generalmente se reduce al presupuesto general del enlace. La cantidad de pérdida permitida entre el punto A y el punto B, de manera que el sistema general puede proporcionar la cobertura planificada es lo que determina la selección del producto”, señaló Babber Abbas, Director Product Line HELIAX en CommScope.

Las grandes demandas de conectividad exigen que las redes sean mucho más eficientes, requiriendo llevar las funciones de radio lo más cerca posible de la antena para reducir las pérdidas de la línea de transmisión, haciendo que el cableado de fibra óptica supere al coaxial como el medio preferido para este tipo de despliegues.

Para Babber Abbas, la elección de fibra óptica sobre cable coaxial se basa en las pérdidas mucho más bajas, además de la mayor capacidad general que solo los cables de fibra pueden proporcionar. Las unidades de radio remotas ahora ubicadas en la parte superior de las torres, son dispositivos activos que requieren conectividad de datos a través de fibra y energía. Este nuevo tipo de diseño de sitio se llama fibra a la antena (FTTA), y hay diferentes maneras de proporcionar la conexión.

“Las opciones de arquitectura del sitio en FTTA se realizan en función de la economía, la capacidad de actualización y las concesiones de flexibilidad. Dependen de las consideraciones de carga de la torre, los costos de arrendamiento que los operadores de red pagan a las compañías de la torre, los criterios de selección de proveedores y la economía en general”, indicó Babber Abbas; y señaló algunas opciones para ello:

  • Cada unidad de banda base en la parte inferior de la torre podría conectarse directamente a cada radio remota en la parte superior, utilizando múltiples tramos de cables de fibra hasta la torre.
  • Estas mismas conexiones podrían hacerse con la fibra incluida en lo que se llama un troncal de fibra óptica, de modo que solo un tramo de cable sube por la torre.
  • En un escenario aún más integrado, la línea de alimentación se agrega a la mezcla, y todos los cables de alimentación y de fibra se combinan en un solo cable.
  • Todos los cables pueden ir directamente a las unidades de radio remotas o a cajas de distribución que permitan actualizaciones más fáciles en el futuro.

Consecuencias de las fallas del hardware y cómo solucionarlo

Todos los sistemas clásicos “legacy” tienen al menos un punto en común y el más importante: están envejeciendo y, con ello, se vuelven más vulnerables y menos confiables. Además, los fabricantes ya no ofrecen servicios de soporte a estos sistemas, dejando a las compañías que los tienen muy desprotegidas.  

La vida útil del hardware es limitada, sin embargo, el software y las aplicaciones ejecutadas sobre él tienden a tener una vida útil más larga.

Muchas empresas ignoran este hecho a favor de otros proyectos que parecen ser más urgentes. Sin embargo, cuando el hardware clásico falla, estas mismas organizaciones se arrepienten de no haber anticipado un plan de contingencia, ya que no hay margen de tiempo para resolverlo y el funcionamiento del sistema es crucial para el éxito del negocio. Los ingresos de la compañía, su reputación y posibles penalidades están en juego. Entonces, ¿por qué las empresas esperan hasta último momento para adoptar un plan cuando los riesgos son tan significativos y las pérdidas pueden ser millonarias?

 

¿Por qué las empresas esperan?

Los presupuestos son limitados e invertir más en sistemas clásicos “legacy” puede ser difícil. Algunos departamentos de TI obtienen piezas de repuesto y creen que es más barato que una solución a largo plazo.

Muchas empresas tienen la mentalidad de “si no está roto, no hay que reparar”. Y en la medida en que el sistema clásico sigue siendo ejecutado, la compañía le va dando prioridad a otras áreas.

 

¿Por qué no se debe esperar?

En la mayoría de los casos, el costo de esperar es mayor que el costo de invertir a largo plazo. En algunas industrias, incluidas las de gobierno y finanzas, el 80-90% de los presupuestos de tecnología están destinados al mantenimiento de los sistemas de hardware clásicos ¨legacy¨.

Esto se debe a que estos sistemas son fundamentales para el éxito de una organización. Las empresas de servicios financieros, por ejemplo, pueden recibir altas multas si un fallo en el sistema clásico los deja sin acceso a los registros que necesitan almacenar por un determinado tiempo.

Además del riesgo de penalidades legales o procesos judiciales, las organizaciones pueden enfrentar el costo de piezas de recambio, (y sus costos adicionales cuando esas piezas no funcionan bien), el costo cada vez más elevado de mantenimiento debido a que los expertos en estos sistemas están dedicándose a otras funciones y el costo que genera el tiempo de inactividad del sistema cuando el hardware clásico falla. 

 

Las consecuencias de la espera

Una estimación de Gartner muestra que las organizaciones pueden enfrentarse a 87 horas de inactividad del sistema al año. Se estima que el costo por hora es de US$ 42.000, lo que significa pérdidas superiores a los US$ 3,6 millones anuales para las grandes corporaciones. Otras fuentes citan costos más altos de US$ 84.000 a US$ 108.000 por hora.

Migrar a una plataforma totalmente nueva puede ser caro. Esto implica crear una nueva aplicación, entrenar empleados, convertir, traducir datos de la plataforma clásica a la nueva y los posibles gastos si los datos se pierden durante el proceso.

Una búsqueda hecha por Bloor Research mostró que el presupuesto promedio para un proyecto de migración de datos es de US$ 875.000, pero sólo el 62% de los proyectos se hicieron dentro del plazo y del presupuesto inicialmente planteado.

Por otro lado, a medida que el hardware clásico envejece, el soporte empieza a escasear. Muchos expertos en hardware clásico se están retirando o enfocando en nuevos espacios tecnológicos. Y a raíz de esto el costo para mantener esas plataformas legadas está subiendo.

 

Creación de un plan, “como mitigamos el riesgo de estos sistemas”

Al entender los riesgos, las empresas evalúan las opciones y se ven frente a tres alternativas:

Opción A: mantener el hardware obsoleto

Esto significa estar enterado de los colapsos y ordenar una pieza de repuesto lo más rápido posible cuando hay un fallo. Es necesario, sin embargo, estar cómodo con el tiempo de inactividad que ello implica. La opción es más aceptable para las empresas con bajo costo de tiempo de inactividad o que sólo utilizan el sistema como archivo.

Opción B: migrar el software

Las migraciones tardan meses y requieren reescrituras parciales o completas de la aplicación. Además, parte de la información se puede perder en el proceso y hay renovación de empleados. El tiempo, los costos y los riesgos involucrados pueden hacer que esta opción sea prohibitiva.

Opción recomendable: emulación de hardware

La solución más económica y de bajo riesgo es virtualizar el hardware clásico, permitiendo que aplicaciones legadas se ejecuten sin modificación en servidores estándar. La emulación tiene un corto proceso de implementación – las empresas pueden mantener sus aplicaciones intactas. Además, el equipo de soporte está disponible para diagnóstico, solución de problemas y mantenimiento general. 

Los sistemas clásicos no deben quedar desprotegidos. Con la emulación, las organizaciones pueden mejorar el ROI de los sistemas, mantener aplicaciones de misión crítica en acción, eliminar riesgos, reducir costos y evitar excesos presupuestarios. Invertir en el futuro de los sistemas clásicos es una garantía de éxito continuo del negocio.

 

Por: Robert Ruiz, Director General de Stromasys para Latinoamérica.

Camino hacia el Centro de Datos Moderno

Nuevas tendencias, como el internet de las cosas, está exigiendo cada vez más al rendimiento del centro de datos, creando una nueva ola de información y cargas de trabajo que muchas veces no se puede solucionar con una instancia local, teniendo que recurrir a la nube para poder ofrecer la disponibilidad, velocidad y agilidad que exige la nueva era digital.

Empresas en todo el mundo están recurriendo a este modelo, conocido como el Centro de Datos Moderno, donde se manejan algunas cargas de trabajo en su nube privada, aquellas más sensibles, mientras manda las que requieren de mayor inmediatez y disponibilidad a la nube pública, logrando que estos workflows se manejen desde y hacia cada instalación.

En países en desarrollo, como México, las empresas tienen la obligación de ser más eficientes para hacer frente a la competencia local e internacional, así como ser más ágiles para poder adaptarse a los cambios del mercado. “El principal reto de las empresas de hoy es ofrecer la eficiencia y el uso correcto de la infraestructura que ya tienen, poder habilitarlo para colaborar en un ambiente híbrido. Aunque no estén diseñados desde el inicio para trabajar de este modo, empresas como VMware estamos comprometidos para ayudar a crear este formato de Data Center Moderno”, comentó Jorge Gómez, Customer Solutions Manager de VMware.

Jorge Gómez, Customer Solutions Manager de VMware.

Según el ejecutivo, México está adoptando el modelo de Centro de Datos Moderno con velocidad, y se espera que estén en constante preparación para que su infraestructura sea capaz  y esté actualizada para recibir las actuales y futuras exigencias del mercado. “No sólo se trata del IoT y movilidad, hoy en día se trata de IA y vienen más olas de innovación. Los decision makers, como los CIOs, están realmente hambrientos para empezar a probar nuevas tecnologías”, agregó.

Sin embargo, Gómez aseguró que no se trata de deshacerse de la infraestructura y de toda la inversión que ya se ha hecho, ni de mover todas las cargas a la nube pública sólo porque es tendencia, si es que las necesidades de negocio no lo demandan, sino de lograr una buena sinergia entre centro de datos y nube.

“VMware ayuda a las empresas a visualizar cómo pueden dar el primer paso hacia la transformación digital con la infraestructura que ya existe, logrando tener éxito con un ritmo incluso más rápido de lo que ellos mismos esperan”, finalizó Jorge Gómez.

Planifique ahora su migración a Windows Server 2019

Con la próxima versión de Windows Server 2019 este otoño, es hora de que los profesionales de TI empresariales que trabajan con Microsoft comiencen a planificar su migración al nuevo sistema operativo.

Al igual que con cualquier versión importante, lleva tiempo familiarizarse con las novedades y comenzar a obtener experiencia práctica implementando nuevas funciones. En este caso, las mejoras incluyen seguridad mejorada y capacidades mejoradas del centro de datos.

Hasta el momento, entre los que han estado experimentando con la vista previa de Insider de Windows Server 2019, opinan que las áreas que se implementan primero son: características nativas de Windows Server, componentes enfocados en el centro de datos y nuevas herramientas de administración del Centro de administración de Windows.

Características nativas de Windows Server 2019

La forma más práctica de abordar la migración es centrarse en las características nativas de Windows Server 2019, como servidores web que ejecutan Internet Information Server (IIS), servidores host virtuales HyperV y servidores de archivos. Estas características se basan únicamente en Windows Server, a diferencia de las aplicaciones de terceros que pueden requerir algunos meses adicionales mientras se escriben las actualizaciones para que sean compatibles con Windows Server 2019.

Las aplicaciones web que se ejecutan en IIS son fáciles de probar porque la mayoría del código es solo HTML, .Net u otra aplicación web que se ejecuta en la parte superior de la plataforma IIS / Web. Configurar un servidor Windows Server 2019 con IIS y luego cargar el código web en el servidor es una forma rápida y fácil de confirmar que la aplicación web funciona y puede ser fácilmente el primer servidor 2019 agregado a un entorno.

Los servidores de archivos también son buenos objetivos iniciales para migrar de antiguo a nuevo. Muchas veces, los servidores de archivos tienen gigabytes o incluso terabytes de datos para copiar, y los servidores de archivos también son cosas que no se han actualizado recientemente.

En entornos de adopción temprana, muchas veces los viejos servidores de archivos aún ejecutan Windows Server 2008 (que finaliza en el verano de 2019) y podrían usar una actualización. Las herramientas de migración de archivos como Robocopy o una función de arrastrar y soltar entre las ventanas del Explorador de Windows pueden retener las estructuras de árbol y archivo, así como retener los permisos de acceso a medida que el contenido se copia entre los servidores. Consejo: después de copiar el contenido, los servidores nuevos pueden renombrarse con el nombre del servidor anterior, lo que minimiza la interrupción del acceso de los usuarios.

 

Implementar componentes centrados en el centro de datos

Otro conjunto de aplicaciones que tienden a implementarse desde el principio son los componentes centrados en el centro de datos, como los hosts HyperV que incluyen configuraciones de infraestructura hiperconvergente (HCI) más sofisticadas.

Se puede agregar un host HyperV a un clúster HyperV 2012R2 o 2016 existente, y las máquinas virtuales (VM) se pueden migrar en vivo o replicar desde el antiguo al nuevo host del sistema operativo. Sin ser sofisticado, las máquinas virtuales pueden trasladarse a un nuevo servidor de hipervisor basado en el sistema operativo.

Sin embargo, aquí es donde muchas organizaciones aprovechan la oportunidad para mejorar sus arquitecturas de centros de datos mediante la sustitución de clústeres básicos de HyperV y la implementación de entornos en clúster configurados por HCI. Intente activar un par de servidores host y crear una configuración HCI que ejecute Windows Server 2019 para obtener experiencia práctica valiosa.

HCI no es más que el nuevo y actualizado clúster HyperV que traslada a las organizaciones del concepto de máquinas virtuales que se ejecutan en servidores individualizados a una plataforma donde las VM comparten el rendimiento de disco, red y procesamiento de todos los servidores dentro de la configuración de HCI. Esto mejora enormemente el rendimiento, la confiabilidad, la escalabilidad y la redundancia.

Después de obtener las habilidades y el conocimiento de HCI que se ejecuta dentro de un entorno de evaluación preliminar de prueba, puede mover las cargas de trabajo a esta nueva infraestructura copiando y montando máquinas virtuales existentes en el nuevo clúster de HCI. Si hay problemas para ejecutar la máquina virtual en el nuevo entorno, la máquina virtual original se puede volver a montar en el entorno anterior / existente de HyperV. El original todavía existe porque la VM fue copiada. Por lo tanto, esto se convierte en una forma de mejorar en gran medida el entorno de HyperV a un entorno de HCI significativamente mejorado, con la red de seguridad de volver al entorno anterior si es necesario.

 

Prueba el nuevo Centro de administración de Windows

Una característica de Windows Server 2019 que es fácil de implementar es el Centro de administración de Windows, anteriormente conocido como Project Honolulu. El Centro de administración de Windows se carga en un servidor Windows Server 2019, pero los sistemas de destino pueden ser Windows Server 2012R2 y Windows Server 2016 en sus formas nativas. No se necesitan agentes especiales de software, complementos o actualizaciones. El Centro de administración de Windows apunta a los servidores más antiguos, y la interfaz de administración y administración del Centro de administración de Windows transfiere los servidores nuevos y antiguos a la ventana de administración centralizada.

 

Rand Morimoto