Categoría: Tecnología de Apoyo

Hikvision lanza sus terminales de Reconocimiento Facial

Hikvision lanza gama de terminales de reconocimiento facial que incorporan algoritmos Deep Learning para el control de accesos y ambientes de oficina, con el fin de mejorar el ingreso y gestión del personal, administración de edificios, y las operaciones de seguridad.

La compañía presenta tres modelos de terminales de reconocimiento facial:

  • Terminales de reconocimiento facial de montaje en pared: DS-K1T604MF y DS-K1T606MF.
  • Terminal de reconocimiento facial de montaje en pared o base: DS-K1T605MF.
  • Componente de reconocimiento facial para torniquetes de acceso: DS-K5603-Z.

Estos tres modelos son fáciles de instalar y utilizar. La terminal de montaje en pared es muy adecuada para entradas de acceso rápido. Mientras que la terminal de montaje en pared o base puede montarse en superficies verticales convenientes o en el escritorio de recepción. El componente de reconocimiento facial está diseñado para emplearse en torniquetes de acceso. Una vez instalado, este modelo tiene la ventaja de girar horizontalmente para capturar imágenes faciales con el ángulo más eficaz.

Estos modelos permite una variedad de combinaciones Interfaz o back-end para responder a los múltiples requerimientos de diferentes escenarios y entornos. Las terminales de reconocimiento facial de Hikvision son compatibles con los modos de emparejamiento 1:1 o 1:N, con la autenticación a través de tarjetas Mifare, y con la conectividad TCP/IP o RS-485.

 

Hikvision ha incorporado algoritmos Deep Learning en sus terminales de reconocimiento facial, lo que permite una transmisión con menos retrasos y una carga reducida en los componentes back-end.

Como resultado, las terminales tienen una alta tasa de éxito: la tasa de captura facial puede llegar al 99% de precisión en menos de 0.5 segundos. Durante las horas pico, son capaces de responder en menos de medio segundo, con 40 personas pasando por minuto.

Se encuentran disponibles múltiples modos de autenticación: imágenes faciales, inserción de tarjetas de identificación y comparación de imágenes, modos personalizados, entre otros. Pueden aplicarse, por ejemplo, en el comercio, agencias gubernamentales, pequeñas y grandes empresas, fábricas, por mencionar algunos.

 

A los mexicanos les preocupa ser vigilados a través de sus smartphones

La posibilidad de monitoreo que tienen las aplicaciones móviles se está convirtiendo en una preocupación para los usuarios, muchos de los cuales temen que las aplicaciones de sus dispositivos conectados puedan rastrearlos, observar lo que hacen o dar a conocer sus datos.

Cada vez hay más preocupaciones entre los consumidores por saber hasta qué punto es observada su actividad en Internet, o si se les puede rastrear basándose en las características que muestran en línea.

69% de las personas en México no se siente cómodo compartiendo información del lugar donde se encuentra con sitios web y aplicaciones, una cifra que ha aumentado significativamente con relación al 46% registrado en 2016.

Además, más de la mitad (78%) de los usuarios mexicanos está muy preocupada de que alguien pueda ver todo lo que hace o mira en su dispositivo, y una cifra similar (71%) teme que puedan rastrearlo utilizando la información de geolocalización de su dispositivo.

Estas preocupaciones están bien fundadas. Los expertos de Kaspersky Lab han descubierto que las aplicaciones no solo pueden acceder a una gran cantidad de datos (como detalles cruciales sobre dónde están los usuarios, información sobre sus contactos, actividades, etc.), sino que también suelen funcionar en segundo plano sin que los usuarios lo sepan.

Según la investigación global de Kaspersky Lab, 83% de las aplicaciones de Android tienen acceso a los datos confidenciales de sus propietarios, y 96% de las aplicaciones de este mismo sistema operativo pueden iniciarse sin consentimiento.

Sin embargo, las preocupaciones sobre este acceso pueden prevenirse con algunas sencillas medidas de seguridad. Igualmente, hay personas que evitan la seguridad de la información o las medidas de privacidad que podrían ayudarles a sentirse más tranquilas.

Aproximadamente 42% de las personas en México admite que no verifica los permisos de sus aplicaciones móviles preinstaladas en sus dispositivos iOS y Android. Además, el 15% de estas mismas no verifica los permisos cuando baja o instala nuevas aplicaciones en sus dispositivos móviles.

Debido a esto, los usuarios de dispositivos móviles están cada vez más preocupados, pero siguen desprotegidos contra posibles fugas de datos.

“Las aplicaciones se han convertido en una parte importante de nuestra vida cotidiana. Las usamos para todo, desde retocar fotos hasta actualizar nuestras cuentas en las redes sociales, o desde juegos hasta reservar una mesa en un restaurante. Pero esta investigación muestra que, a pesar de nuestro amor por las aplicaciones, no necesariamente confiamos en ellas. Si bien es cierto que las personas están cada vez más preocupadas de que sus aplicaciones sigan su actividad en línea, no necesariamente están implementando medidas para protegerse de posibles problemas. Ahí es donde podemos ayudar a que los usuarios tengan tranquilidad”, dijo Dmitry Aleshin, vicepresidente de marketing de productos de Kaspersky Lab.

 

NEC construirá un sistema de cable submarino a través del Océano Pacífico

El consorcio Bay To Bay Express Cable System (BtoBE), compuesto por China Mobile International, Facebook y Amazon Web Services, firmó un acuerdo con NEC Corporation para construir un cable submarino de alto rendimiento que conecta Singapur, Hong Kong y los Estados Unidos.

Se espera que la construcción del cable submarino óptico de casi 16,000 kilómetros se complete para el cuarto trimestre de 2020.

NEC fue el seleccionado por el consorcio BtoBE como el proveedor de sistemas llave en mano para este sistema de cable submarino de fibra óptica que cubre la distancia más larga sin regeneración.

El BtoBE, que aterriza en tres ubicaciones que cruzan el Océano Pacífico, está diseñado para que una vez completado, pueda transportar al menos 18 TB de capacidad por par de fibra.

“El BtoBE proporcionará una conectividad perfecta y diversidad de redes, mientras sirve para complementar otros cables submarinos de Asia-Pacífico, entre otros”, comentó Toru Kawauchi, gerente general de la División de Redes Submarinas de NEC Corporation.

Ruta del sistema de cable BtoBE.

BtoBE, que cuenta con múltiples pares de fibra óptica, habilitará una transmisión de datos de alta capacidad a través del Océano Pacífico con una latencia de ida y vuelta de menos de 130 milisegundos. BtoBE mejorará aún más y contribuirá a la expansión tan necesaria de las redes de comunicaciones entre el área de la bahía de Guangdong-Hong Kong-Macao, el área de la bahía de San Francisco y Singapur.

Este cable se construirá con el equipo de transmisión submarino óptico más avanzado, mejorando la redundancia de la red, la flexibilidad y asegurando comunicaciones altamente confiables.

 

¿Cuál es el futuro de la virtualización de servidores?

La virtualización de servidores es una de esas tecnologías que tiene un concepto simple y un impacto profundo en los centros de datos empresariales.

¿Qué pasaría si, en lugar de ejecutar una instancia de sistema operativo y una aplicación por servidor, puede agregar una capa de software, conocida como hipervisor, que le permite ejecutar varias instancias del sistema operativo y las cargas de trabajo asociadas en un único servidor físico?

Esa es la idea detrás de la virtualización de servidores, y la idea se remonta a los mainframes de IBM en la década de 1960 y fue popularizada por VMware, que introdujo el software de virtualización para servidores x86 a principios de la década de 2000. Desde entonces, otros proveedores han desarrollado sus propias plataformas de virtualización de servidores y la industria en su conjunto ha creado herramientas avanzadas de administración, automatización y orquestación que hacen que la implementación, el movimiento y la administración de las cargas de trabajo de las máquinas virtuales (VM) sean muy sencillas.

Antes de la virtualización de servidores, las empresas tratan la proliferación de servidores, la potencia de cálculo subutilizado, con alza de facturas de energía, con los procesos manuales y con la ineficiencia general y falta de flexibilidad en sus entornos de centros de datos.

La virtualización de servidores cambió todo eso y ha sido ampliamente adoptado. De hecho, es difícil encontrar una empresa que no esté trabajando la mayor parte de sus cargas de trabajo en un entorno de máquina virtual.

La virtualización de servidores tomó un dispositivo físico y lo dividió en dos, lo que permite que múltiples sistemas operativos y múltiples aplicaciones completas aprovechen la potencia informática subyacente.

En la siguiente ola de computación, desarrolladores de aplicaciones está cortando en partes más pequeñas qué servicios se ejecutan en un lugar de cara a experimentar con la informática sin servidor (también conocida como función-as-a-service (FAAS).

 

Beneficios de la virtualización de servidores

El servidor virtual comenzó y se reunió con la consolidación del servidor base. Se pueden combinar múltiples aplicaciones en una sola pieza de hardware, reduciendo así el número total de servidores necesarios en el centro de datos. Menos servidores, menos bastidores, menos equipo de red. Todo se traduce en ahorros de dinero, desde el espacio físico hasta los costes de mantenimiento y el aire acondicionado.

La virtualización de servidores reduce la necesidad de gastos de capital en hardware nuevo, lo que le permite desconectarse de la actualización de hardware.

Con la virtualización de servidores los avances en la automatización le permiten girar una máquina virtual en cuestión de segundos y mover varias cargas de trabajo en el toque de un botón en respuesta a las cambiantes necesidades del negocio.

La virtualización de servidores también ofrece la alta disponibilidad, velocidad, escalabilidad, agilidad, rendimiento y flexibilidad que requieren las empresas altamente conectadas basadas en la web de hoy en día.

Y la virtualización de servidores es la tecnología subyacente que permite a los proveedores de computación en la nube ofrecer sus servicios. Cuando un cliente solicita una infraestructura-as-a-Service (IaaS) de un proveedor de servicio en la nube, Comienzan con máquinas virtuales y después añadir sobre las características de almacenamiento, gestión y seguridad asociados necesarios para llevar a cabo la tarea en cuestión.

 

Los diferentes tipos de virtualización de servidores

Con la virtualización estándar basada en hipervisor, el hipervisor o monitor de máquina virtual (VMM) se ubica entre el sistema operativo host y la capa de hardware subyacente, proporcionando los recursos necesarios para los sistemas operativos invitados.

La virtualización de para y la virtualización completa modifican el sistema operativo invitado antes de la instalación en la máquina virtual. Esto mejora el rendimiento ya que el sistema operativo huésped modificado se comunica directamente con el hipervisor, lo que elimina la sobrecarga de la emulación.
También se intenta la virtualización asistida por hardware para reducir la sobrecarga del hipervisor, pero lo hace a través de extensiones de hardware, en lugar de modificaciones de software.

Con la virtualización a nivel kernel, en lugar de usar un hipervisor, ejecuta una versión separada del kernel de Linux. Esto hace que sea fácil de ejecutar múltiples máquinas virtuales en un único host, con un controlador de dispositivo utilizado para la comunicación entre el principal núcleo de Linuxy las máquinas virtuales. Finalmente, con la virtualización del sistema operativo, puede ejecutar entornos múltiples pero lógicamente distintos en una única instancia del kernel del sistema. Con la virtualización a nivel de sistema, todas las máquinas virtuales deben compartir la misma copia del sistema operativo, mientras que la virtualización de servidores permite que diferentes máquinas virtuales tengan diferentes sistemas operativos.

 

Neal Weinberg

Broadcom finaliza la compra de CA Technologies

Broadcom anunció un acuerdo con la compañía de software CA Technologies para adquirirla por la suma de 19,000 millones de dólares con el objetivo, tal y como informan en un comunicado, de “construir una de las compañías de tecnología de infraestructura líderes en el mundo”.

El presidente de Broadcom, Hock Tan, señaló la importancia de esta transacción mediante la cual pasan a ser una de las “principales empresas de tecnología de infraestructura del mundo”.

“CA se encuentra en una posición única del mercado de software de infraestructura. Sus franquicias de software de mainframe y corporativas se agregarán a nuestra cartera de negocios de tecnología de misión crítica”, aclaró Tan.

Además, el ejecutivo añadió que: “Tenemos la intención de continuar fortaleciendo estas franquicias para satisfacer la creciente demanda de soluciones de software de infraestructura”.

Por parte de CA, su CEO Mike Gregoire se mostró “entusiasmado” y destacó la importancia de unir una importante empresa de software como CA con una experta en la industria de semiconductores como es Broadcom. “Los beneficios de este acuerdo se extienden a nuestros accionistas que recibirán una prima significativa e inmediata por sus acciones, así como a nuestros empleados que se unirán a una organización que comparte nuestra valores de innovación, colaboración y excelencia en ingeniería. Esperamos completar la transacción y garantizar una transición sin problemas”.

El acuerdo, que ha sido aprobado por los consejos de administración de ambas compañías, establece que los accionistas de CA recibirán 44,50 dólares por acción en efectivo.

Esto representa una prima de aproximadamente 20% al precio de cierre de las acciones ordinarias de CA el 11 de julio de 2018, último día de negociación anterior al anuncio de la transacción, y una prima de aproximadamente 23% al precio promedio ponderado por volumen de CA (“VWAP”). ) durante los últimos 30 días de negociación.

La transacción en efectivo representa un valor patrimonial de aproximadamente 18.9 mil millones de dólares, y un valor de empresa de aproximadamente 18.400 millones.

En marzo fue noticia el intento de Broadcom de comprar Qualcomm, sin embargo este finalmente se vio truncado por el bloqueo de Donald Trump alegando motivos de seguridad nacional.

Para el analista de IDG Research, Fernando Maldonado, este movimiento ha sido una “sorpresa”. “Primero significa que entrar en nuevo mercado y segundo porque, después de la fallida adquisición de Qualcomm, representa un giro de 180º en su estrategia de buscar una mayor consolidación del mercado de semiconductores”.

Según Maldonado, CA software es una empresa que goza de una buena estabilidad financiera: casi la mitad de sus ingresos proceden del negocio en torno a la infraestructura mainframe de sus clientes, algo que le aporta un buen flujo de caja pero no crecimiento.

 

Cristina Cueto García

IBM lanza FlashSystem 9100 habilitado para multicloud e IA

Por primera vez en su historia, IBM realizó un anuncio global en un país de Latinoamérica, siendo México el lugar escogido. Se trata de su nuevo sistema de almacenamiento flash, con capacidades superiores pensado en la era multicloud y habilitado para soportar inteligencia artificial.

Eduardo Gutiérrez, Director IBM México.

“IBM es una empresa en la cual los clientes pueden tener la confianza de que tienen la capacidad de impulsarlos a alcanzar el siguiente nivel de innovación. Con el lanzamiento que estamos haciendo no les quedará duda de que somos un excelente socio de negocio”, aseveró Eduardo Gutiérrez, Director IBM México.

IBM FlashSystem 9100 ofrece un mejor rendimiento para instancias de almacenamiento habilitadas para NVMe y multi-cloud, además de otorgar mayor agilidad y mejor reducción  de riesgos basados en IA, aprovechadas gracias al software IBM Storage Insights, la solución del gigante azul basada en la nube que proporciona telemetría, planificación, métricas de almacenamiento y estado del sistema de almacenamiento basados en IA, lo que permite a las empresas ver y planificar más fácilmente sus necesidades de capacidad, evitar gastos imprevistos, automatizar los procesos de soporte y agilizar la resolución de problemas cuando sea necesario.

El nuevo sistema de IBM FlashSystem 9100 ofrece modernizar la infraestructura de TI al expandir el almacenamiento existente a la nube, además de caracterizarse como una arquitectura flexible para las cada vez más exigentes demandas de negocios, mejorar considerablemente el aprovechamiento de datos, al mismo tiempo que ofrece mejorar el retorno de inversión y reducir CapEx y OpEx.

Eric Herzog, CMO IBM Storage Systems.

“No se trata sólo del hardware, sino de ofrecer toda la solución completa. Las empresas deben asegurarse de que su nube le otorgue flexibilidad una infraestructura moderna y por supuesto ágil, que les permita moverse desde y hacia cualquiera de sus instancias multicloud, asegurándose que su data siempre esté ahí, siempre disponible para poder tener un mejor manejo del negocio”, aseguró Eric Herzog, CMO IBM Storage Systems.

IBM FlashSystem 9100 ofrece tecnología FlashCore integrada con las capacidades multi-cloud de las soluciones de IBM Spectrum Storage. Las matrices all-flash optimizadas para NVMe proporcionan hasta 2 petabytes (PB) de almacenamiento efectivo en solo 2RU y hasta 32PB de flash en un único rack 42RU estándar de la industria.

Las capacidades de IBM FlashSystem 9100 pueden ampliarse fácilmente agregando componentes de IBM Spectrum Storage como su solución de Reutilización de Datos, Protección y Eficiencia, IBM Spectrum Copy Data Management (CDM), Business Continuity and Data Reuse y Private Cloud Flexibility and Data Protection.

Ed Walsh, General Manager IBM Systems.

“El éxito de las empresas de hoy depende de la recolección, almacenamiento, aprovechamiento, y seguridad que tengan de sus datos. Con FlashSystems pueden lograrlo al obtener no sólo infraestructura, sino todo un sistema especializado”, comentó Ed Walsh, General Manager IBM Systems.

Actualmente compañías en México como Bancoppel, el Tecnologico de Monterrey y Grupo SICOSS ya están aprovechando los beneficios que le ofrece el almacenamiento flash de IBM.

Morena y los retos que enfrenta en materia de Telecomunicaciones

A partir del 1 de diciembre de 2018 en México tendremos una nueva administración y con ella muchos cambios en los programas sectoriales acorde, o no, a las propuestas que los candidatos estuvieron haciendo en sus respectivas campañas. El sector Telecomunicaciones no ha sido la excepción y el virtual Presidente Electo, junto con su equipo, se han pronunciado al respecto.

En cuanto al Sector Telecomunicaciones, se identifica un posicionamiento que se enfoca principalmente en la ampliación de la cobertura, disponibilidad y adopción de servicios quitándole protagonismo a aspectos de competencia económica.

El planteamiento anterior es equivocado para la realidad que vive nuestro país sobre todo después de la Reforma de Telecomunicaciones y Radiodifusión. Si bien la cobertura de las redes de telecomunicaciones no ha llegado al 100% de la población se encuentran muy cercano a ello, algunas redes cubriendo al 96% de la población.

La misma Reforma ha establecido la compartición de infraestructura permitiendo que aquellas redes que no tengan tanta cobertura puedan aprovechar la cobertura de las mas grandes para poder llevar mas y mejores servicios a la población. También, paralelamente, se echaron a andar proyectos como la Red Compartida y la Red Troncal los cuales en el mediano plazo ayudarán a tener una cobertura casi de toda la población.

Entonces, si estamos avanzado en cobertura, ¿Por qué la penetración de algunos servicios de telecomunicaciones se encuentran por debajo de ese 96% de cobertura que tiene la Red mas grade? ¡Precisamente por falta de competencia!

Solo para que se den una idea, poco mas de la mitad de la población mexicana (54.9%) vive en una población sin competencia en redes de Fibra Óptica limitando la posibilidad de entrada al mercado de nuevos operadores de Telecomunicaciones y por lo tanto dificultando la posibilidad de disminución de los precios de los servicios de telecomunicaciones.

Si bien, la cobertura y competencia no han sido los únicos temas que se han abordado existen algunos mas que no han sido desarrollados a profundidad entre los que se encuentran:

Telecomunicaciones:

– No regulación de plataformas bajo demanda (OTT)
– Posible acceso del preponderante a TV de Paga
– Importancia de la economía digital
– Neutralidad de la Red

Radiodifusión:

– Replanteamiento de los tiempos oficiales que recibe el Estado
– Replanteamiento de montos de gasto en comunicación social

Sin lugar a dudas aun hay mucho que hacer en el sector Telecomunicaciones para que todas las personas tengan acceso a servicios de telecomunicaciones pero dejar de empujar por tener un sector en competencia sería un grave error y en muy poco tiempo nos llevaría a ser el país atrasado y mas caro de telecomunicaciones que fuimos hace no menos de un lustro.

 

Por: Gonzalo Rojon, Director & Senior Partner, The Competitive Intelligence Unit. 

El futuro de las ciudades inteligentes

Un nuevo informe publicado por un grupo de trabajo denominado Georgia Tech, afirma que el futuro de la tecnología de las ciudades inteligentes dependerá de que las empresas y los gobiernos de la ciudad entiendan los puntos más delicados de la tecnología IoT y la forma en que afecta los modelos comerciales y las vidas de los ciudadanos. El informe analiza, entre otras cosas, los riesgos y las posibles recompensas de varios tipos de IoT pública, desde una perspectiva ética, tecnológica y práctica.

Un punto clave para los investigadores es que el IoT desplegado en espacios públicos -en colaboración entre los gobiernos de las ciudades, la empresa privada y los propios ciudadanos- tiene un grupo diverso de partes interesadas a las que responder.

Los ciudadanos requieren transparencia y protecciones rigurosas de seguridad y privacidad, para estar seguros de que pueden usar la tecnología de forma segura y tener una comprensión clara de la forma en que el sistema puede usar su información.

La investigación también profundizó en varios casos de uso específicos para smart city IoT, la mayoría de los cuales giran en torno a la participación más directa con los ciudadanos. Las ofertas de gestión de servicios municipales, que permiten a los residentes comunicarse directamente con la ciudad sobre su gestión de residuos o necesidades de servicios públicos, ocuparon un lugar destacado en la lista de posibles casos de uso, junto con tecnología de gestión para los propios servicios, permitiendo que las ciudades gestionen la red eléctrica y el sistema de una manera más centralizada. La seguridad pública fue otro caso de uso clave, por ejemplo, la idea de usar sensores IoT para proporcionar información más precisa a los primeros respondedores en caso de emergencia.

El modelo de negocio para la industria privada involucrado en la tecnología de ciudad inteligente gira en torno a la idea de que los sensores agreguen valor a los productos y servicios existentes. Tales “productos cargados digitalmente” pueden ser desde elementos clásicos de IoT hogareños como cámaras de seguridad y termostatos accesibles a teléfonos inteligentes, hasta sistemas de calefacción que pueden notificar a los proveedores cuando se necesita un reabastecimiento.

Más allá de los dispositivos habilitados para sensores actuales, las empresas están más interesadas en la idea de plataformas IoT, software que permita una amplia gama de productos y servicios de IoT diferentes. El informe cita una investigación de IoT Analytics que dice que el mercado de los servicios de la plataforma IoT alcanzará los $ 22 mil millones en los próximos cinco años.

 

– Jon Gold

¿Sabe qué es NVMe y cómo le ayudará a agilizar la innovación?

¿Usted ya sabe qué es NVMe? Se trata de un protocolo de comunicaciones desarrollado específicamente para el almacenamiento de flash. Permite un rendimiento más rápido y una mayor densidad en comparación con los protocolos heredados.

Está diseñado para cargas de trabajo empresariales que requieren un rendimiento superior, como análisis de datos en tiempo real, plataformas de comercio en línea y otras cargas de trabajo sensibles a la latencia.

NVMe tiene como objetivo reducir la sobrecarga de software entre las aplicaciones y el almacenamiento en todos los sistemas flash.

Los sistemas de almacenamiento basados en Flash normalmente usan enlaces SAS (SCSI conectados en serie) desde sus procesadores de controlador para comunicarse con el flash. SAS se basa en el protocolo heredado SCSI, que se desarrolló originalmente para su uso con unidades de disco duro más lentas. SCSI se puede usar para comunicarse con flash, pero no es ideal.

NVMe está diseñado para aprovechar mejor la mera latencia de microsegundos proporcionada por las matrices de todos los flash y eliminar el cuello de botella SCSI.

 

¿Cómo funciona NVMe?

Específicamente, NVMe utiliza rutas de datos paralelas de baja latencia para acelerar el rendimiento en el back-end de las matrices flash: NVMe admite 64,000 filas que pueden contener hasta 64,000 comandos.

 

Por qué una empresa necesita NVMe

Hay cargas de trabajo extremadamente sensibles a la latencia que se beneficiarán inmediatamente del aumento de rendimiento de NVMe, como el análisis de big data en tiempo real o entornos de bases de datos de alto rendimiento. El análisis y la respuesta en tiempo real se están convirtiendo en una necesidad para las empresas, e IDC predice que entre el 60% y el 70% de las empresas de Fortune 2000 tendrán al menos una carga de trabajo de misión crítica que aproveche el análisis de big data en tiempo real para 2020.

 

Ann Bednarz

Camino hacia el Centro de Datos Moderno

Nuevas tendencias, como el internet de las cosas, está exigiendo cada vez más al rendimiento del centro de datos, creando una nueva ola de información y cargas de trabajo que muchas veces no se puede solucionar con una instancia local, teniendo que recurrir a la nube para poder ofrecer la disponibilidad, velocidad y agilidad que exige la nueva era digital.

Empresas en todo el mundo están recurriendo a este modelo, conocido como el Centro de Datos Moderno, donde se manejan algunas cargas de trabajo en su nube privada, aquellas más sensibles, mientras manda las que requieren de mayor inmediatez y disponibilidad a la nube pública, logrando que estos workflows se manejen desde y hacia cada instalación.

En países en desarrollo, como México, las empresas tienen la obligación de ser más eficientes para hacer frente a la competencia local e internacional, así como ser más ágiles para poder adaptarse a los cambios del mercado. “El principal reto de las empresas de hoy es ofrecer la eficiencia y el uso correcto de la infraestructura que ya tienen, poder habilitarlo para colaborar en un ambiente híbrido. Aunque no estén diseñados desde el inicio para trabajar de este modo, empresas como VMware estamos comprometidos para ayudar a crear este formato de Data Center Moderno”, comentó Jorge Gómez, Customer Solutions Manager de VMware.

Jorge Gómez, Customer Solutions Manager de VMware.

Según el ejecutivo, México está adoptando el modelo de Centro de Datos Moderno con velocidad, y se espera que estén en constante preparación para que su infraestructura sea capaz  y esté actualizada para recibir las actuales y futuras exigencias del mercado. “No sólo se trata del IoT y movilidad, hoy en día se trata de IA y vienen más olas de innovación. Los decision makers, como los CIOs, están realmente hambrientos para empezar a probar nuevas tecnologías”, agregó.

Sin embargo, Gómez aseguró que no se trata de deshacerse de la infraestructura y de toda la inversión que ya se ha hecho, ni de mover todas las cargas a la nube pública sólo porque es tendencia, si es que las necesidades de negocio no lo demandan, sino de lograr una buena sinergia entre centro de datos y nube.

“VMware ayuda a las empresas a visualizar cómo pueden dar el primer paso hacia la transformación digital con la infraestructura que ya existe, logrando tener éxito con un ritmo incluso más rápido de lo que ellos mismos esperan”, finalizó Jorge Gómez.