Categoría: Tecnología de Apoyo

Consecuencias de las fallas del hardware y cómo solucionarlo

Todos los sistemas clásicos “legacy” tienen al menos un punto en común y el más importante: están envejeciendo y, con ello, se vuelven más vulnerables y menos confiables. Además, los fabricantes ya no ofrecen servicios de soporte a estos sistemas, dejando a las compañías que los tienen muy desprotegidas.  

La vida útil del hardware es limitada, sin embargo, el software y las aplicaciones ejecutadas sobre él tienden a tener una vida útil más larga.

Muchas empresas ignoran este hecho a favor de otros proyectos que parecen ser más urgentes. Sin embargo, cuando el hardware clásico falla, estas mismas organizaciones se arrepienten de no haber anticipado un plan de contingencia, ya que no hay margen de tiempo para resolverlo y el funcionamiento del sistema es crucial para el éxito del negocio. Los ingresos de la compañía, su reputación y posibles penalidades están en juego. Entonces, ¿por qué las empresas esperan hasta último momento para adoptar un plan cuando los riesgos son tan significativos y las pérdidas pueden ser millonarias?

 

¿Por qué las empresas esperan?

Los presupuestos son limitados e invertir más en sistemas clásicos “legacy” puede ser difícil. Algunos departamentos de TI obtienen piezas de repuesto y creen que es más barato que una solución a largo plazo.

Muchas empresas tienen la mentalidad de “si no está roto, no hay que reparar”. Y en la medida en que el sistema clásico sigue siendo ejecutado, la compañía le va dando prioridad a otras áreas.

 

¿Por qué no se debe esperar?

En la mayoría de los casos, el costo de esperar es mayor que el costo de invertir a largo plazo. En algunas industrias, incluidas las de gobierno y finanzas, el 80-90% de los presupuestos de tecnología están destinados al mantenimiento de los sistemas de hardware clásicos ¨legacy¨.

Esto se debe a que estos sistemas son fundamentales para el éxito de una organización. Las empresas de servicios financieros, por ejemplo, pueden recibir altas multas si un fallo en el sistema clásico los deja sin acceso a los registros que necesitan almacenar por un determinado tiempo.

Además del riesgo de penalidades legales o procesos judiciales, las organizaciones pueden enfrentar el costo de piezas de recambio, (y sus costos adicionales cuando esas piezas no funcionan bien), el costo cada vez más elevado de mantenimiento debido a que los expertos en estos sistemas están dedicándose a otras funciones y el costo que genera el tiempo de inactividad del sistema cuando el hardware clásico falla. 

 

Las consecuencias de la espera

Una estimación de Gartner muestra que las organizaciones pueden enfrentarse a 87 horas de inactividad del sistema al año. Se estima que el costo por hora es de US$ 42.000, lo que significa pérdidas superiores a los US$ 3,6 millones anuales para las grandes corporaciones. Otras fuentes citan costos más altos de US$ 84.000 a US$ 108.000 por hora.

Migrar a una plataforma totalmente nueva puede ser caro. Esto implica crear una nueva aplicación, entrenar empleados, convertir, traducir datos de la plataforma clásica a la nueva y los posibles gastos si los datos se pierden durante el proceso.

Una búsqueda hecha por Bloor Research mostró que el presupuesto promedio para un proyecto de migración de datos es de US$ 875.000, pero sólo el 62% de los proyectos se hicieron dentro del plazo y del presupuesto inicialmente planteado.

Por otro lado, a medida que el hardware clásico envejece, el soporte empieza a escasear. Muchos expertos en hardware clásico se están retirando o enfocando en nuevos espacios tecnológicos. Y a raíz de esto el costo para mantener esas plataformas legadas está subiendo.

 

Creación de un plan, “como mitigamos el riesgo de estos sistemas”

Al entender los riesgos, las empresas evalúan las opciones y se ven frente a tres alternativas:

Opción A: mantener el hardware obsoleto

Esto significa estar enterado de los colapsos y ordenar una pieza de repuesto lo más rápido posible cuando hay un fallo. Es necesario, sin embargo, estar cómodo con el tiempo de inactividad que ello implica. La opción es más aceptable para las empresas con bajo costo de tiempo de inactividad o que sólo utilizan el sistema como archivo.

Opción B: migrar el software

Las migraciones tardan meses y requieren reescrituras parciales o completas de la aplicación. Además, parte de la información se puede perder en el proceso y hay renovación de empleados. El tiempo, los costos y los riesgos involucrados pueden hacer que esta opción sea prohibitiva.

Opción recomendable: emulación de hardware

La solución más económica y de bajo riesgo es virtualizar el hardware clásico, permitiendo que aplicaciones legadas se ejecuten sin modificación en servidores estándar. La emulación tiene un corto proceso de implementación – las empresas pueden mantener sus aplicaciones intactas. Además, el equipo de soporte está disponible para diagnóstico, solución de problemas y mantenimiento general. 

Los sistemas clásicos no deben quedar desprotegidos. Con la emulación, las organizaciones pueden mejorar el ROI de los sistemas, mantener aplicaciones de misión crítica en acción, eliminar riesgos, reducir costos y evitar excesos presupuestarios. Invertir en el futuro de los sistemas clásicos es una garantía de éxito continuo del negocio.

 

Por: Robert Ruiz, Director General de Stromasys para Latinoamérica.

La importancia del monitoreo 
de sistemas de seguridad física

Los principios básicos de los sistemas de seguridad física existen desde hace décadas y no han cambiado tanto: la vigilancia, la detección de intrusos y la activación de alarmas en caso de daños o anomalías siguen formando la base de cualquier instalación de seguridad. Sin embargo, lo que ha cambiado es la tecnología que impulsa estos principios básicos, ya que la digitalización ha cambiado las bases de los sistemas de seguridad. Junto con esta digitalización, han surgido nuevos desafíos. Es importante, entonces, tenerlos en cuenta y saber cómo mitigarlos. 

 

Seguridad digitalizada

Pero ¿cuáles son estas nuevas tecnologías (“nuevas” es relativo, considerando que algunas han existido por más de una década) que están cambiando la industria de la seguridad física? Aquí hay unos ejemplos:

  • Cámaras IP: A finales de los años 90, las primeras cámaras en red iniciaron el movimiento de la videovigilancia alejándose de lo analógico y entrando en lo digital. Más tarde, las cámaras, que adoptaron la tecnología de red IP, Power over Ethernet (PoE) y varios tipos de compresión de video, proporcionaron una mejor manera de conectar y administrar cámaras de vigilancia. Como una ventaja adicional, se ha vuelto más fácil acceder a las transmisiones de video de forma remota a través de dispositivos móviles. 
  • Control de acceso IP: No sólo las cámaras aprovecharon la tecnología de red IP; los controladores de acceso IP pueden conectarse directamente a la red y ya no necesitan un servidor terminal como lo hacían en los viejos tiempos.
  • Almacenamiento de datos digitales: Anteriormente, los datos como las videograbaciones se enviaban a cinta. Hoy en día, los datos se almacenan digitalmente en discos duros o en la Nube.
  • Otras “Cosas”: En la era del IoT, muchos otros dispositivos están habilitados para la red. Los botones de pánico, los detectores de movimiento, los sistemas HVAC (calefacción, ventilación y aire acondicionado) y los detectores de humo son solo algunos ejemplos. 

Una mezcla heterogénea de tecnologías

En Suecia llaman “smorgasbord” a un buffet que consta de ingredientes muy variados, y esa puede ser una descripción adecuada para los sistemas de seguridad modernos. Debido a la heterogeneidad de sus componentes, estos sistemas, a menudo, son un mosaico de tecnologías, protocolos y una variedad de dispositivos de múltiples marcas. El primer desafío al que se enfrentan los integradores de sistemas de seguridad es que necesitan obtener todos estos dispositivos dispares en una red y luego configurar y optimizar esa red. Sí, podría tomar más de unos días. 

Pero establecer y configurar el entorno es solo la primera parte de la lucha.

 

El nuevo eslabón más débil: la red

La naturaleza digitalizada de los sistemas de seguridad modernos introduce nuevos puntos de falla además de los tradicionales. Por ejemplo, la pérdida de datos se ha convertido en un factor. Con los datos de video almacenados digitalmente, si algo sale mal, como un dispositivo de almacenamiento que falle, o si la red no transmite bien los datos, se pueden perder las grabaciones.

Pero quizás el mayor punto débil para los sistemas de seguridad modernos es la red subyacente. Los cuellos de botella, problemas de banda ancha o problemas de enrutamiento que impiden que los datos se envíen o reciban correctamente, todas ellas son situaciones que pueden comprometer un sistema de seguridad. Y si los hackers obtienen acceso a la red o dispositivos, tienen la capacidad de anular la seguridad de todo el sistema. Esto podría implicar que se apaguen algunos aspectos del sistema o el uso de dispositivos para fines distintos a los previstos. 

Los riesgos que mencionamos anteriormente representan un peligro crítico para cualquier sistema de seguridad. Entonces, ¿cómo evitar que estas cosas sucedan?

La respuesta corta es: no se pueden eludir por completo estos riesgos. Los dispositivos electrónicos funcionarán mal, las redes tendrán problemas de banda ancha y los dispositivos de almacenamiento fallarán. Estas son las verdades eternas del mundo digital. Todo lo que se puede hacer es tomar medidas preventivas siempre que sea posible y configurar alertas para cuando hay una falla. Aquí entra el monitoreo de la red.

Monitorear el sistema de seguridad

Al igual que con otras industrias, los sistemas de seguridad modernos han visto una convergencia con las TI tradicionales: usted tiene los dispositivos de seguridad especializados que se ejecutan en la misma infraestructura que otros dispositivos de TI operativos, como switches, servidores, routers, etc. Si bien esto se agrega a la complejidad de los sistemas de seguridad, también significa que existe la posibilidad de monitorear todo en un solo lugar, a pesar de las tecnologías dispares. 

Los mismos pasos generales que se aplican al monitoreo de entornos de TI tradicionales también se aplican a la supervisión de una red de sistema de seguridad:

  1. Establezca las métricas para un sistema de funcionamiento saludable. Por ejemplo, ¿cuánto ancho de banda usan los dispositivos específicos cuando funcionan normalmente? ¿Cómo se ve el flujo de tráfico en diferentes partes de la red en diferentes momentos del día? ¿Qué tipo de uso de la CPU es normal para los servidores?
  2. En función de las métricas del paso 1, configure umbrales y alertas. Cuando los valores van por encima o por debajo de los valores “normales”, entonces sabe que tiene un problema potencial.

Usando una buena solución de monitoreo de red, es posible obtener una vista de toda la red en un tablero. Además, la información que obtiene al monitorear la red puede contribuir a hacer ajustes para ayudar a prevenir la pérdida de datos o fallas críticas. Eche un vistazo a algunos ejemplos en la tabla a continuación de problemas potenciales que puede detectar al monitorear un sistema de seguridad.

Una de las ventajas del monitoreo de red es que los tipos de sistemas que puede monitorear son bastante variados, siempre que los dispositivos conectados ofrezcan tecnologías estándar (como SNMP, NetFlow, WMI, etc.). Si bien el enfoque de monitoreo sigue siendo el mismo: configurar un sensor para un dispositivo y obtener estadísticas, la red real puede verse muy diferente de una instalación a otra. Entonces, con el mismo principio de monitoreo de red, usted podrá supervisar un hospital, una casa inteligente, una ciudad inteligente, o un sistema de seguridad física.

Por: David Montoya, Director de Paessler de Latinoamérica.

 

 

Manufactura 4.0, un futuro viable en México

La Industria 4.0 o Manufactura 4.0, es un término acuñado por los organizadores de la Feria de Hannover, realizada en Alemania, donde la tecnología es el eje principal como medio para robustecer la capacidad de manufactura de las empresas, en esta feria surgió dicho concepto, su importancia y ahora su adopción en el mundo entero. 

Esta nueva tendencia, conlleva no solo a la transformación de la planta industrial, para posicionarse en esta ola tecnológica, sino de las mismas universidades que ahora se encuentran obligadas a modificar sus planes y programas de estudios, pero sobre todo tiene un compromiso con la innovación para garantizar el talento humano.

En México, la manufactura representa cerca de 20% del Producto Interno Bruto (PIB), procedentes de sectores como el automotriz, bebidas, alimentos y electrónica, entre otros.

Datos de la Organización Mundial de Comercio (OMC) indican que México es el cuarto país del mundo que más importa robots industriales, información que nos deja ver como el país está dando sus primeros pasos firmes en esta nueva era de Manufactura 4.0.

La Asociación para la Tecnología Manufacturera (AMT por sus siglas en inglés), señaló que durante el 2018, el sector manufacturero de México invertiría dos mil millones de dólares en soluciones tecnológicas que impulsen el crecimiento de la producción, lo que sin duda incrementará una simplificación en procesos y por lo tanto en los negocios.

Como opciones para estas inversiones hay plataformas de tecnología que ayudan, por ejemplo, a visualizar los inicios de la línea de producción, contar con un portal de ventas, recepción de pedidos y, claro, interfaz con el sistema ERP de la empresa, que además guarda datos de productos, estructura de materiales, costos y pedidos de producción, además son capaces de realizar un análisis preventivo de la posibilidad de un fallo en la línea, tendencias de problemas con los productos y equipos productivos, y un análisis de productividad de las líneas de producción.

Con dichas soluciones se puede obtener información para la toma de decisiones y la realización de proyectos de mejora continua, lo cual permite la mejora de plazos de entrega, calidad y reducción de costos operacionales.

Otras aplicaciones más innovadoras son el levantamiento del pedido a través de un reconocimiento facial que identifica y valida al solicitante, confirmaciones y configuraciones personales del producto, permitiendo el concepto de alto grado de personalización de la industria 4.0.

Finalmente, además de tener un control del producto, se puede contar una base de datos para recolectar la información para la toma de decisiones y de una operación eficaz que beneficia a la producción del producto manufacturado. 

Así que, si su empresa tiene o está en planes de abrir operaciones manufactureras en este país, mi recomendación es encontrar el aliado de tecnología que lo ayude a simplificar su negocio y optimizar su producción.

Por: Oscar González, Gerente General Norte de América Latina de TOTVS.

 

 

Tendencias de los consumidores que llevan a la convergencia de red

Con el desarrollo tecnológico y las crecientes necesidades de conectividad, los usuarios esperan conexiones mucho más rápidas para acceder a la información que necesitan, en el lugar y momento que lo deseen. Hoy en día el comportamiento de los consumidores, así como sus hábitos hacia la vida digital, han hecho que los operadores y administradores de servicios deban mejorar la infraestructura de sus redes para soportar la gran demanda de transmisión de datos y ofrecer servicios digitales más confiables y eficientes, por lo que tendencias como la convergencia de redes seguirán en crecimiento para brindar redes más integradas y eficientes.

“La convergencia de red continuará siendo un tema importante para los operadores en los próximos años”, afirmó Jessica Epley, especialista en desarrollo de contenido en CommScope. “Aunque la convergencia de red es inevitable para continuar ofreciendo servicios eficientes, existen algunas tendencias se los usuarios que impulsan aún más su desarrollo”.

 

1. Expansión de la IoT

La cantidad de dispositivos conectados a la Internet de las Cosas (IoT) seguirá influenciando de manera importante la necesidad de la convergencia de redes, dado que los usuarios continúan buscando conectarse desde sus hogares, oficinas, vehículos, sitios públicos sin problema, cada día se integrarán más y más dispositivos a la red. Hoy existen teléfonos inteligentes, autos relojes, televisores, refrigeradores y hasta espejos que se pueden conectar a la red de información, haciendo que la forma en que se conectan las personas siga evolucionando constantemente.

 

2. Transición a 5G

La tecnología 5G será, en un futuro, indispensable para las comunicaciones. Debido a que los consumidores exigen mayores velocidades y conectividad móvil para diversos dispositivos, la red 5G depende en gran medida de la convergencia de múltiples redes para crear una infraestructura de comunicaciones adecuada, que soporte las necesidades actuales y futuras de los consumidores.

“Con más de 20 mil millones de dispositivos conectados a la IoT para 2020 y velocidades de hasta 10Gbps por suscriptor, los consumidores seguro buscarán aprovechar los beneficios que la red 5G traerá y para ello será necesaria la convergencia de redes con la finalidad de mantener las infraestructuras listas para soportar esas ‘cosas’ y grandes velocidades de conexión”, añadió Jessica Epley.

3. Virtualización de datos

Con el incremento del uso de aplicaciones basadas y almacenadas en la nube, la virtualización de la información hará que la convergencia de red sea la solución para los operadores y empresas, que en la búsqueda de cubrir esta necesidad tratarán de mejorar la infraestructura de red de sus Centros de Datos para ofrecer servicios virtualizados.

 

4. Integración de servicios digitales

Para ofrecer una experiencia general a los usuarios, los proveedores de servicios digitales han integrado otras aplicaciones a su oferta, como resultado los consumidores esperan poder acceder a varios servicios al mismo tiempo, sin problemas y de una forma ágil.

“Uber es un gran ejemplo en esta tendencia de servicios integrados. A través de su ‘Uber Feed’ ha logrado incluir diversos servicios como UberEats, Yelp, Snapchat y Forsquare, pasando de una visión de servicios de transporte a un enfoque integral mediante el cual pueden conocer los hábitos y preferencias de sus clientes”, mencionó Jessica Epley. “Sin embargo, este tipo de servicios integrados dependen especialmente de las infraestructuras y redes de comunicación eficientes y altamente integradas para poder brindar los distintos servicios”.

5. El contenido como el “rey”

Hoy más que nunca los consumidores esperan tener un acceso instantáneo a los contenidos a través de las redes sociales, plataformas de transmisión, sitios de comercio electrónico, etcétera. El contenido de calidad ha atraído más consumidores a servicios digitales, pero no sólo eso, sino que ha ocasionado que el tráfico web aumente considerablemente. El contenido se ha vuelto tan importante que en la actualidad los operadores de servicios de redes inalámbricas y cableadas buscan adquirir compañías creadoras de contenidos o viceversa, los proveedores de contenido desean asociarse con proveedores de red que impulsen la distribución.

De esta forma, la convergencia de red se está volviendo indispensable para soportar no sólo más velocidad, sino mayor contenido. “De igual manera, la integración de servicios digitales, tan frecuente actualmente, no sería posible sin esta convergencia entre redes fijas e inalámbricas, que impulsen la conectividad en prácticamente cualquier sitio donde el usuario lo requiera, en el momento del día que lo necesite, haciendo que sean los hábitos de los mismos consumidores los que marquen la pauta del camino hacia donde las redes deban dirigirse”, finalizó Jessica Epley, especialista en desarrollo de contenido en CommScope.

 

Oracle lanza su propio Blockchain-as-a-service (BaaS)

En los últimos años, las ofertas de Blockchain-as-a-service (BaaS) han crecido de forma considerable, de esta manera, Oracle se une a empresas como IBM, SAP o Microsoft para ofrecer este servicio. Aunque, ya en octubre presentaron el servicio de nube autónomo de Oracle Blockchain, una herramienta de colaboración para la creación de redes empresariales de contabilidad distribuidas en blockchain, como la tecnología de contrato inteligente.

La empresa ya cuenta con usuarios de BaaS alrededor del mundo. “El propósito principal por el cual nació el proyecto, es el algoritmo Blockchain que está relacionado con la mayor transparencia que podemos brindar gracias a la trazabilidad”, explicó el CIO de Certified Origins, Andrea Biagianti. “El siguiente paso, y una mayor evolución de nuestro sistema de cadena de bloques, será la gestión de un contrato inteligente para darle al sistema el método automático de evaluar las opciones de producción”.

Un contrato inteligente es una herramienta de automatización de negocios basada en blockchain que se ejecuta contra reglas predeterminadas basadas en código incrustado.

Por ejemplo, una vez que se confirma el envío de un cargamento recibido de un cargador, el pago puede transferirse automáticamente de un banco al fabricante o a la compañía de envío.

Otra empresa que cuenta con los servicios BaaS de Oracle, es CargoSmart, empresa proveedora de software de administración de envíos. “Nuestra solución está diseñada para crear una base digital de gestión confiable de documentación de envíos en toda la industria. Los expedidores, transportistas y aduanas pueden colaborar de manera más eficiente sobre la base de que esta plataforma proporciona la única versión de verdad, inmutable pista de auditoría con baja latencia”, dijo Lionel Louie, director de Comercio de CargoSmart.

 

IDG.es

Hikvision lanza sus terminales de Reconocimiento Facial

Hikvision lanza gama de terminales de reconocimiento facial que incorporan algoritmos Deep Learning para el control de accesos y ambientes de oficina, con el fin de mejorar el ingreso y gestión del personal, administración de edificios, y las operaciones de seguridad.

La compañía presenta tres modelos de terminales de reconocimiento facial:

  • Terminales de reconocimiento facial de montaje en pared: DS-K1T604MF y DS-K1T606MF.
  • Terminal de reconocimiento facial de montaje en pared o base: DS-K1T605MF.
  • Componente de reconocimiento facial para torniquetes de acceso: DS-K5603-Z.

Estos tres modelos son fáciles de instalar y utilizar. La terminal de montaje en pared es muy adecuada para entradas de acceso rápido. Mientras que la terminal de montaje en pared o base puede montarse en superficies verticales convenientes o en el escritorio de recepción. El componente de reconocimiento facial está diseñado para emplearse en torniquetes de acceso. Una vez instalado, este modelo tiene la ventaja de girar horizontalmente para capturar imágenes faciales con el ángulo más eficaz.

Estos modelos permite una variedad de combinaciones Interfaz o back-end para responder a los múltiples requerimientos de diferentes escenarios y entornos. Las terminales de reconocimiento facial de Hikvision son compatibles con los modos de emparejamiento 1:1 o 1:N, con la autenticación a través de tarjetas Mifare, y con la conectividad TCP/IP o RS-485.

 

Hikvision ha incorporado algoritmos Deep Learning en sus terminales de reconocimiento facial, lo que permite una transmisión con menos retrasos y una carga reducida en los componentes back-end.

Como resultado, las terminales tienen una alta tasa de éxito: la tasa de captura facial puede llegar al 99% de precisión en menos de 0.5 segundos. Durante las horas pico, son capaces de responder en menos de medio segundo, con 40 personas pasando por minuto.

Se encuentran disponibles múltiples modos de autenticación: imágenes faciales, inserción de tarjetas de identificación y comparación de imágenes, modos personalizados, entre otros. Pueden aplicarse, por ejemplo, en el comercio, agencias gubernamentales, pequeñas y grandes empresas, fábricas, por mencionar algunos.

 

A los mexicanos les preocupa ser vigilados a través de sus smartphones

La posibilidad de monitoreo que tienen las aplicaciones móviles se está convirtiendo en una preocupación para los usuarios, muchos de los cuales temen que las aplicaciones de sus dispositivos conectados puedan rastrearlos, observar lo que hacen o dar a conocer sus datos.

Cada vez hay más preocupaciones entre los consumidores por saber hasta qué punto es observada su actividad en Internet, o si se les puede rastrear basándose en las características que muestran en línea.

69% de las personas en México no se siente cómodo compartiendo información del lugar donde se encuentra con sitios web y aplicaciones, una cifra que ha aumentado significativamente con relación al 46% registrado en 2016.

Además, más de la mitad (78%) de los usuarios mexicanos está muy preocupada de que alguien pueda ver todo lo que hace o mira en su dispositivo, y una cifra similar (71%) teme que puedan rastrearlo utilizando la información de geolocalización de su dispositivo.

Estas preocupaciones están bien fundadas. Los expertos de Kaspersky Lab han descubierto que las aplicaciones no solo pueden acceder a una gran cantidad de datos (como detalles cruciales sobre dónde están los usuarios, información sobre sus contactos, actividades, etc.), sino que también suelen funcionar en segundo plano sin que los usuarios lo sepan.

Según la investigación global de Kaspersky Lab, 83% de las aplicaciones de Android tienen acceso a los datos confidenciales de sus propietarios, y 96% de las aplicaciones de este mismo sistema operativo pueden iniciarse sin consentimiento.

Sin embargo, las preocupaciones sobre este acceso pueden prevenirse con algunas sencillas medidas de seguridad. Igualmente, hay personas que evitan la seguridad de la información o las medidas de privacidad que podrían ayudarles a sentirse más tranquilas.

Aproximadamente 42% de las personas en México admite que no verifica los permisos de sus aplicaciones móviles preinstaladas en sus dispositivos iOS y Android. Además, el 15% de estas mismas no verifica los permisos cuando baja o instala nuevas aplicaciones en sus dispositivos móviles.

Debido a esto, los usuarios de dispositivos móviles están cada vez más preocupados, pero siguen desprotegidos contra posibles fugas de datos.

“Las aplicaciones se han convertido en una parte importante de nuestra vida cotidiana. Las usamos para todo, desde retocar fotos hasta actualizar nuestras cuentas en las redes sociales, o desde juegos hasta reservar una mesa en un restaurante. Pero esta investigación muestra que, a pesar de nuestro amor por las aplicaciones, no necesariamente confiamos en ellas. Si bien es cierto que las personas están cada vez más preocupadas de que sus aplicaciones sigan su actividad en línea, no necesariamente están implementando medidas para protegerse de posibles problemas. Ahí es donde podemos ayudar a que los usuarios tengan tranquilidad”, dijo Dmitry Aleshin, vicepresidente de marketing de productos de Kaspersky Lab.

 

NEC construirá un sistema de cable submarino a través del Océano Pacífico

El consorcio Bay To Bay Express Cable System (BtoBE), compuesto por China Mobile International, Facebook y Amazon Web Services, firmó un acuerdo con NEC Corporation para construir un cable submarino de alto rendimiento que conecta Singapur, Hong Kong y los Estados Unidos.

Se espera que la construcción del cable submarino óptico de casi 16,000 kilómetros se complete para el cuarto trimestre de 2020.

NEC fue el seleccionado por el consorcio BtoBE como el proveedor de sistemas llave en mano para este sistema de cable submarino de fibra óptica que cubre la distancia más larga sin regeneración.

El BtoBE, que aterriza en tres ubicaciones que cruzan el Océano Pacífico, está diseñado para que una vez completado, pueda transportar al menos 18 TB de capacidad por par de fibra.

“El BtoBE proporcionará una conectividad perfecta y diversidad de redes, mientras sirve para complementar otros cables submarinos de Asia-Pacífico, entre otros”, comentó Toru Kawauchi, gerente general de la División de Redes Submarinas de NEC Corporation.

Ruta del sistema de cable BtoBE.

BtoBE, que cuenta con múltiples pares de fibra óptica, habilitará una transmisión de datos de alta capacidad a través del Océano Pacífico con una latencia de ida y vuelta de menos de 130 milisegundos. BtoBE mejorará aún más y contribuirá a la expansión tan necesaria de las redes de comunicaciones entre el área de la bahía de Guangdong-Hong Kong-Macao, el área de la bahía de San Francisco y Singapur.

Este cable se construirá con el equipo de transmisión submarino óptico más avanzado, mejorando la redundancia de la red, la flexibilidad y asegurando comunicaciones altamente confiables.

 

¿Cuál es el futuro de la virtualización de servidores?

La virtualización de servidores es una de esas tecnologías que tiene un concepto simple y un impacto profundo en los centros de datos empresariales.

¿Qué pasaría si, en lugar de ejecutar una instancia de sistema operativo y una aplicación por servidor, puede agregar una capa de software, conocida como hipervisor, que le permite ejecutar varias instancias del sistema operativo y las cargas de trabajo asociadas en un único servidor físico?

Esa es la idea detrás de la virtualización de servidores, y la idea se remonta a los mainframes de IBM en la década de 1960 y fue popularizada por VMware, que introdujo el software de virtualización para servidores x86 a principios de la década de 2000. Desde entonces, otros proveedores han desarrollado sus propias plataformas de virtualización de servidores y la industria en su conjunto ha creado herramientas avanzadas de administración, automatización y orquestación que hacen que la implementación, el movimiento y la administración de las cargas de trabajo de las máquinas virtuales (VM) sean muy sencillas.

Antes de la virtualización de servidores, las empresas tratan la proliferación de servidores, la potencia de cálculo subutilizado, con alza de facturas de energía, con los procesos manuales y con la ineficiencia general y falta de flexibilidad en sus entornos de centros de datos.

La virtualización de servidores cambió todo eso y ha sido ampliamente adoptado. De hecho, es difícil encontrar una empresa que no esté trabajando la mayor parte de sus cargas de trabajo en un entorno de máquina virtual.

La virtualización de servidores tomó un dispositivo físico y lo dividió en dos, lo que permite que múltiples sistemas operativos y múltiples aplicaciones completas aprovechen la potencia informática subyacente.

En la siguiente ola de computación, desarrolladores de aplicaciones está cortando en partes más pequeñas qué servicios se ejecutan en un lugar de cara a experimentar con la informática sin servidor (también conocida como función-as-a-service (FAAS).

 

Beneficios de la virtualización de servidores

El servidor virtual comenzó y se reunió con la consolidación del servidor base. Se pueden combinar múltiples aplicaciones en una sola pieza de hardware, reduciendo así el número total de servidores necesarios en el centro de datos. Menos servidores, menos bastidores, menos equipo de red. Todo se traduce en ahorros de dinero, desde el espacio físico hasta los costes de mantenimiento y el aire acondicionado.

La virtualización de servidores reduce la necesidad de gastos de capital en hardware nuevo, lo que le permite desconectarse de la actualización de hardware.

Con la virtualización de servidores los avances en la automatización le permiten girar una máquina virtual en cuestión de segundos y mover varias cargas de trabajo en el toque de un botón en respuesta a las cambiantes necesidades del negocio.

La virtualización de servidores también ofrece la alta disponibilidad, velocidad, escalabilidad, agilidad, rendimiento y flexibilidad que requieren las empresas altamente conectadas basadas en la web de hoy en día.

Y la virtualización de servidores es la tecnología subyacente que permite a los proveedores de computación en la nube ofrecer sus servicios. Cuando un cliente solicita una infraestructura-as-a-Service (IaaS) de un proveedor de servicio en la nube, Comienzan con máquinas virtuales y después añadir sobre las características de almacenamiento, gestión y seguridad asociados necesarios para llevar a cabo la tarea en cuestión.

 

Los diferentes tipos de virtualización de servidores

Con la virtualización estándar basada en hipervisor, el hipervisor o monitor de máquina virtual (VMM) se ubica entre el sistema operativo host y la capa de hardware subyacente, proporcionando los recursos necesarios para los sistemas operativos invitados.

La virtualización de para y la virtualización completa modifican el sistema operativo invitado antes de la instalación en la máquina virtual. Esto mejora el rendimiento ya que el sistema operativo huésped modificado se comunica directamente con el hipervisor, lo que elimina la sobrecarga de la emulación.
También se intenta la virtualización asistida por hardware para reducir la sobrecarga del hipervisor, pero lo hace a través de extensiones de hardware, en lugar de modificaciones de software.

Con la virtualización a nivel kernel, en lugar de usar un hipervisor, ejecuta una versión separada del kernel de Linux. Esto hace que sea fácil de ejecutar múltiples máquinas virtuales en un único host, con un controlador de dispositivo utilizado para la comunicación entre el principal núcleo de Linuxy las máquinas virtuales. Finalmente, con la virtualización del sistema operativo, puede ejecutar entornos múltiples pero lógicamente distintos en una única instancia del kernel del sistema. Con la virtualización a nivel de sistema, todas las máquinas virtuales deben compartir la misma copia del sistema operativo, mientras que la virtualización de servidores permite que diferentes máquinas virtuales tengan diferentes sistemas operativos.

 

Neal Weinberg

Broadcom finaliza la compra de CA Technologies

Broadcom anunció un acuerdo con la compañía de software CA Technologies para adquirirla por la suma de 19,000 millones de dólares con el objetivo, tal y como informan en un comunicado, de “construir una de las compañías de tecnología de infraestructura líderes en el mundo”.

El presidente de Broadcom, Hock Tan, señaló la importancia de esta transacción mediante la cual pasan a ser una de las “principales empresas de tecnología de infraestructura del mundo”.

“CA se encuentra en una posición única del mercado de software de infraestructura. Sus franquicias de software de mainframe y corporativas se agregarán a nuestra cartera de negocios de tecnología de misión crítica”, aclaró Tan.

Además, el ejecutivo añadió que: “Tenemos la intención de continuar fortaleciendo estas franquicias para satisfacer la creciente demanda de soluciones de software de infraestructura”.

Por parte de CA, su CEO Mike Gregoire se mostró “entusiasmado” y destacó la importancia de unir una importante empresa de software como CA con una experta en la industria de semiconductores como es Broadcom. “Los beneficios de este acuerdo se extienden a nuestros accionistas que recibirán una prima significativa e inmediata por sus acciones, así como a nuestros empleados que se unirán a una organización que comparte nuestra valores de innovación, colaboración y excelencia en ingeniería. Esperamos completar la transacción y garantizar una transición sin problemas”.

El acuerdo, que ha sido aprobado por los consejos de administración de ambas compañías, establece que los accionistas de CA recibirán 44,50 dólares por acción en efectivo.

Esto representa una prima de aproximadamente 20% al precio de cierre de las acciones ordinarias de CA el 11 de julio de 2018, último día de negociación anterior al anuncio de la transacción, y una prima de aproximadamente 23% al precio promedio ponderado por volumen de CA (“VWAP”). ) durante los últimos 30 días de negociación.

La transacción en efectivo representa un valor patrimonial de aproximadamente 18.9 mil millones de dólares, y un valor de empresa de aproximadamente 18.400 millones.

En marzo fue noticia el intento de Broadcom de comprar Qualcomm, sin embargo este finalmente se vio truncado por el bloqueo de Donald Trump alegando motivos de seguridad nacional.

Para el analista de IDG Research, Fernando Maldonado, este movimiento ha sido una “sorpresa”. “Primero significa que entrar en nuevo mercado y segundo porque, después de la fallida adquisición de Qualcomm, representa un giro de 180º en su estrategia de buscar una mayor consolidación del mercado de semiconductores”.

Según Maldonado, CA software es una empresa que goza de una buena estabilidad financiera: casi la mitad de sus ingresos proceden del negocio en torno a la infraestructura mainframe de sus clientes, algo que le aporta un buen flujo de caja pero no crecimiento.

 

Cristina Cueto García