Categoría: Infraestructura

Qué esperar de SD-WAN para 2019

En los círculos de red, puede que no haya un tema más candente en este momento que la WAN definida por software o SD-WAN. Dado que la tecnología WAN se ha mantenido igual durante la mayor parte de las tres décadas, esto tiene sentido, ya que la mayoría de las empresas tienen una WAN que está obsoleta para una actualización de la arquitectura —y las SD-WAN hacen que esto pase—.

Las SD-WAN se están moviendo definitivamente de la fase de adopción temprana a la adopción general. Y cada vez que una tecnología hace esto, el mercado cambia. A continuación se muestran las principales formas en que las SD-WAN cambiarán en 2019.

 

Menos enfoque en el ahorro de costos

La ola inicial de SD-WAN se vendió con la promesa de reducir los costos de red al reemplazar MPLS con banda ancha. Si una empresa está dispuesta a deshacerse de todo su MPLS, y ese es un gran si, y reemplazarlo por completo con banda ancha, ahorrará dinero en el transporte. Sin embargo, es probable que tenga que agregar algunas tecnologías de optimización para tener en cuenta la imprevisibilidad de la banda ancha.

Además, la mayoría de las empresas utilizan redes híbridas en las que agregan banda ancha a lo que ya están haciendo, por lo que no hay ahorros de costos en este escenario. Las empresas nunca deben hacer un proyecto de TI con el único objetivo de ahorrar dinero, ya que hay otras formas de lograrlo. Los proveedores se han dado cuenta y no están presionando por esta vía, lo que es bueno porque SD-WAN es mucho más que ahorrar algo de dinero en costos de red.

 

Más enfoque en la seguridad

Cuando una empresa migra a una SD-WAN debe cambiar la arquitectura de la red. Al alejarse del concentrador y la radio, y habilitar el acceso local a Internet, los usuarios pueden acceder a los servicios en la nube directamente desde la sucursal. Esto tiene un profundo impacto en la ciberseguridad porque el número de puntos de ingreso y egreso va de uno a cientos o incluso miles, dependiendo del número de sucursales.

La seguridad ya no se puede considerar como algo que se hace después de la implementación de una SD-WAN. En su lugar, necesita ser integrado en la arquitectura. Se verá un aumento en las opciones de implementación, que incluyen seguridad en la nube, dispositivos virtuales y servicios en contenedores.

 

Más servicios gestionados de SD-WAN

Las WAN heredadas son altamente ineficientes pero simples. Las SD-WAN son ágiles, eficientes y ofrecen un mejor rendimiento de las aplicaciones, pero pueden ser complejas. Los profesionales de la red deben tomar varias decisiones que nunca antes tuvieron que tomar, como dónde realizar la ruptura local de Internet, el nivel de malla, los criterios de selección de ruta, cómo conectarse a la nube y qué tipo de seguridad implementar.

A la complejidad hay que sumar que no existe un proveedor de banda ancha global ni nacional, por lo que las grandes empresas se enfrentan a la gestión de docenas de contratos. Teniendo todo esto en cuenta, es probable que muchas empresas renuncien al modelo ‘do-it-yourself’ y aprovechen un proveedor de servicios administrados SD-WAN.

El mercado se llena de gente

El cambio a la seguridad y a los servicios administrados creará una ola de nuevos proveedores. Actualmente hay 20 proveedores en el Cuadrante Mágico de WAN edge de Gartner que ofrecen SD-WAN. En los últimos años, muchos de los proveedores y empresas de telecomunicaciones de UCaaS han agregado SD-WAN a sus portafolios, y han agregado 20 más al grupo. En 2019 deberíamos esperar que más proveedores de servicios gestionados y proveedores de seguridad de vanguardia se introduzcan en este mercado, dando a las empresas más de 50 posibilidades. A los compradores que les guste elegir no les faltarán opciones.

 

La consolidación del mercado se acelera

En los últimos años, ha habido una serie de adquisiciones a medida que los proveedores de tecnología más grandes buscan saltar rápidamente a las SD-WAN. La gran cantidad de opciones disponibles para las empresas es una buena noticia para los compradores, pero en última instancia es mala para el mercado porque hay mucha más oferta que demanda. ¿Significa eso que si estás haciendo una compra SD-WAN deberías evitar a los jugadores más pequeños porque podrían estar en problemas financieros? De ningún modo. El escenario más probable es que muchos de los proveedores más pequeños sean adquiridos, por lo que la tecnología no desaparecerá, solo cambiará de manos su propiedad.

 

Zeus Kerravala, NetworkWorld.

Las 3 principales predicciones sobre Mainframes para 2019

BMC informó que en 2019 las empresas modernizarán tanto la tecnología de sus mainframes como su fuerza laboral para satisfacer las demandas de esta era impulsada por los datos. Esto significa que las organizaciones darán prioridad a la modernización de aplicaciones y abarcarán operaciones de IA y machine learning para empoderar a su cambiante fuerza laboral.

El machine learning, los analíticos y la automatización inteligente pavimentarán el camino para que más organizaciones desarrollen sus ambientes de auto gestión de mainframe que puedan predecir y resolver problemas sin intervención manual. Finalmente, la modernización de mainframes también sucederá en la fuerza laboral conforme se retira una generación de expertos en mainframe veremos una continuidad de la tendencia en la que más millennials son contratados para operar avanzadas tecnologías de mainframe ayudados por la experiencia en el dominio incorporado y la automatización que necesitan para tener éxito.

 

Mainframe y DevOps: cuando dos mundos chocan

No hay nada como un ambiente aislado de TI, especialmente en grandes empresas. Mucho de lo que se habla acerca de DevOps se ha centrado en aplicaciones basadas en la nube, pero la realidad es que las aplicaciones modernas son comúnmente construidas en una arquitectura de aplicaciones multi-niveles que abarca desde dispositivos móviles a la nube, a middleware, transacciones de backend y servidores de datos.

En este ambiente el mainframe es el procesador backend más poderoso, seguro y confiable y debe permitir a los equipos de aplicaciones trabajar en un proceso de desarrollo multicapas. Esto requiere herramientas para análisis de impacto, revisión de códigos y gestión de código, así como hacer cambios a la base de datos subyacente de forma rápida y segura.

“En 2019 las organizaciones trabajarán para capitalizarse completamente en la agilidad y velocidad que DevOps pueda ofrecer, y con la estrategia adecuada los mainframes pueden hacer una parte integral del proceso de DevOps. Las grandes organizaciones no podrán capitalizar completamente en este nuevo modelo de desarrollo sin conectar sus plataformas más vitales”, señaló Bill Miller, presidente de, ZSolutions, BMC Software.

Los Mainframes ganarán sobre la C-Suite

La digitalización y movilidad colocan una presión increíble tanto en TI como en los mainframes para gestionar un mayor volumen, variedad y velocidad de transacciones y datos. Afortunadamente, la longevidad del mainframe se debe en parte a su habilidad para reinventarse a sí mismo contantemente para facilitar la cambiante dinámica de los negocios modernos, manteniendo una disponibilidad casi constante y procesar eficientemente billones de transacciones críticas – demostrando que es una plataforma actual viable de largo plazo. Conforme continúa sirviendo como la columna vertebral de los ambientes digitales, 2019 será el año en que los ejecutivos expertos de ITOM realmente reconozcan el poder y valor que sus mainframes llevan a sus negocios.

 

Centros de Datos Edge: un eslabón de las Ciudades Inteligentes

Los Centros de Datos Edge, conocidos también como de “cercanía”, son la opción más eficiente para contar con una fuente próxima de interconexión a donde se genera y se procesa la información, favoreciendo el intercambio de datos de manera más efectiva, rápida e ininterrumpida.

Estos Centros se han convertido en un elemento central en el desarrollo del Internet de las Cosas (IoT), de las ciudades inteligentes; facilitan el consumo de información en diferentes dispositivos que se conectan a la red y permiten a los usuarios  contar con información y datos descargados a una mayor velocidad. Un ejemplo es la facilidad que tienen ahora los usuarios para transmitir video en alta definición 4K con latencias mínimas desde dispositivos móviles.

Fortalecer los ecosistemas digitales implica poner las bases y plataformas para que una ciudad pueda brindar a sus ciudadanos tanto servicios como trámites digitales, infraestructura de interconexión de dispositivos; aplicaciones como semáforos inteligentes, sistemas de videovigilancia proactivos a través de sensores, sistemas de eficiencia de ahorro energético y racionalización de recursos,  entre otros.

Hablamos también del acceso a servicios médicos digitales como la telemedicina, facilitando obtener citas o consultas con diferentes especialistas sin necesidad de los pacientes de trasladarse para diagnósticos preliminares.

Vale la pena destacar la oportunidad que representan los Centros de Datos Edge  para aprovechar el Internet de las Cosas (IoT). Al dotar a todo dispositivo con un sensor integrado, se vuelve un potencial procesador de datos, ya no sólo un recolector. Esto permite que los análisis necesarios por los usuarios se vuelvan mucho más eficientes.

Un ejemplo de cómo el IoT y los Data Centers Edge se complementan pueden ser los relojes inteligentes, los cuales miden signos vitales de los usuarios, en tiempo real, por lo que pueden detectar cualquier patrón anómalo, como pudiera ser una arritmia. La información no tiene que cruzar el país para poder ser procesada, sino que se procesa de forma semilocal, más próximo al usuario, lo que abre la oportunidad de alertar oportunamente al involucrado para poder obtener la atención adecuada.

Al unir la velocidad de procesamiento y la cercanía, hay también un entorno favorecedor para el desarrollo de soluciones basados en la Inteligencia Artificial (IA), al poder analizar y procesar gran cantidad de datos.

Un ejemplo de cómo operan en conjunto la IA, el Internet de las Cosas y un Centro de Datos Edge es en los automóviles autoconducidos, los cuales requieren de información en fracciones de segundo para determinar si frenar o no ante un obstáculo imprevisto: desde una rama de árbol hasta un peatón que cruza, tomando en cuenta el número vehículos y personas en la calle, la velocidad y distancia de éstas. Cada fracción de segundo tiene un valor inestimable.

Es por ello que cada vez habrá mayor interés por desarrollar un ecosistema híbrido desplegando Data Centers Edge conectados a los Data Centers Core, una combinación que se vuelve lo mejor de los dos mundos: los primeros donde se generan las transacciones locales requiriendo baja latencia como tiempos de respuesta ágiles; los segundos, para albergar las plataformas que no requieren de la misma velocidad ni latencia.

Así, las ciudades tendrán la oportunidad de analizar y consolidar grandes volúmenes de información para transformarla en servicios más innovadores que se traducirán en una mejor calidad de vida para todos los usuarios.

Por: Santiago Suinaga, Managing Director de KIO Data Center Business.

HPE InfoSight ofrece Inteligencia Artificial en servidores

Hewlett Packard Enterprise (HPE) anunció la ampliación de HPE InfoSight -su herramienta de gestión basada en inteligencia artificial (IA)- a los servidores HPE ProLiant, HPE Synergy y a los sistemas HPE Apollo. Con las capacidades de análisis predictivo y aprendizaje basadas en datos operativos InfoSight ofrece reducción de costos de gestión, evita pérdidas de rendimiento disruptivas.

Las empresas actuales se mueven a un ritmo vertiginoso donde el acceso a los datos en tiempo real se ha convertido cada vez más en una necesidad crítica para la continuidad del negocio. Por ello, las organizaciones de TI no pueden permitirse el lujo de perder tiempo y recursos en problemas que podrían haberse evitado, especialmente aquellos que afectan a la productividad y a los resultados finales.

HPE InfoSight supervisa constantemente la infraestructura TI, identificando problemas potenciales y proporcionando la información necesaria para resolverlos.

HPE InfoSight adquiere la inteligencia operativa mediante el análisis de millones de sensores de su base instalada que está conectada globalmente y, utilizando los datos de comportamiento, proporciona información sobre tendencias, previsiones y recomendaciones para predecir y prevenir problemas. El resultado es una mayor eficiencia y fiabilidad, creando una infraestructura más inteligente y fácil de gestionar para los clientes.

Los clientes de almacenamiento HPE disfrutan ya de los beneficios de HPE InfoSight, donde sus costos operativos se reducen significativamente, además de que el tiempo de resolución es hasta un 85% menor y el 86% de los problemas se han pronosticado y resuelto automáticamente, incluso antes de que fueran identificados.

La ampliación de las capacidades InfoSight a los servidores proporciona un marco de trabajo impulsado por la Inteligencia Artificial que permite monitorizar, recopilar y analizar datos de toda la infraestructura, independientemente de su localización.

HPE ofrece un conjunto básico de funciones que irán aumentando a lo largo del tiempo:

 

Visibilidad global de la infraestructura del servidor: En un panel de control inteligente, los clientes obtienen una visión consolidada del estado de su infraestructura, incluyendo información sobre el sistema, garantía de los servidores y los derechos que tiene de soporte. HPE InfoSight combina sus capacidades de Inteligencia Artificial con la tecnología Active Health System (AHS) y HPE Integrated Lights Out (iLO), que permiten monitorizar proactivamente el estado y gestión de los servidores, optimizando el rendimiento global de los mismos y evitando problemas críticos.

 

Análisis predictivo: Al incorporar el análisis predictivo a la monitorización de los servidores, InfoSight puede reportar información sobre incidencias que permiten a los responsables de TI realizar las solicitudes de mantenimiento necesarias para reducir el tiempo de inactividad. Además, las capacidades de análisis predictivo alertan a los administradores sobre problemas de seguridad, tales como intentos de inicio de sesión fraudulentos, protegiendo así a los servidores frente a posibles amenazas.

 

Motor de recomendación: Utilizando los conocimientos obtenidos a partir de la analítica predictiva, InfoSight proporciona recomendaciones basadas en patrones o signos de anormalidad para eliminar los cuellos de botella en el rendimiento de los servidores.

HPE Infosight ofrece una mejor experiencia de gestión de la infraestructura del cliente y, combinado con HPE OneView, puede simplificar también la experiencia en sus centros de datos.

HPE OneView facilita la gestión del ciclo de vida de los sistemas y la implementación de infraestructura definida por software que permite a los clientes implementar soluciones más rápidamente, simplificar las operaciones del ciclo de vida y aumentar la productividad.

HPE InfoSight estará disponible para servidores HPE ProLiant, HPE Synergy y sistemas HPE Apollo en enero de 2019.

Microsoft dejará de usar el servicio de contenedores de Azure en 2020

Microsoft anunció que el apoyo para el Servicio de contenedores Azure terminará el 31 de enero de 2020. A partir de esa fecha, la compañía bloqueará todas las API relacionadas con el ACS. Los usuarios ya no pueden crear nuevos clústeres y los clústeres existentes tampoco pueden actualizarse o ampliarse. Sin embargo, se pueden eliminar clústeres existentes.

El servicio de contenedores de Azure existe desde 2015. Microsoft decidió complementarlo en el otoño de 2017 con un servicio de Kubernetes llamado AKS. En ese momento, los empleados de la compañía enfatizaron que continuaría ofreciendo ACS, pero en marzo de 2018 ya parecía que el ACS se detendría en algún momento en el futuro.

El consejo de Microsoft para los usuarios de ACS existentes es que migren a AKS o al proyecto de código abierto de ask-engine, siempre que utilicen Kubernetes.

Si los desarrolladores usan ACS con Docker, Microsoft recomienda que usen la Edición Básica o Estándar / Avanzada de Enterprise Edition para Azure. Se recomienda a los usuarios de ACS con DC / OS que cambien a la solución Mesosphere DC / OS Enterprise o Mesosphere DC / OS Open Source.

La semana pasada, Microsoft lanzó una vista previa pública de los nodos virtuales AKS. Incorporan la capacidad informática basada en contenedor de las instanciasor de Azure y la API de Kubernetes en AKS. La combinación hace posible que los desarrolladores, según Microsoft, traigan los beneficios de la computación sin servidor a la API de Kubernetes.

 

IDG.es

BMC agrega inteligencia automatizada al Mainframe

BMC anunció el portafolio BMC AMI de soluciones de inteligencia de mainframe que proporcionarán entornos de Mainframe autogestionados para atender las crecientes demandas  que genera el crecimiento de los negocios digitales.

Estas soluciones combinan conocimiento de dominio integrado, machine learning, automatización inteligente y análisis predictivo para ayudar a las empresas a de manera automática a gestionar, diagnosticar, solucionar, proteger y optimizar los procesos de Mainframe.

De acuerdo con  Gartner, en 2020, el 30% de los data centers que no utilizen inteligencia artificial y machine learning para apoyar a las empresas se convertiran operacional y económicamente inviables.

Las soluciones BMC AMI ofrecen mejorar los sistemas de Mainframe a través de una automatización inteligente al prevenir las fallas antes de que ocurran, solucionando  las degradaciones del rendimiento y evitando el aumento de costos.

Con BMC AMI, los clientes podrán integrar métricas  de z/OS a partir de una variedad de fuentes de datos del sector, conocimientos de dominio de clase mundial integrados y análisis multivariados. Las nuevas ofertas incluyen:

 

Soluciones autónomas de BMC AMI:  Permiten que las operaciones de TI automáticamente anticipen y reparen las degradaciones de desempeño y fallas antes de que ocurran, sin intervención manual. Este conjunto de soluciones integradas e inteligentes se extiende a los productos BMC AMI for Security Management, BMC AMI for DevOps, BMC AMI for Performance and Availability Capacity Management.

 

Conectores Enterprise de BMC AMI: Conectan los datos comerciales importantes del Mainframe con toda la empresa, y simplifican la administración de aplicaciones de negocios. Estos conectores ofrecen una visión realmente holística de los datos de la empresa al transmitir métricas del Mainframe e información relacionada en tiempo real a diferentes receptores de datos, incluidas las soluciones SIEM (Security Information and Event Management) tales como Splunk, IBM QRadar, ArcSight, LogRhythm, McAfee Enterprise Security Manager, entre otras. La solución BMC AMI Data Extractor for IMS ya está disponible; soluciones adicionales estarán disponibles al inicio de 2019.

Aruba Presenta Access Points habilitados con IA para Edge

Aruba anunció una nueva familia de Access Points 802.11ax (Wi-Fi 6) diseñados para IoT y switches de acceso complementarios, junto con mejoras seguridad, manejo inteligente de energía, y automatización habilitada por Inteligencia Artificial (IA) para entornos de Edge y garantías de servicio, para ofrecer mayor rendimiento, simplicidad y fiabilidad que las organizaciones necesitan para brindar a los usuarios una óptima experiencia digital.

Los nuevos Access Points son compatibles con el más reciente estándar de Wi-Fi y son los primeros de la marca en tener la certificación de la Wi-Fi Alliance (WFA) para los nuevos estándares de seguridad para el nuevo WPA3 y los estándares de seguridad mejorados para proporcionar una encriptación más sólida y una configuración más simple  de IoT. Además, también integra Bluetooth 5 con sus APs combinado con una radio Zigbee integrada. Estas nuevas capacidades hacen posible el uso del IoT en varios casos, tales como cerrojos de puertas inteligentes y etiquetas electrónicas en los estantes, mientras que el Bluetooth permite al usuario aprovechar la ubicación de interiores dejando que las TI generen experiencias personalizadas.

 

Habilitando la Experiencia de Borde

Esto permitirá tener una ventaja competitiva, involucrando las experiencias de los consumidores y la mejoría en la productividad de los empleados. De acuerdo con Gartner, las empresas preparándose para el futuro del trabajo deben ofrecer experiencias atractivas, experiencias de consumidor y proveer tecnologías que permitan, en vez de obstaculizar, una ejecución optimizada del trabajo.

El borde de la red es lo que conecta a la gente con este mundo digital. Es la plataforma para construir estas experiencias digitales y debe ser segura, inteligente siempre debe estar disponible. Sin embargo, un fundamento sólido de la red no es suficiente. Para permitir estas nuevas experiencias, al área de TI debe ser capaz de brindar unos niveles de servicios mejorados y consistentes para  abordar las crecientes demandas de las empresas y las elevadas expectativas de los usuarios.

Para encarar estos retos, Aruba está introduciendo los siguientes nuevos productos:

  • La serie de APs 510 de Aruba, una nueva serie de 802.11ax, Access Points listos para IoT, con seguridad avanzada, optimización RF habilitada por IA, monitoreo inteligente de energía, y Zigbee integrado y radios Bluetooth 5.
  • Los Switches de acceso 2930M de Aruba, con soporte para el estándar de 802.3bt para proveer mayor energía PoE (hasta 60 watts por puerto), un requerimiento para algunos Access Points 802.11ax de alta gama.
  • Soporte de la alianza Wi-Fi Alliance WPA3 y Estándares de Seguridad Enhanced Open para brindar seguridad de vanguardia a los dispositivos. Aruba es el primer proveedor en la industria en recibir una certificación por la WFA para estos nuevos estándares.
  • Green AP, una nueva y única característica de NetInsight, los analytics habilitados por IA y soluciones de seguridad de Aruba, que apagan dinámicamente los APs cuando los dispositivos de los usuarios no están presentes, compensando los elevados requerimientos energéticos asociados con Access Points 11ax seleccionados.

Las nuevas Series Aps 510 trabajan en sincronización con Aruba NetInsight para monitorear activamente y diagnosticar la red, generar objetivos accionables y recomendaciones basadas en comparaciones entre pares y benchmarks, y aplicar las recomendaciones a la red autónomamente.

 

10 predicciones para 2019 entorno al Centro de Datos y Cloud

El año está por concluir, y esto lleva a una inevitable tradición de mirar hacia atrás en el año y también hacia lo que vendrá. En esta ocasión estamos reduciendo el enfoque al centro de datos y la nube, ya que la verdadera batalla en estos días es encontrar un equilibrio entre cloud y las implementaciones locales.

Gran parte de lo que se está prediciendo en este artículo, desarrollado por expertos de IDG, ha sido insinuado en investigaciones o en las tendencias emergentes. Y ahora, aquí dejo diez predicciones para los centros de datos y la nube.

1. El ‘edge computing’ madura, pero necesita un modelo de negocio

Esto no es difícil de entender. A todo el mundo le gusta la idea de la computación en el extremo. Los operadores del centro de datos lo ven como una oportunidad para aligerar la carga en los servidores centrales, y las empresas lo consideran como una oportunidad de tener un tiempo de respuesta inferior a 10 milisegundos. Proveedores como Schneider Electric están presentando diferentes modelos para localización en estaciones base, y el 5G está comenzando su lanzamiento nacional.

El problema es quién paga por ello. Eso aún no se ha resuelto. ¿Recaerá en los proveedores de telefonía móvil o en los fabricantes de coches que quieren vehículos conectados? Esta industria tiene un largo historial de inventarse tecnologías y pensar en el modelo de negocio más adelante, y el ‘edge computing’ es una idea costosa en busca de un propietario. Esto necesita ser resuelto en 2019.

2. La refrigeración por agua se expande

Cuando Google lanzó la versión 3.0 de su chip Tensor Processing Unit AI, también reveló que había cambiado a refrigeración por agua porque el aire ya no era suficiente. Dado que las CPU superan los 200 vatios y las GPU alcanzan los 300 vatios, el enfriamiento por aire simplemente ya no sirve. El agua es miles de veces más eficiente en la eliminación de calor que el aire y más compañías están superando sus temores de que haya una fuga de refrigerante. Además de que, en algunos casos, no tienen otra opción. La demanda de más potencia de procesamiento está impulsando el cambio a la refrigeración líquida.

 

3. Más IA para cubrir el error humano

Los centros de datos tienen miles y miles de partes móviles: los servidores individuales, el sistema de refrigeración, el sistema de energía y la red para conectarlo todo. Hasta ahora, esto se configuraba manualmente y una vez en su sitio, se dejaba solo. Pero hay una nueva clase de inteligencia artificial, como lo demuestra la startup Concertio, que pone a la IA a cargo de optimizar el equipo a través del monitoreo y ajuste continuo. Se han visto otros casos en los que la inteligencia artificial se usaba como un monitor constante e incansable para ajustar los sistemas. Se verán más esfuerzos de este tipo en el futuro.

 

4. El crecimiento del centro de datos continúa

El centro de datos no está muriendo, vamos a aclarar eso. Hay más demandas de cómputo que nunca, especialmente con el advenimiento de la IA, y la nube ha demostrado tener sus costosas desventajas. Lo que significa, sin embargo, es que el centro de datos está siendo reutilizado. Algunas cargas de trabajo van a los proveedores de la nube pública, mientras que otras se asignan al centro de datos. Esto incluye cualquier cosa con conjuntos de datos masivos, como BI, análisis e IA/ML, porque moverlo a la nube es costoso. El centro de datos está cambiando, volviéndose más versátil y más poderoso.

5. Las cargas de trabajo pasan de los ‘endpoints’ a los centros de datos

Los datos en sí mismos no tienen valor a menos que se gestionen y procesen, y un teléfono inteligente realmente no es el dispositivo para eso. Los teléfonos inteligentes, las tabletas y los PC son recolectores de datos pesados pero no son adecuados para análisis u otro tipo de IA, por lo que los datos se envían a la nube para su procesamiento. Lo mismo se aplica al Internet de las cosas (IoT). Tu modelo de automóvil de 2019 no procesará los datos; se enviará a un centro de datos para su procesamiento.

6. Los microservicios y la informática sin servidores despegan

La virtualización está bien, pero requiere de muchos recursos. Necesita de una instancia completa del sistema operativo, y eso puede limitar el número de máquinas virtuales en un servidor, incluso con una gran cantidad de memoria. La solución es contenedores/microservicios y, en el extremo, la computación sin servidores. Un contenedor tiene apenas 10 MB de tamaño, en comparación con los pocos GB de memoria de una máquina virtual completa, y sin servidores, donde ejecuta una aplicación de una sola función, es aún más pequeño.

A medida que las aplicaciones pasan de ser monolíticas a pequeñas, las piezas modulares, los contenedores y el modelo sin servidores serán más atractivos, tanto en la nube como en las instalaciones. La clave para el éxito de los contenedores y la informática sin servidores es que las tecnologías se han creado teniendo en cuenta la nube y los sistemas locales y la fácil migración entre los dos, lo que ayudará a su atractivo.

7. AWS y Google se centran en la nube híbrida

Amazon Web Services (AWS) y Google entraron en el mercado de la nube sin tecnología heredada y con un argumento de venta de paso total a la nube. Microsoft e IBM, por otro lado, tenían una enorme base de software heredado y lanzaron una nube híbrida, logrando un equilibrio entre la nube y los sistemas locales. Esto ha permitido a Microsoft posicionarse rápidamente en la posición número dos en el mercado de la nube y también le ha dado a IBM un impulso considerable. Y ahora AWS y Google se están preparando. AWS ha introducido una serie de nuevas ofertas locales, mientras que Google también está reforzando sus servicios locales y ha contratado al exjefe de la nube de Oracle, Thomas Kurian, quien tenía entre manos una propuesta híbrida en Oracle que lo había puesto en conflicto con Larry Ellison.

8. El ‘bare metal’ sigue creciendo

‘Bare metal’ significa que no hay software. Alquilas CPUs, capacidad de memoria y almacenamiento. Después de eso, proporcionas tu propia pila de software —todo lo necesario —. Hasta el momento, IBM ha sido el mayor defensor del alojamiento de código abierto seguido de Oracle, y con buena razón. ‘Bare metal’ es ideal para lo que se denomina ‘lift and shift’, donde llevas a tu entorno informático desde el centro de datos a un proveedor en la nube sin cambios. Simplemente colocas el sistema operativo, las aplicaciones y los datos en el centro de datos de otra persona.

Y dado que IBM y Oracle son dos importantes proveedores de software para empresas, es natural que quieran que los clientes sigan usando su software pero lo ejecuten en sus centros de datos en lugar de cambiar a un proveedor de SaaS. Sin embargo, AWS se está metiendo en la escena, al igual que los principales proveedores de alojamiento y de nube, como Internap, Equinix y Rackspace. Es atractivo tanto para las empresas como para las pymes y por el mismo motivo: para que no tengan que alojar el hardware.

 

9. Es un año de ajuste de cuentas para Oracle

Oracle necesita tomar algunas decisiones difíciles este año, y rápido. Su negocio en la nube está fallando y no está al día con los cuatro grandes (AWS, Microsoft, Google, IBM). Su licencia es todavía demasiado complicada. Ha intentado hacerse cargo de un proyecto masivo del Departamento de Defensa llamado Jedi de AWS y se perdió porque no tenía el alcance de AWS. Ha estado bastante tranquilo con respecto a su negocio de hardware, y ahora ha perdido a su líder empresarial en la nube. Oracle no ha dado el salto a la nube con tanto estilo como Microsoft, y si lo va a hacer, tiene que ser ahora.

 

10. Los proveedores de la nube luchan por los escritorios

Microsoft no es el único proveedor que considera el escritorio como un medio para conectarse a la nube; todos los principales proveedores de la nube están interesados en el mercado de escritorios virtuales. Y con Windows 7 llegando al final de su vida útil en enero de 2020, eso significa que 2019 será un año de transición. La pregunta es: ¿la gente se limitará a pasar a Windows 10 y, por lo tanto, consolidará el control de Microsoft, o abrazarán propuestas como AWS WorkSpaces o Google Chromebooks?

 

Por: Andy Patrizio, Networkworld. 

 

Dígale adiós al centro de datos tradicional: Gartner

En el panorama actual de transformación digital, el área TI de las empresas cobra especial importancia. El responsable de su gestión está viendo evolucionar su rol, integrándose en mayor medida en el equipo directivo de las empresas. Como parte esencial de su trabajo está el mantenerse al día de las innovaciones tecnológicas, una tarea para la que es indispensable el papel de analistas y especialistas. Precisamente Gartner acaba de presentar las diez tendencias que impactarán en el segmento de infraestructura y operaciones en 2019.

Inteligencia Artificial y ‘Edge’

Algunas de estas herramientas son ya viejas conocidas de listados similares: es el caso de la inteligencia artificial y el edge computing, que la consultora distinguía también como dos de las tecnologías a tener en cuenta para el próximo año. En el caso de la IA, se está revelando como una vía importante a través de la cual transformar la organización, y es esencial en los nuevos modelos de negocio. La computación en el extremo incrementa su peso a medida que va ganando protagonismo el IoT y tecnologías similares, que favorecen el procesamiento de la información en el borde de la red, más cerca de los usuarios y dispositivos que la producen y consumen.

Agilidad de red

Otro de los aspectos que hay que tener en cuenta en los próximos doce meses, desde el punto de vista de los sistemas, es la agilidad de la red, siendo como es un elemento clave en todo el desarrollo tecnológico. Los equipos deben centrar su trabajo en garantizar una buena respuesta a esta demanda, en un entorno definido por el auge de dispositivos conectados, el futuro despliegue del 5G, la migración de cargas de trabajo a la nube y la adopción de sistemas híbridos.

Computación sin servidores

En relación a estas últimas tendencias, la consultora prevé que el centro de datos tradicional dejará de existir: para 2025, el 80% de las empresas habrán movido sus procesos y virtualizado su infraestructura. Esto implica una evolución en la gestión de los sistemas y una serie de decisiones tácticas que deben comenzar ya a afrontarse. Una de las actualizaciones de la infraestructura sobre la que llama la atención es la computación sin servidores.

La etiqueta no es del todo exacta, en tanto sigue habiendo servidores, pero sí sirve para definir una arquitectura de software emergente en la cual se elimina la necesidad de administración y aprovisionamiento de infraestructuras físicas, que pasan a ser responsabilidad del proveedor del servicio. Los responsables de sistemas pasan a centrarse, en cambio, en las aplicaciones.

SaaS, en auge

Será también fundamental el papel del SaaS, en el que un proveedor externo, propietario del software, lo entrega y administra de forma remota a sus clientes. Este modelo aún está superado por los de IaaS o PaaS, pero en futuros años tendrá un gran impacto y los equipos de TI deben tener un papel activo en su comprensión y despliegue. En general, englobando todo esto, Gartner define la necesidad de que las organizaciones se mentalicen sobre la idea de capacitar una infraestructura global, algo que permea aún a las organizaciones que no tengan este carácter y a la cuál puede llegarse a través de distintas vías, como una red de socios de valor.

Nuevas funciones en el equipo de TI

En relación a temas de perfiles profesionales, la consultora constata que los cambios tecnológicos obligan a que los líderes de los departamentos de sistemas informáticos y operaciones asuman nuevas funciones, como por ejemplo en relación a presupuestos y gastos de la empresa. Además, hay una evolución en la capacitación de los trabajadores: si antes se centraban cada uno en un área tecnológica, ahora la tendencia es a la integración entre estos apartados. Aquí destaca la contratación de talento como un ingrediente crítico, que los responsables deben saber gestionar.

Por último, la gestión de la diversidad digital, entendida como el descubrimiento de activos externos al negocio y diferenciándola de la administración tradicional de recursos, se apunta como una de las necesidades para el futuro próximo en las organizaciones.

 

IDG.es

Stromasys e IBM se unen para aumentar el ciclo de vida de sistemas legacy

Stromasys anunció su alianza con IBM, que cubre a todos los países de la región, permitiéndo a las organizaciones ampliar el ciclo de vida del negocio a través de la modernización y mejora de sistemas legacy. Stromasys virtualiza el hardware clásico sin hacerle ningún cambio al software de la empresa, evitando la difícil tarea de repetir una certificación de software.

A través de este acuerdo, Stromasys, ofrecerá la solución de virtualización y emulación para sistemas clásicos “legacy” Solaris SPARC bajo el IBM Cloud, así las empresas de Latinoamerica podrán ampliar el ciclo de vida de sus sistemas clásicos “legacy”. “La solución Charon de Stromasys permite al consumidor mantener las aplicaciones anteriores funcionando, mientras aprovecha las ventajas de infraestructuras modernas y arquitecturas de la nube.

La alianza ofrece a las empresas tomar lo mejor de ambos mundos, manteniendo la seguridad y el desempeño de las aplicaciones heredadas con el mantenimiento y la velocidad de la plataforma que viene con el uso del almacenamiento moderno y los recursos informáticos.

Las soluciones de emulación y virtualización de Stromasys se presentan hoy en día como tecnologías disruptivas, permitiéndole a las compañías mitigar los riesgos por fallas de los sistemas, aumentar su productividad, disminuir hasta un 90% los costos de energía y hasta 85% el espacio requerido para albergar sus sistemas heredados. En la mayoría de los casos los clientes cubren la inversión con los ahorros que se generan al no tener que mantener su hardware heredado (se puede ver una reducción en los costos anuales de mantenimiento, hasta un 90%) y las instalaciones no requieren demasiados esfuerzos para las organizaciones.

De acuerdo con reconocidos informes económicos se espera que la actividad económica de Latinoamérica siga expandiéndose en lo que queda de 2018 y en el próximo año, y esta es una oportunidad para las compañías de la región. “Las inversiones en tecnología son clave para poder aprovechar este momento de crecimiento y desarrollo, y para estar actualizado en términos de transformación digital”, comentó Robert Ruiz, Director General de Stromasys para Latinoamérica y el Caribe.