Categoría: Cloud Computing

IoT Industrial, posible blanco de ataques durante 2019

El Internet de las Cosas (IoT) es parte de la vida personal, profesional y laboral de muchas personas en el mundo y, como sucede con las grandes innovaciones tecnológicas, también ha generado problemas que están preocupando de manera sería a los responsables de TI.

En su reporte de Predicciones de Seguridad Cibernética 2019, Forcepoint incluye los resultados de una encuesta que realizó entre algunos de sus clientes, la cual revela que el 81% de ellos identificaron a las interrupciones en el IoT como un problema de seguridad importante para sus compañías. Esto demuestra la importancia que tiene para la operación de las empresas el correcto funcionamiento de sus redes y recursos tecnológicos.

De hecho, los sistemas de control industrial (ICS) en red requieren que la conectividad esté siempre disponible, sin embargo, dicha disponibilidad se convierte en el mayor blanco de los ataques, siendo los dispositivos del Internet de las Cosas los más vulnerables.

Vehículos autónomos y otros aparatos fuera de las empresas, pero conectados a ellas requieren un nivel de seguridad muy alto.

Es por eso que Forcepoint predice que los ataques en el Internet de las Cosas tienen amplias probabilidades de impactar en la industria, especialmente en las fábricas y en áreas similares, lo que convierte a esta amenaza en algo muy serio.

Durante  2019, los atacantes irrumpirán en los dispositivos del IoT Industrial (IIoT) al atacar la infraestructura de la nube subyacente. Para un atacante resulta mucho más redituable el acceso a los sistemas subyacentes en estos entornos de varios clientes.

Son tres los factores que agravan el problema: a) mayor conectividad en red con edge computing, b) la  dificultad para proteger los dispositivos en instalaciones remotas y c) la cantidad exponencial de dispositivos que se conectan a la nube para buscar actualizaciones y mantenimiento.

Los proveedores de servicios en la nube confían en la infraestructura, plataformas y aplicaciones compartidas para poder brindar servicios escalables a los sistemas del IoT. Los componentes subyacentes de la infraestructura tal vez no ofrezcan protección suficiente en una arquitectura para varios clientes o aplicaciones, lo que inevitablemente puede provocar grietas de tecnología compartida.

En el caso del IoT Industrial, los servidores de back-end se verán comprometidos causando cortes masivos en el servicio y se detendrán repentinamente los sistemas vitales. Entre ellos pueden estar la manufactura, la producción de energía y otros sectores clave que podrían verse afectados al mismo tiempo. Una verdadera calamidad.

Con Meltdown y Spectre en 2018 vimos vulnerabilidades que eluden las capas de software y firmware que exponen el hardware del procesador. En este escenario, los atacantes utilizan programas con privilegios bajos para acceder a datos críticos, como archivos privados y contraseñas.

Los atacantes centrarán su atención en el desarrollo de variantes que violen la infraestructura de la nube subyacente utilizada por los sistemas del IIoT.

Lamentablemente, la velocidad de procesamiento es crítica para el desempeño y por eso los fabricantes y los proveedores de servicios en la nube podrían seguir eligiendo la velocidad por sobre la seguridad. Esto provocaría la creación de vulnerabilidades adicionales.

Para enfrentar el problema, las empresas deberán cambiar de la visibilidad hacia el control, justo en el punto en donde convergen las redes de TI y TO. De esta manera podrán protegerse de los ataques dirigidos y deliberados al IoT Industrial.

El IoT será el área de la seguridad que presente mayores desafíos este 2019. No muchos profesionales de seguridad han tenido tiempo de enfocarse en él y esto se está convirtiendo en una tendencia. Se está volviendo más grande y puede ser muy peligroso cuando los dispositivos ya se vean vulnerados.

 

Por: Ramón Salas,

Director Regional México y Centroamérica,

Forcepoint.

México, en transición hacia la adopción de pagos electrónicos

Visa, a través de su área de consultoría estratégica, Visa Consulting & Analytics (VCA), presentó un análisis de la situación de cada municipio del país respecto a su nivel de preparación para adoptar el uso y aceptación de pagos electrónicos. El análisis titulado “Índice de madurez para la adopción de pagos electrónicos”, presenta un mapeo que agrupa a los municipios del país en cuatro niveles de desarrollo: avanzados, en transición, emergentes e incipientes.

Para realizar el análisis, el equipo de Visa Consulting & Analytics se basó en fuentes de información pública para agrupar los datos disponibles en tres dimensiones (acceso, uso y barreras de acceso y adopción) y generar un índice único. Los datos considerados incluyen información como número de tarjetas por habitante; transacciones en puntos de venta y retiros de efectivo en cajeros automáticos; número de agencias bancarias y cajeros automáticos; información poblacional y educativa, entre otros. Con base en estos datos y utilizando una metodología de estadística, los municipios se agruparon en cuatro niveles según su grado de madurez para la adopción de pagos electrónicos:

  • Avanzados: el sistema de pagos electrónicos es robusto, menos del 25% de la población se encuentra en pobreza extrema. 6% de los municipios del país se encuentran en esta categoría
  • En transición: el sistema de pagos electrónicos es avanzado, el 25% de la población se encuentra en pobreza extrema. 14% de los municipios del país se encuentran en esta categoría
  • Emergentes: el sistema de pagos electrónicos está poco desarrollado, el 35% de la población se encuentra en pobreza extrema. 58% de los municipios del país se encuentran en esta categoría
  • Incipientes: el sistema de pagos electrónicos no está desarrollado, más del 60% de la población se encuentra en pobreza extrema. 22% de los municipios del país se encuentran en esta categoría

El centro y norte del país concentra el mayor número de municipios que entran en la categoría de avanzados según su madurez para la adopción de pagos electrónicos. Entre dichos municipios se encuentran: Delegación Cuauhtémoc (CDMX), Isla Mujeres (Quintana Roo) y León (Guanajuato).

Los municipios considerados incipientes se encuentran en su mayoría hacia el sur y sureste del país con excepción de los destinos turísticos de la zona, que cuentan ya con un alto nivel de aceptación y están más preparados para incrementar el uso de pagos electrónicos.

“Además de identificar el nivel de madurez por municipio, con el desarrollo de este Índice también cuantificamos la oportunidad de llegar a comercios que aún no aceptan pagos con tarjetas, para así priorizar los esfuerzos de crecimiento de aceptación. En promedio hoy existen 1,270 comercios por municipio que pueden comenzar a recibir pagos con tarjeta, lo que representa una oportunidad para las entidades encargadas de afiliar comercios y para los propios comercios”, apuntó Julián Varela, Director Senior de Visa Consulting & Analytics para Visa México.

Los beneficios de incrementar el uso de medios electrónicos de pago alcanzan a la población en general y este índice busca mostrar las oportunidades para enfocar esfuerzos en distintas zonas del país, de acuerdo a sus características y necesidades particulares.

“El Índice de madurez para adopción de pagos electrónicos ayudará en la planificación de acciones estratégicas de Visa y de los emisores, adquirentes y comercios. Buscamos proveer a nuestros socios de información asertiva para que juntos podamos entender el contexto de cada ciudad y municipio para contribuir a aumentar la inclusión financiera y digital de la población”, finalizó Luz Adriana Ramírez, Directora General de Visa México.

52 segundos, lo que les toma a cibercriminales atacar un servidor

Sophos presentó los resultados de su informe Expuesto: Ciberataques en Cloud Honeypots, que revela cómo los ciberdelincuentes atacaron a uno de los servidores cloud honeypots analizados en tan solo 52 segundos. El mismo operaba en San Pablo, Brasil.

En promedio, los servidores en la nube se vieron afectados por 13 intentos de ataques por minuto, por honeypot.

Éstos se instalaron durante un periodo de 30 días en 10 de los centros de datos de servicios web de Amazon (AWS) más populares del mundo: California, Frankfurt, Irlanda, Londres, Mumbai, Ohio, París, San Pablo, Singapur y Sydney. Un honeypot es un sistema destinado a imitar los posibles objetivos de los ciberataques, para que los investigadores de seguridad puedan monitorear los comportamientos de los ciberdelincuentes.

En el estudio, se analizaron más de cinco millones de ataques en la red global de honeypots durante 30 días, lo que demuestra cómo los ciberdelincuentes están escaneando automáticamente en busca de brechas en nubes abiertas débiles. Si los atacantes logran ingresar, las organizaciones podrían ser vulnerables a las violaciones de datos. Los ciberdelincuentes también utilizan servidores en la nube vulnerables como puntos para obtener acceso a otros servidores o redes.

“El reporte de Sophos, Expuesto: Ciberataques en Cloud Honeypots, identifica las amenazas que enfrentan las organizaciones que migran a plataformas híbridas y a todas las nubes. La agresiva velocidad y escala de los ataques a los honeypots muestra lo persistentes que son los ciberdelincuentes e indica que están utilizando botnets para atacar las plataformas de una organización en la nube. En algunos casos, puede ser un atacante humano, pero a pesar de eso, las empresas necesitan una estrategia de seguridad para proteger lo que están poniendo en la nube”, afirmó Matthew Boddy, especialista en seguridad de Sophos.

“El problema de la visibilidad y la seguridad en las plataformas en la nube es un gran desafío empresarial que va en aumento con la creciente migración a la nube”.

Las empresas necesitan contar con una continua visibilidad de la infraestructura de la nube pública, ya que ésta es vital para que las empresas sepan qué proteger y garantizar el cumplimiento de las normas.

Microsoft SQL Server 2019 ofrece mejor manejo y aprovechamiento de datos

Redmond, Washintong- Dentro del evento Azure Data & AI Tech Immersion, dos días en las instalaciones de Microsoft en Redmond, la compañía demostró cómo Azure y sus diferentes herramientas pueden ayudar a las compañías a mejorar el manejo de datos y aprovechar de manera simplificada y efectiva los beneficios de la inteligencia artificial.

Hoy en día, los datos se han convertido en el activo más valioso de las compañías, ayudándoles a mejorar la experiencia del cliente, la entrega de productos o servicios, así como crear nuevas oportunidades de negocio. Sin embargo, aún existen muchas empresas que manejan su información en diferentes bases de datos, además, de enfrentarse a una ola de información no estructurada.

Tal vez te interese: Microsoft da un giro a la inteligencia artificial

Es por ello que entre las nuevas características que presenta Microsoft SQL Server 2019 se encuentra un nuevo enfoque en clústers de big data y virtualización para base de datos, tanto para el manejo de datos estructurados y no estructurados presentándolos de forma unificada mediante T-SQL. Pensado para que los Data Scientist puedan tener el control de sus datos bajo cualquier proyecto, desde aquellos que involucran Business Intelligence, hasta los más robustos que manejan Big Data e IA.

SQL Server 2019 crea una base unificada, desde instancias Azure SQL Data Warehouse y Cosmos, ambas de Microsoft, hasta Oracle, Mongo DB, Cassandra y Gremlin, bajo ambientes de nube pública o híbrida, combinandola sin tener que moverla de su instancia o replicándola, para tener la información lista para su análisis en Azure Data Studio. Esta información recopilada se muestra en una tabla lista para la generación de informes y su análisis en tiempo real para la pronta toma de decisiones, gracias a Power BI y SQL Server Reporting Services.

 

Además, con la inclusión de Apache Spark empaquetado con Big Data Clusters, ahora es posible usar Spark para entrenar modelos de machine learning en data lakes y usar estos modelos en SQL Server. Es capaz de almacenar un gran volumen de datos en un data lake para acceder a ella fácilmente a través de SQL o Spark. En cada proceso y transición de datos, Microsoft incorpora sus características de seguridad y cumplimiento de datos.

 

 

-Karina Rodríguez, Computerworld México.

Microsoft da un giro a la inteligencia artificial

Redmond, Washintong- Dentro del evento Azure Data & AI Tech Immersion, dos días en las instalaciones de Microsoft en Redmond, la compañía demostró cómo Azure y sus diferentes herramientas pueden ayudar a las compañías a mejorar el manejo de datos y aprovechar de manera simplificada y efectiva los beneficios de la inteligencia artificial.

“La siguiente transformación digital vendrá de mano de la Inteligencia Artificial”, aseveró Gurdeep Pall, CVP Business AI para Microsoft. Es por ello que la IA que ofrece la multinacional está pensada en cubrir tres principales objetivos: empoderar a los desarrolladores a innovar, con base en la creación de aplicaciones de modo sencillo para acelerar la entrega; a las organizaciones a transformar sus industrias, con nuevos modelos de negocio y productos; y a la gente para transformar la sociedad con herramientas que le permitan mejorar su estilo de vida.

Sin embargo, el avance de la transformación digital apoyado por la inteligencia artificial se ve frenado por tres principales obstáculos; la gran cantidad de datos no estructurados que frenan el total aprovechamiento de la IA, la falta de herramientas que mejoren habilidades y productividad, y que la tecnología muchas veces no está lista para que las empresas la usen en formato plug and play.

“La visión de IA de Microsoft se centra en cómo darle un nuevo giro a las empresas, mejorando las labores humanas, evitando labores repetitivas y enfocando su potencial a tareas que dediquen de mayor valor cognitivo”, comentó por su parte Eric Boyd, CVP AI Platform de Microsoft. Es por ello que Microsoft se está enfocando a crear herramientas que ayuden a desarrolladores a crear data más comprensible, plataformas que impulsen la productividad  y creen la confianza en las compañías.

 

Machine Teaching, el gran diferenciador dentro de IA

La oferta basada en IA está creciendo constantemente en las empresas, sin embargo, muchas de ella no está siendo aprovechada a todo su potencial, es por ello que Microsoft tuvo que cambiar su visión de Machine Learning a lo que denominaron Machine Teachining que, según Gurdeep Pall, será el gran diferenciador de las aplicaciones de inteligencia artificial.

En concreto, el Machine Teaching se diferencia en que, en vez de que un sistema IA aprenda por sí mismo, sea un experto el que se encargue de cargar ese conocimiento a la máquina, enseñándole lo que exactamente quiere que la máquina sepa para poder ser aplicado en necesidades específicas del negocio. Esto permitirá que los expertos en cualquier campo puedan crear equipos y aplicaciones con IA incluso sin tener conocimientos específicos en IA.

“Machine teaching es sobre cómo extraer expertise, por supuesto, de un experto en cierto tema, y transformar eso en datos para una máquina. La idea aquí es entrenar a la inteligencia artificial para adquirir una skill y poderla enseñar. El hecho de que una máquina sea la que enseña, será clave para habilitar nuevos negocios y ser un diferenciador del mercado” aseveró Gurdeep Pall.

Gurdeep Pall, corporate vice president, Microsoft Business AI, dentro del Microsoft Data + AI Tech Immersion Workshop en sus instalaciones de Redmond, Washington. (Photos por Dan DeLong de Microsoft)

Se trata de un proceso donde se crea un conocimiento basado en un experto, se reusa y comparte bajo modelos y códigos,  para que machine teaching puede planificar de manera independiente algoritmos de machine learining.

Se trata de un lenguaje de Machine Teaching que Microsoft ha desarrollado para entrenar un sistema de IA, así las máquinas sean capaces de desarrollar tareas más complejas, supervisadas y personalizadas por los expertos. Al implementar esta nueva fase de la IA, las compañías ahorrarán no sólo costos, sino tiempo de implementación. Esta herramienta aún se encuentra en fase de pruebas.

 

-Karina Rodríguez, Computerworld México.

¿Qué acciones pueden conectar a México?

La importante inversión que el sector de telecomunicaciones gestionará en México durante los próximos años, beneficiará en gran parte al mercado, pero también incidirá en el desarrollo de la sociedad mexicana, acercándola a las TIC (Tecnologías de la Información y la Comunicación) y contribuyendo en la transición digital.

En ese sentido, el cuestionamiento toma relevancia cuando se intenta comprender cómo la cuarta ola de cambios disruptivos está impactando en los modelos de negocio, desatando en las compañías la necesidad de adoptar tecnologías híbridas e innovadoras para mantenerse competitivas en el mercado.

De primera instancia, podría parecer que la austeridad en el país se presenta como un obstáculo de crecimiento para la industria TIC, la cual agrupa a los proveedores de hardware, software, servicios de TI y de telecomunicaciones. Contrario a esto, la firma de inteligencia de mercado, IDC estima que, para este año, las tendencias de inversiones para dicho sector estarán por encima del PIB (Producto Interno Bruto); esto se debe a que, en México, existen más de 4 mil empresas vinculadas al sector, y en conjunto facturan alrededor de $444,379 millones de pesos.

Una inversión significativa, enmarcada en un ambiente propicio para la innovación, nos hará migrar hacia una robusta infraestructura digital, es decir, una estrecha relación entre la economía digital con la productividad y competitividad.

La AMITI (Asociación Mexicana de la Industria de Tecnologías de la Información), calcula un crecimiento promedio de 7 %, que si bien se encuentra 3 puntos porcentuales por debajo de lo registrado en años recientes,  representa un reto para la industria TIC, ya que no sólo debe adaptarse a las exigencias y condiciones sino también debe buscar nuevas oportunidades, métodos y plataformas de desarrollo.

En este momento coyuntural, se presenta, ante la industria TIC, la oportunidad de colaborar con la nueva administración; el objetivo es ajustarse a sus requerimientos y prioridades. En primer lugar, la reubicación de secretarías y organismos descentralizados, lo cual representa un desafío en la comunicación e interconexión entre las dependencias; en segundo, la implementación de una nueva plataforma  tecnológica por parte de la Secretaría de Hacienda y Crédito Público (SHCP) para combatir y disminuir la corrupción; por último, al tomar la decisión de no invertir en equipo de cómputo, al menos durante el primer año, se fomenta el uso de servicios de TI asociados con la idea de ahorro.

La industria TIC está comprometida a colaborar con empresas e instituciones para impulsar el desarrollo del país, proponiendo soluciones incluyentes y sostenibles. Por su parte, éste debe aprovecharlas para conseguir el ahorro que busca, esto sin olvidar que tiene el compromiso y la responsabilidad de interconectar a todos los sectores de la sociedad.

Las TI potencializan el crecimiento económico, proponen alternativas a los conflictos y generan soluciones y/o servicios en beneficio de las personas. El reto actual, es hacer sinergia entre los servicios tradicionales y los nuevos servicios para facilitar la transformación, reducir la brecha digital y, por último, para conectar a México y así contribuir al futuro del país y sus habitantes.

 

 

Por: Miguel de la Torre,

Sales Director, Clúster Norte,

CenturyLink.

Netskope abre oficinas en México

Con el objetivo de dar continuidad a su estrategia de ampliar sus inversiones en América Latina, Netskope, compañía especializada en Seguridad Cloud, anunció la apertura de una oficina en Ciudad de México y la contratación de Annabel Revuelta como Country Manager y Alan Rivas, como Senior Systems Engineer para Netskope México.

La puesta en marcha de la oficina de México, la segunda en Latinoamérica tras la inauguración de la sede de São Paulo (Brasil), permitirá a Netskope incrementar su presencia en el país, acelerar el desarrollo de la marca, establecer vínculos con clientes estratégicos y construir un canal sólido.

Es por ello que, una vez establecidas las primeras relaciones comerciales y detectados varios proyectos en clientes mexicanos de diferentes sectores, como Finanzas, Seguros, Retail, Industria o Educación, por citar algunos, Netskope ya ha empezado a dar sus primeros pasos para acelerar el crecimiento de la marca en el país.

“Por su estratégica situación geográfica y las oportunidades de negocio que representa a distintos niveles, México supone una oportunidad comercial para Netskope. Los clientes mexicanos ya adoptan la nube de una forma masiva y queremos acercarles nuestra tecnología para ayudarles a la protección de sus datos en SaaS, IaaS y Web de una forma enfocada”, afirma Alain Karioty, Regional Sales Director de Netskope para Latinoamérica.

 

Las nuevas oficinas de Netskope México están situadas en el Edificio Capital Reforma de la Ciudad de México.

Millones de registros de Facebook expuestos por servidores mal configurados

La última semana no ha sido la mejor para Facebook. La primera mala noticia que se conoció esta semana fue que la red social ha estado solicitando a nuevos usuarios la dirección y la contraseña de sus cuentas de correo como parte del proceso de verificación para registrar nuevas cuentas; lo cual representa un riesgo la seguridad de los usuarios. La segunda mala noticia, que se hizo pública en el día de ayer y que también tiene como protagonista a Facebook, es el hallazgo de más de 540 millones de registros de usuarios que estaban alojados en servidores de Amazon sin protección.

Registros de más de 540 millones de usuarios de Facebook expuestos de manera pública

Ayer, investigadores de UpGuard revelaron que servidores utilizados por dos desarrolladores de terceras partes de aplicaciones para Facebook expusieron datos de millones de usuarios que estaban almacenados en servidores de Amazon mal configurados, quedando la información al alcance público.

Uno de estos servidores pertenece al medio digital mexicano Cultura Colectiva, el cual almacenaba 146GB  con más de 540 millones de registros que contenían datos como nombres y ID de usuarios, información variada relacionada a gustos e intereses de los usuarios, como “me gusta”, comentarios, entre otras cosas más.

El segundo, también almacenado en un servidor Amazon (Amazon S3 bucket), pertenece a la aplicación “At the Pool” y contiene información como contraseñas en texto plano, además de información de los usuarios, como intereses, amigos, música, entre otros.

Según los investigadores, se cree que las contraseñas descubiertas en la base de datos eran de la propia aplicación, pero dado que muchos usuarios utilizan la misma contraseña para otros servicios, la exposición supone un riesgo mayor.

Facebook solicita dirección y contraseña del correo de los usuarios

La otra noticia la dio a conocer el 31 de marzo un especialista en ciberseguridad, conocido como e-sushi, cuando a través de su cuenta de twitter publicó el hallazgo de que Facebook ha estado solicitando a nuevos usuarios que deciden registrase en la red social que ingresen la dirección y la contraseña de su cuenta de correo como parte del proceso de verificación. Si bien esto no es para todos los servicios de correo, el almacenamiento de esta información supone un riesgo para la seguridad de los usuarios.

De acuerdo a una declaración pública que hizo la red social al medio Daily Beast, la compañía confirmó la existencia de ese proceso de verificación, pero aseguró que no almacena en sus servidores las contraseñas aportadas por los usuarios en dicha instancia.

Asimismo, la compañía aseguró que dejará de realizar esta práctica de solicitar la contraseña del correo como parte del proceso de verificación.

Lo particular de esta última noticia es que el hecho se conoció dos semanas después de que la compañía liderada por Mark Zuckerberg admitiera que durante años almacenó cientos de millones de contraseñas de usuarios en texto plano de manera insegura en servidores de la compañía que estaban accesibles a más de 20,000 empleados.

 

Por: Juan Manuel Harán, Security Editor de ESET Latinoamérica.

Microsoft no está listo para la refrigeración por agua en los centros de datos de Azure

Microsoft ha experimentado con varias técnicas de refrigeración líquida, pero no considera que la tecnología sea lo suficientemente madura como para ser ampliamente utilizada para la refrigeración de servidores en sus centros de datos en la nube de Azure, al menos así lo afirmó Brandon Rubenstein, Director de Desarrollo de Soluciones e Ingeniería Mecánica / Térmica de Microsoft Azure.

El enfriamiento por líquido (o enfriamiento por agua) es más eficiente que el enfriamiento por aire, lo que puede significar grandes ahorros en los costos a gran escala, como la operación global de los centros de datos de Microsoft para la nube de Azure. Además, los componentes se mantienen a una temperatura más constante y la refrigeración por agua es capaz de soportar cualquier mal funcionamiento en el sistema de refrigeración. La humedad, el polvo y las vibraciones ya no son un problema. Finalmente, el calor se puede reutilizar o revender más fácilmente y se reduce el consumo de agua.

Sin embargo, esas no son las razones principales por las que Microsoft está considerando la refrigeración por agua. Más importante aún, la densidad de potencia de los chips del servidor dentro de unos pocos años simplemente será demasiado alta para mantenerse lo suficientemente fresca con un sistema basado en aire.

Los procesadores de hoy típicamente requieren 200 vatios y eso solo aumentará. Para los aceleradores como las GPU, que se utilizan para el aprendizaje automático y otras aplicaciones específicas, los requisitos son incluso entre 250 y 400 vatios. “Eventualmente llegamos al punto en que algunos de estos chips o soluciones gpu nos obligarán a usar enfriamiento por agua”,informó Rubenstein. Sin embargo, ese momento aún no ha llegado para Microsoft.

Estos sistemas de refrigeración basados en líquidos requieren inversiones adicionales en cualquier caso, pero también tienen consecuencias para la facilidad de mantenimiento de los servidores. Además, hoy en día, falta hardware estandarizado, según Microsoft.

“Necesitamos especificaciones abiertas sobre módulos DIMM y FPGA y conectores sin goteo, etc”, dijo Husam Alissa, ingeniero senior del equipo del centro de datos de Microsoft. “Necesitaremos la certificación de componentes como las placas base y los equipos de fibra óptica y de red, en lugar de un nuevo experimento cada vez que queremos probar algo. Necesitamos redundancia de recursos para todas estas tecnologías y deben ser menos propietarias y más privatizadas “.

Microsoft aún no está listo para elegir una tecnología en particular, pero se da cuenta de que la refrigeración puede convertirse en un problema dentro de dos o tres años. Rubenstein espera que la refrigeración líquida a nivel de bastidor esté suficientemente modulada en uno o dos años. Sin embargo, sospecha que las soluciones completas de los centros de datos tardarán al menos de cinco a diez años en alcanzar la plena madurez. Eso le da a Microsoft “tiempo suficiente para descubrir cuál es la solución más efectiva”.

 

IDG.es

Volkswagen se apoya de AWS para mejorar sus procesos

Amazon Web Services (AWS) y el Grupo Volkswagen anunciaron un acuerdo global por varios años para construir la nube industrial de Volkswagen, una plataforma de producción digital industrial basada en la nube que mejorará los procesos de fabricación y logística de la compañía automotriz. Volkswagen se basará en la amplitud y profundidad de la cartera de servicios de AWS, incluidos IoT, aprendizaje automático, análisis y servicios informáticos para aumentar la eficiencia y el tiempo de actividad de la planta, mejorar la flexibilidad de la producción y aumentar la calidad de los vehículos.

La nube industrial de Volkswagen recopilará datos en tiempo real de las 122 plantas de fabricación de Grupo Volkswagen para gestionar el rendimiento general de los equipos de ensamblaje, así como el rastreo de piezas y vehículos.

Volkswagen utilizará el conjunto de servicios de AWS IoT, incluidos AWS IoT Greengrass, AWS IoT Core, AWS IoT Analytics y AWS IoT SiteWise, para detectar, recopilar, organizar y ejecutar análisis sofisticados de los datos de la planta.

Los servicios de IoT de AWS brindarán nuevos conocimientos sobre las operaciones de fabricación en las instalaciones que optimizarán la producción y mejorarán el rendimiento de los procesos. Con un Data Lake de toda la compañía alojado en Amazon Simple Storage Service (Amazon S3) para analizar los datos, Volkswagen recopilará información que determinará las tendencias operativas, mejorará la previsión y agilizará las operaciones al identificar las brechas en la producción y los residuos.

Volkswagen utilizará Amazon SageMaker, un servicio totalmente administrado que brinda a los desarrolladores y científicos de datos la capacidad de construir, capacitar y desplegar modelos de aprendizaje automático rápidamente, para optimizar el funcionamiento de la maquinaria y el equipo en todas sus plantas. Además, Volkswagen planea usar AWS Outposts, que brinda servicios, infraestructura y modelos operativos nativos de AWS en las instalaciones, proporcionando una funcionalidad perfecta entre la fábrica y la nube para aplicaciones sensibles a la latencia, ofreciendo una experiencia híbrida consistente.

“Seguiremos fortaleciendo la producción como un factor competitivo clave para Grupo Volkswagen. Con nuestra plataforma global queremos crear un ecosistema industrial en crecimiento con transparencia y rendimiento que aporte beneficios a todos los involucrados”, comentó Oliver Blume, presidente de la junta ejecutiva de Porsche AG y miembro de la junta de administración de Volkswagen Aktiengesellschaft responsable de producción.

“La nube industrial de Volkswagen reinventará sus procesos de manufactura y logística, este es otro ejemplo de cómo Volkswagen continúa innovando y liderando”, señaló Andy Jassy, CEO de AWS.