Etiqueta: GPU

AMD refuerza sus GPU enfocadas a Inteligencia Artificial

La firma de microprocesadores AMD, presenta sus soluciones gráficas enfocadas al entorno de aplicaciones de Inteligencia Artificial (IA), un mercado que va en aumento y que las compañías usarán para todo tipo de entornos, desde el de automoción, logística, transporte, banca o incluso el arte.

AMD pretende poner las cosas difíciles a sus competidores Nvidia e Intel, compañías con las compite ya en otros ámbitos mercados de CPU para los equipos de cómputo, estaciones de trabajo, servidores y centros de datos.

La compañía pretende lanzar tres productos bajo la nueva marca a lo largo de 2017, los cuales incluyen chips de tres familias de GPU. De las noticias desveladas por la compañía, se sabe que la Radeon Instinct MI6 estará basada en la arquitectura de la empresa Polaris con posibilidad de enfriamiento de tipo pasivo. Esta solución ofrecerá un rendimiento de 5,7 teraflops, así como 224 GBps de ancho de banda de memoria. Su consumo rondará los 150 vatios de potencia. Por su parte, la Radeon Instinct MI8, de formato más compacto, estará basada en Fiyi y proporcionará hasta 8,2 teraflops de rendimiento con un ancho de banda de memoria de 512 GBps y un consumo que se mantendrá en el mismo rango que su predecesora.

La tercera de las GPU que formarán parte de esta nueva familia de gráficas para entornos de IA o machine learning se llamará Radeon Instinct MI25 y dispondrá de arquitectura Vega. La numeración sugiere que la tarjeta podría ofrecer un rendimiento de hasta 25 teraflops superando las ofertas actuales con las que cuenta su competidor Nvidia.

Extrapolados toda esta serie de valores al mercado nos ofrece una visión de lo que los nuevos servidores van a poder realizar en un futuro próximo, de manera que la inteligencia artificial va a permitir que los ordenadores adquieran habilidades de conducción automática en el caso del sector automovilístico, puedan hablar para interactuar con el ser humano, o incluso pintar a medida que adquieran conocimiento. Empresas de gran magnitud como Google, Nvidia e Intel han hecho grandes inversiones en este tipo de hardware que está enfocado en la Inteligencia Artificial.

Además de estas soluciones gráficas, AMD también prepara un framework de aprendizaje denominado ROCm. En esencia, se trata de una librería de código abierto llamada MIOpen orientada a mejorar las posibilidades que ofrecen las nuevas GPU.

El machine learning va a ser sin duda una gran tendencia a lo largo del año que viene, un entorno en el que grandes compañías como IBM están invirtiendo con su tecnología Watson. Raja Koduri, director del Grupo Radeon Technologies de AMD ha destacado durante la presentación que “combinando nuestras capacidades de computación y gráficos de alto rendimiento, junto a la hoja de ruta multigeneracional, vamos a demostrar que somos la única compañía con experiencia suficiente en GPU y x86 para atender la demanda de los nuevos centros de datos y su adopción en lo que respecta a inteligencia artificial”.

Otros fabricantes como Nvidia no se quedan atrás, con sus generaciones de productos ya lanzados al mercado. Por su parte, gigantes tecnológicos como Google también han mostrado sus unidades de procesamiento como es el caso de Tensor Processing Unit. Intel, por su parte, también adquiría el pasado mes de agosto la compañía de machine learning Nervana con la que refuerza ésta área.

Patrick Moorhead, analista de la firma Moor Insights opina que no es demasiado tarde para AMD. “Las redes neuronales profundas están en su etapa inicial por lo que AMD tiene las mismas posibilidades de tener éxito que el resto de participantes”. El siguiente paso, agregó Moorhead, es que AMD demuestre que sus productos Radeon Instinct llegarán a tiempo y cumplirán con las promesas que ahora han desvelado.

Gordon Mah, IDG

 

Intel presenta plataforma para Inteligencia Artificial

Intel en una nota de prensa, señala que la Inteligencia artificial (IA) es la próxima gran ola en computación que va a transformar la forma cómo las empresas trabajan y cómo las personas interactúan con el mundo. La firma de microprocesadores, está interesada en apoyar la revolución del aprendizaje automático.

La industria necesita capacidad avanzada de cálculo, ya sea capacidad escalable y abierta, para permitir la innovación en toda la comunidad de desarrolladores. La semana pasada en el Intel Developer Forum (IDF), se mostró un vistazo acerca de cómo se ofrecerá la plataforma de inteligencia artificial.

La inteligencia artificial es incipiente en la actualidad, pero Intel cree que el valor y la oportunidad que trae al mundo, la hacen instrumental para los centros de datos de mañana. El liderazgo de Intel será fundamental como catalizador para que la innovación pueda ampliar el alcance de la inteligencia artificial. Aunque se ha hablado mucho sobre el valor de las GPUs para el aprendizaje automático, el año pasado, menos del 3% de todos los servidores implementados para el aprendizaje automático usaban una GPU.

Es por ello que discutir sobre resultados acerca de indicadores de rendimiento disponibles para el público es una pérdida de tiempo. Es práctica de Intel basar afirmaciones de rendimiento en la última información disponible públicamente en el momento que se publican, y nos atenemos a nuestros datos.

A medida que los conjuntos de datos siguen creciendo, las fortalezas de Intel brillarán. El alcance, la escala y la velocidad de nuestra industria subrayan la importancia del acceso amplio y abierto a las innovaciones en inteligencia artificial. Y la industria está claramente de acuerdo. Vea estos testimonios: “el aumento de tamaño de memoria que Intel Xeon Phi provee nos facilita el entrenar nuestros modelos eficientemente”, de Jing Wang de Baidu;  “Intel está en la mejor posición para traernos el hardware y las arquitecturas que fomentarán la comunidad abierta que necesitamos para avanzar”, del profesor Pedro Domingos de la Universidad de Washington.

Jason Waxman, Vicepresidente Corporativo del Grupo de Centro de Datos y Gerente General del Grupo de Soluciones para de Centro de Datos en Intel.

 

Intel afina su megachip para el machine learning

Intel afina su megachip para el machine learning

La firma de microprocesadores prepara la actualización de la familia de chips adaptada a la era del aprendizaje automático, donde competirá con otras soluciones del mercado como las TPU de Google o las GPU de Nvidia.

Intel quiere seguir asumiendo su rol de líder en el nuevo escenario tecnológico para el que se pronostica un auténtico “boom” de chips para tendencias como IoT, Cloud, Big Data y tecnologías que lo cambiarán todo, asociadas al machine learning y el tratamiento de los datos. Sin embargo, la compañía debe acelerar sus pautas de innovación, puesto que ya no será suficiente con su actual modelo de desarrollo de dos fases conocidas como Tick Tock, optimizando los procesos de fabricación y reduciendo el área de sus transistores en la primera de ellas, y rediseñando la arquitectura del procesador en la segunda fase. La competencia aprieta y el mercado demanda ciclos de desarrollo mucho más ágiles.

La compañía se ha percatado de esta necesidad y se ha puesto en marcha en la evolución de los chips de PC para evolucionar el silicio dirigido a centros de datos e IoT. Ahora sabemos que los modelos Xeon Phi van a contar con nuevas características machine learning, según ha destacado recientemente Nidhi Chappell, director de aprendizaje automático de Intel. Más allá de su definición, estos chips mejorarán su comportamiento con el nuevo software, entrenado para tareas como el reconocimiento de imágenes o el análisis de datos de manera mucho más eficiente.

Intel no ha desvelado cuando serán añadidas estas nuevas características, pero la próxima versión de Xeon Phi, prevista para el año 2018, podría incluir estas mejoras, adoptando nuevas instrucciones preparadas para el aprendizaje automático de la máquina. Se trata de un procesador con nombre en código Knights Landing que cuenta con hasta 72 núcleos de CPU. El chip todavía está siendo probado pero la compañía cree que puede superar a las GPU de otros fabricantes. Podría estar formada por una CPU principal, acompañada de un coprocesador con el fin de mejorar el rendimiento en supercomputación. El Xeon Phi reduce la necesidad de extraer los datos, dado que muchas de las tareas de aprendizaje automático se llevan a cabo hoy en día por parte de la GPU. Google anunció el pasado mes de mayo su modelo TPU (Tensor Processing Unit) de similares características a la GPU de Nvidia.

Chappell comenta que Intel MIC puede ser encapsulado con conexiones internas de alta velocidad que favorecerán su uso en entornos machine learning. Intel está intentando enlazar sus Xeon Phi con el OmniPatch para agilizar la transmisión de datos entre distintos servidores conectados.

Además, ampliará el soporte para el código abierto. La compañía está construyendo modelos de ‘machine learning’ en torno a Coffee, un paquete de código abierto. Los chips Xeon Phi podrían ultimar el soporte TensorFlow, el software de código abierto ‘machine learning’ de Google.

Intel ve a futuro in gran potencial en áreas como la medicina y el procesamiento de imágenes, donde los modelos de aprendizaje pueden ayudar a dar sentido a los datos. Por citar un ejemplo, el chip podría ayudar a identificar enfermedades de forma prematura, o a clasificar una imagen mediante el análisis de píxeles.

Intel cree que los chips podrían ser utilizados en áreas como la medicina y el procesamiento de imágenes, donde los modelos de aprendizaje pueden ayudar a dar sentido a los datos. Por ejemplo, el chip podría ayudar a identificar una enfermedad, o podría ayudar a clasificar una imagen mediante el análisis de píxeles. El objetivo es reducir los tiempos de cálculo, destaca Chappell.

Alfonso Casas

 

Nuevos servidores con GPU de Nvidia Tesla P100, hasta 2017

La nueva GPU más rápida de Nvidia, el nuevo Tesla P100, estará disponible para los servidores en 2017, segúnlo anunció la compañía. Ésta asegura que empresas como Dell, HPE, Cray e IBM empiecen a demandarlos a partir del cuarto trimestre de este año. Por su parte, la GPU también se enviará a las compañías que diseñan sus propios servidores hiperescala y a otros integradores. “Estarán disponibles para los servidores internos de la nube a finales de año”, afirmó Jen-Hsun Huang, CEO de Nvidia, durante su discurso en la GPU Technology Conference en San José (Estados Unidos).

La multinacional se está centrando en los sistemas de aprendizaje profundo, y en los algoritmos de ayuda en la correlación y clasificación de datos. Éstos podrían ser de gran utilidad para que vehículos autónomos, robots y drones identifiquen objetos. El objetivo es acelerar el tiempo de aprendizaje de tales sistemas para mejorar la exactitud de los resultados.

A día de hoy, las GPU de Nvidia están más que extendidas en los supercomputadoras. De hecho, dos de cada diez pertenecen a esta firma. El Tesla P100 se basa en la arquitectura Pascal.

El chip se fabricó usando el proceso de FinFET 16 nanómetros. Además, tiene memoria HBM2 y garantiza un ancho de banda de 256 GBps, es decir, es el doble de rápido que su predecesor, el HBM.

Una nueva interfaz NVLink puede transferir datos  a 160 GBps, cinco veces más rápido que PCI-Express. Sin embargo, sigue habiendo dudas sobre como encajaran con estos servidores NVLink. IBM ha confirmado que su arquitectura Power apoyará NVLink, pero que los servidores con chips de Intel utilizan PCI-Express para conectar las GPU con las placas base. En la conferencia, sin embargo, NVidia mostró una supercomputadora llamado DGX-1 que se ejecuta en chips de Intel Xeon con el Tesla GPU P100.

Chip Eyeriss del MIT podría hacer más inteligentes a dispositivos y robots

En contraparte de lo que está desarrollando Facebook, un teléfono inteligente no lo puede reconocer y etiquetar en un selfie. El nuevo chip del Instituto Tecnológico de Massachusetts (MIT) es similar a un cerebro desarrollado por investigadores de la entidad académica.

El chip prototipo, cuenta con 168 núcleos llamado Eyeriss podrá utilizar la memoria para reconocer instantáneamente rostros, objetos e incluso sonidos. El microprocesador se encuentra diseñado para su uso en teléfonos inteligentes, automóviles sin conductor, robots, drones y otros dispositivos.

Eyeriss es uno de los chips que están siendo desarrollados para que los dispositivos puedan hacer más cosas, y mediarán con los humanos. Qualcomm está fabricando chips para que los dispositivos móviles puedan aprender sobre los usuarios y predecir sus acciones con el tiempo. Nvidia ofrece una computadora para automóviles con su chip Tegra para que los autos sin conductor puedan reconocer  las señales de tránsito.

A las computadoras se les puede entrenar para que reconozcan imágenes, rostros y sonidos, como ha sido demostrado por Microsoft, Facebook y Google a través de los sistemas de aprendizaje profundo. El aprendizaje profundo es una sección del aprendizaje de máquina en el cual los algoritmos ayudan en la correlación y clasificación de los datos. Los sistemas de aprendizaje profundo generalmente requieren de complejas redes neuronales y gran cantidad de recursos de computo como los GPU que requieren de mucha energía y miles de servidores.

El MIT afirma que sus chips necesitarían solo de una parte de los recursos, y que son 10 veces más eficientes en cuanto a energía que los procesadores gráficos móviles. Se podría utilizar los chips en wearables, teléfonos inteligentes y robots operados por batería.

Eyeriss daría capacidades de inteligencia artificial autocontenida a dispositivos en los que la mayor parte del procesamiento se realiza localmente en un dispositivo. No se necesitarían de conexiones Wi-Fi o celulares para utilizar los servicios de nube o servidores para el reconocimiento de imágenes u objetos.

En el CES, Nvidia mostró automóviles sin conductor que obtenían datos de servidores para reconocer los obstáculos u objetos en la calle. Con el chip del MIT, los automóviles sin conductor tendrían capacidades de reconocimiento de imágenes propias, lo cual podría ser útil en áreas remotas en donde no se encuentran disponibles conexiones celulares.

Cada núcleo de Eyeriss tiene su propio banco de memoria, lo cual es lo opuesto a la memoria centralizada de las GPU y CPU que se encuentran en los sistemas de aprendizaje profundo de hoy. Cada chip intenta reducir la repetición en el procesamiento al desagregar de forma eficiente las tareas de ejecución entre los 168 núcleos. Los circuitos pueden ser reconfigurados para diferentes tipos de redes neuronales y la compresión ayuda a preservar el ancho de banda.

Se mostró el procesador realizando reconocimiento de imágenes en la ISSCC (International Solid-State Circuits Conference) en San Francisco el pasado miércoles.

Los investigadores no han señalado si los chips llegarían a los dispositivos. Por otra parte Intel y Qualcomm, compañías de microprocesadores como Movidius están intentando llevar capacidades de inteligencia artificial a los dispositivos móviles.

-Agam Shah, IDG News Service

 

Qualcomm anuncia nuevos procesadores Snapdragon 400, 600 y Wear

Además de la nueva familia de procesadores, Qualcomm anuncia la plataforma Snapdragon Wear, destinada a dispositivos de la categoría wearables, los nuevos procesadores Snapdragon Series 400 y 600, ahora tendrán soporte para 802.11ac con MU-MIMO y CPU ARM Cortex A53.

Qualcomm ha anunciado hoy nuevos procesadores, tres de ellos para dispositivos móviles como son Smartphones y Tabletas, y uno especialmente dedicado a su implementación en wearables, este último con el objetivo de mejorar tanto el propio rendimiento del producto como la experiencia del usuario.

La nueva plataforma Snapdragon Wear se estrenará con el SoC Snapdragon 2100, la cual será capaz de conectarse a redes móviles 4G/LTE y 3G. ¿Qué beneficios proporcionará la nueva plataforma en comparación con el uso del procesador Snapdragon 400?

Se reduce el tamaño en un 30%, lo que beneficiará en el diseño de los wearables que lo incorporen. Además de un 25% de ahorro energético, por lo cual se obtiene mayor autonomía del dispositivo que lo utilice, sensores con mejoras en algoritmos y con capacidad de ser más exactos.

Por otro lado, se han revelado los nuevos procesadores Snapdragon 625, 435 y 425, los tres con soporte para redes LTE, carga Rápida de Qualcomm e integración de una CPU ARM Cortex A53. ¿Cuáles son los puntos claves de cada uno de los nuevos productos?

El procesador Snapdragon 625 será el primero en utilizar tecnología de 14 nanómetros, lo que pronostica un ahorro energético de hasta un 35% respecto a la anterior generación. Se incluirá una CPU ARM de 8 núcleos, soporte para redes 4G+, grabación de vídeo en 4K y capacidad para procesar fotografías de hasta 24MP. Se utilizará una GPU Adreno 506.

El procesador Snapdragon 435 incluirá también con una CPU de 8 núcleos y será el primero su clase con módem LTE X8. Tiene soporte para redes 4G+, pantalla FULL HD a 60 fps e ISPs dual para cámara de hasta 21 megapixeles, además de contar con una GPU Adreno 505.

Finalmente, el procesador Snapdragon 425 vendrá a relevar a los actuales modelos 410 y 412, con CPU de 4 núcleos y 64-bit, GPU Adreno 308, módem LTE X6 y soporte para pantalla en HD de 60 fps. Este procesador admitirá cámaras con sensor de hasta 16MP.

Se espera que los nuevos procesadores Snapdragon sean implementados en productos comerciales a partir de la segunda mitad de 2016. Puede obtener información adicional en la página oficial de Qualcomm.

-Marc Corredera

 

Siete tendencias que veremos en los smartphones de este año

A pocos días de que inicie el Mobile World Congress, recopilamos algunas de las tecnologías que son tendencia y que irán llegando a los teléfonos móviles a lo largo de 2016. La realidad virtual, una mayor velocidad y mejores gráficos serán algunas de las funcionalidades de las que los nuevos usuarios podrán beneficiarse.

Los smartphones que verán la luz este año están llamados a ser más interactivos, más entretenidos y veloces. De cara al MWC los fabricantes ya están revelando las aplicaciones que pretenden revolucionar el mercado.  Entre las nuevas características que se destacan se encuentra la realidad virtual, aumento del soporte para PC y entrarán de lleno en el mundo 4K. Además, los teléfonos de gama baja ofrecerán pantallas con mayor resolución, mejores gráficos y comunicaciones inalámbricas más rápidas. Estas son las siete tendencias a tener en cuenta para este 2016:

 

Realidad Virtual

Muchos dispositivos móviles de este año, llegaran con prestaciones potentes, las cuales podrán ejecutar Realidad Virtual. Ejemplo de ello es el Google Cardboard con visualización estereoscópica  que permite la conexión con dispositivos como el Samsung Gear VR. Pero la innovación vendrá de la mano de Lenovo y el nuevo Tango Project de Google. Éste último proporcionará una gran cantidad de datos sobre la localización del usuario y los objetos a la vista, facilitando la información en la pantalla. Los sensores serán capaces de medir distancias y, al igual que Kinect, monitorizarán el movimiento y los gestos. Las empresas ven al teléfono Tango como una herramienta que va ser muy útil en ingeniería y aplicaciones médicas.

En cuanto a la diversión, el teléfono propondrá juegos de realidad aumentada con el mundo físico como fondo. El Proyect Tango saldrá a mediados de año y tendrá un precio de unos 580 euros. Para los desarrolladores, Intel tendrá un Smartphone compatible con Tango con los kits de desarrollo de software y una cámara 3D por un precio estimado de 360 dólares.

 

Más velocidad

Muchos de los terminales de alta gama que serán presentados en las próximas fechas estarán impulsados por el chip Snapdragon de Qualcomm 820. Contará con un modem LTE, puede alcanzar velocidades de descarga de 600 Mbps, y velocidad de carga de 150 Mbps. Por primera vez, los smartphones soportarán LTE-T con transferencias de datos mucho más veloces. El Snapdragon 820 cuenta también con tecnología WiGig, que se puede conectar de forma inalámbrica a dispositivos y monitores, y es hasta tres veces más rápida que 802.11 ac WiFi.

 

Computación cognitiva

Qualcomm quiere destacar el aprendizaje automático, que podría ayudar en el reconocimiento de imágenes y aplicaciones basadas en localización. La empresa ha mostrado un dispositivo que identifica de inmediato a la gente y etiqueta sus nombras tras hacer una foto. Un proceso similar al de Facebook. Qualcomm asegura que está desarrollando unas 30 aplicaciones para esta tecnología.

 

Gráficos más rápidos

Esto viene aunado a la realidad virtual y el contenido 4K. Los mejores teléfonos del mercado estarán equipados con las GPU de Qualcomm y ARM. Sin embargo, los dispositivos no tienen pantallas 4K por lo que tendrán que ser conectados en otros monitores.

 

Mejores pantallas

La resolución será más vívida por encima de las actuales pantallas de 1440×2560 píxeles. Los analistas de Morgan Stanley han previsto que, las pantallas plegables OLED llegarán a nuestros smartphones en dos años.

 

USB tipo C y otras soluciones de hardware

Tanto los terminales de gama alta como los de bajo costo migrarán a los puertos USB tipo C para la carga de sus baterías. Los nuevos puertos también van a resolver el problema de conexión de los smartphones con monitores y dispositivos de almacenamiento externo.

 

Chips más rápidos

Finalmente, los nuevos terminales tendrán los microprocesadores de bajo consumo más veloces. Pero un nuevo giro en los chips permitirá mejorar el uso, mientras crece la autonomía. Algunos teléfonos tendrán la memoria DDR4 que impulsa un mayor rendimiento de aplicaciones a través de una transferencia de datos más rápida.

-M. Moreno

Realidad Virtual, computación cognitiva y otras tendencias en movilidad para este año

Falta menos de un mes para que inicie el Mobile World Congress, revelamos las mejoras a tener en cuenta en 2016. La realidad virtual, una mayor velocidad y mejores gráficos serán la punta de lanza del sector.

Los smartphones que verán la luz este año están llamados a ser más interactivos, más entretenidos y  veloces. Queda menos de un mes para la celebración del Mobile World Congress y los fabricantes ya están revelando las aplicaciones que pretenden revolucionar el mercado.  A saber: se introducirán en la realidad virtual, fomentarán el soporte para la PC y entrarán de lleno en el mundo 4K. Además, los teléfonos de gama baja ofrecerán pantallas con mayor resolución, mejores gráficos y comunicaciones inalámbricas más rápidas. Estas son las siete tendencias a tener en cuenta en 2016:

Realidad Virtual

Es la gran promesa y a la vez la gran esperanza de los consumidores. Los móviles ya se pueden utilizar para recorrer mundos virtuales. Ejemplo de ello es el Google Cardboard con visualización estereoscópica  que permite la conexión con dispositivos como el Samsung Gear VR. Pero la innovación vendrá de la mano de Lenovo y el nuevo Tango Project de Google. Éste último proporcionará una gran cantidad de datos sobre la localización del usuario y los objetos a la vista, facilitando la información en la pantalla. Los sensores serán capaces de medir distancias y, al igual que Kinect, podrán monitorear el movimiento y los gestos. Las empresas ven al teléfono Tango como una herramienta que va ser muy útil en ingeniería y aplicaciones médicas.

En cuanto a la diversión, el teléfono propondrá juegos de realidad aumentada con el mundo físico como fondo. El Proyect Tango saldrá a mediados de año y tendrá un precio de unos 580 euros. Para los desarrolladores, Intel tendrá un Smartphone compatible con Tango con los kits de desarrollo de software y una cámara 3D por menos de 400 dólares.

Velocidad inalámbrica más rápida

Muchos de los terminales de alta gama que serán presentados en las próximas fechas estarán impulsados por el nuevo chip Snapdragon de Qualcomm 820. Éste, al igual que un módem LTE, puede alcanzar velocidades de descarga de 600 Mbps, y velocidades de carga de 150 Mbps. Por primera vez, los smartphones soportarán LTE-T con transferencias de datos mucho más veloces. El Snapdragon 820 cuenta también con tecnología WiGig, que se puede conectar de forma inalámbrica a dispositivos y monitores, y es hasta tres veces más rápida que 802.11 ac WiFi.

qualcomm-snapdragon-mobile-processor

Computación cognitiva

Qualcomm quiere destacar el aprendizaje automático, que podría ayudar en el reconocimiento de imágenes y aplicaciones basadas en localización. La empresa ha mostrado un dispositivo que identifica de inmediato a la gente y etiqueta sus nombras tras hacer una foto. Un proceso similar al de Facebook. Quualcomm asegura que está desarrollando unas 30 aplicaciones para esta tecnología.

Gráficos más rápidos

Vienen de la mano de la realidad virtual y el entretenimiento 4K. Los mejores teléfonos del mercado estarán equipados con las GPU de Qualcomm y ARM. Sin embargo, los dispositivos no tienen pantallas 4K por lo que tendrán que ser conectados en otros monitores.

Mejores pantallas

La resolución será más vívida por encima de las actuales pantallas de 1440 x 2560 píxeles. Los analistas de Morgan Stanley han previsto que, a su vez, las pantallas plegables OLED llegarán a nuestros smartphones en dos años.

El USB tipo C y otras soluciones de hardware

Tanto los terminales de gama alta como los de bajo costo migrarán a los puertos USB tipo C para la carga de sus baterías. Los nuevos puertos también van a resolver el problema de conexión de los smartphones con monitores y dispositivos de almacenamiento externo.

Procesadores más rápidos

Como siempre, los nuevos terminales tendrán los microprocesadores de bajo consumo más veloces del mercado. Pero un nuevo giro en los chips permitirá aumentar la usabilidad mientras crece la autonomía. Algunos teléfonos tendrán la memoria DDR4 que impulsa un mayor rendimiento de aplicaciones a través de una transferencia de datos más rápida.

-M. Moreno

 

Eyeriss, el chip diseñado para implementar redes neuronales

Investigadores del MIT, después de mucho tiempo de investigación y desarrollo, han presentado este microprocesador que podría permitir a los dispositivos móviles implementar las redes neuronales según el modelo de la mente humana.

Las redes neuronales fueron uno de los principales objetos de investigación durante los primeros años de la ciencia de la Inteligencia Artificial. Sin embargo este ámbito fue dejado en el olvido durante la década de 1970, para resurgir en la actualidad con algunos de los avances que marcarán la hoja de ruta de la IA en los próximos tiempos. Bajo el nombre de “aprendizaje profundo”, estas redes neuronales convolucionales son grandes redes virtuales de unidades de procesamiento de información simple, que se modelan libremente en la anatomía del cerebro humano. Éstas son implementadas usando unidades de procesamiento gráfico (GPU). Una GPU móvil, similar a la de un Smartphone podría tener casi 200 unidades de procesamiento, por lo que sería ideal para la simulación de una red de procesadores distribuidos.

En este contexto, los investigadores del MIT han presentado el nuevo chip llamado ‘Eyeriss’, diseñado específicamente para implementar redes neuronales. Es diez veces más eficiente que una GPU móvil, por lo que permitiría a estos dispositivos ejecutar potentes algoritmos de IA a nivel local, en lugar de cargar los datos en Internet para su procesamiento.

“El aprendizaje profundo es útil para muchas aplicaciones, tales como el reconocimiento de objetos, el habla o la detección de rostros”, aseguró Vivienne Sze profesor asistente en el departamento de ingeniería eléctrica e informático cuyo grupo desarrolló el nuevo chip del MIT. “En este momento las redes son bastante complejas y en su mayoría se ejecutan en las GPU de alta potencia. Si llevamos esa funcionalidad a un Smartphone reaccionaría mucho más rápido en ciertas aplicaciones. Incluso podría funcionar sin Wifi”.

Además de su objetivo primario, ‘Eyeriss’ podría ayudar a la evolución de IoT. La idea es que vehículos, electrodomésticos, estructuras de ingeniería civil y multitud de dispositivos más tengan sensores que proporcionen información directamente a servidores en red, ayudando con el mantenimiento y la coordinación de tareas. Con potentes algoritmos de IA a bordo, los dispositivos en red podrían tomar decisiones importantes a nivel local. Finalmente en este apartado, a bordo de las redes neuronales sería útil para robots autónomos que funcionan con baterías.

Actuar localmente

La clave de la eficiencia de ‘Eyeriss’ es reducir al mínimo la frecuencia con la que los núcleos tienen que intercambiar datos con bancos de memoria distantes, una operación que consume gran cantidad de energía y tiempo. Mientras que muchos de los núcleos de una GPU comparten un banco de memoria de gran tamaño, cada núcleo de ‘Eyeriss’ tiene su propia memoria.

Por otra parte, el chip tiene un circuito que comprime los datos antes de enviarlos a los núcleos individuales. Cada núcleo es capaz de comunicarse directamente con sus vecinos inmediatos, por lo que si necesitan compartir datos, no tienen por qué pasarlos a través de la memoria principal. Por tanto, la clave final para la eficiencia del chip son los circuitos de propósito que asignan tareas a través de núcleos. Además, el circuito de asignación puede ser reconfigurado para diferentes tipos de redes, distribución automática de ambos tipos de datos a través de los núcleos de tal manera, que se maximice la cantidad de trabajo que cada uno de ellos puede hacer antes de ir a buscar más datos a la memoria principal.

Durante la presentación del chip, los investigadores del MIT usaron ‘Eyeriss’ para implementar una red neuronal que realiza una tarea de reconocimiento de imágenes. “Este trabajo es muy importante. Muestra como los procesadores embebidos para el aprendizaje profundo pueden proporcionar optimizaciones de potencia y rendimiento que traerán estos cálculos complejos desde la nube para dispositivos móviles”, afirmó Mike Polley, vicepresidente senior de innovaciones de Mobile Lab de Samsung.

-M. Moreno

 

Facebook avanza en la IA con Big Sur, su hardware de próxima generación

Facebook ha presentado su hardware para entrenar la Inteligencia Artificial de software en código abierto, esto permitirá que otras compañías exploren la IA para construir sistemas similares. Con el nombre de Big Sur, Facebook utiliza el servidor para ejecutar sus programas de aprendizaje, un tipo de software de IA que aprende y mejora en las tareas en el tiempo. De este modo, Big Sur contribuye al Open Compute Project, creado por Facebook para permitir a las empresas que compartan diseños para el nuevo hardware.

Uno de los usos más habituales que se le da, es para el aprendizaje de la máquina con el reconocimiento de imágenes, donde un programa estudia una foto o un vídeo para identificar los objetos en el marco. El sistema puede ser aplicado a todo tipo de datos, para detectar amenazas como el spam o los fraudes con tarjetas de crédito.

servidor-big-sur-facebook

Big Sur se apoya en las GPU (Unidades de Procesamiento Gráfico), que a menudo son más eficientes que las CPU para tareas de aprendizaje automático. El servidor puede tener hasta ocho GPU de alto rendimiento, donde cada uno consume hasta 300 vatios, y se puede configurar de diferentes formas a través de PCIe.

Durante años, el trabajo de la red social  en IA realizado en Open Source, ha consistido en trabajos de investigación y de código; ahora, y por primera vez en la historia, la compañía añade el hardware, ofreciendo con ello un modelo para que otras organizaciones puedan establecer una infraestructura específica para IA, ya sean startups, centros académicos o grandes compañías.

Big Sur es dos veces más rápido que la generación actual. Además, el hardware también es más versátil y eficiente que las soluciones ‘off the self’ de generaciones anteriores.

-Redacción

.