Etiqueta: procesador

Intel y AMD se unen para lanzar un procesador más poderoso

Quienes alguna vez han sido rivales ahora se unen para diseñar un nuevo procesador más poderoso. Se trata de AMD e Intel quienes presentaron el nuevo chip Intel Core con núcleo gráfico AMD Radeon.

Se trata de un movimiento que tiene como fin competir con Nvidia en el plano de los videojuegos en computadoras portátiles.

Este nuevo chip, según datos que maneja nuestro medio hermano ComputerWorld USA, será una evolución de la 8 ª generación de Core de la serie H de Intel que saldrá al mercado en el primer trimestre de 2018.

Al proyecto inicial de Intel se ha unido AMD con un diseño semipersonalizado del núcleo que va en la misma línea que los chips utilizados en consolas como Microsoft Xbox One X y Sony Playstation 4.

A pesar de que todavía no se han revelado todos los detalles del nuevo producto, el eje del acuerdo entre las dos compañías pasa por una pequeña pieza de silicio de la que Intel comenzó a hablar el año pasado; el llamado Emib (Embedded Multi-die Interconnect Bridge), que da como resultado un módulo de tres matrices que unirá el chip de Intel, el núcleo Radeon y la memoria de ancho de banda de próxima generación o HBM2.

Esta unión es toda una sorpresa, más cuando la rivalidad entre los dos fabricantes no siempre ha sido sana. Pero, teniendo tan cerca a Nvidia como un fuerte competidor, podría aplicar el famoso dicho de “el enemigo de mi enemigo es mi amigo”.

Chris Walker, vicepresidente de Client Computing Group de Intel, asegura que la firma tenía el reto de hacer para las PC portátiles ultraligeros de juegos un chip de primer nivel de rendimiento.

Mark Hachman

Snapdragon X50, el primer chip de Qualcomm para smartphones 5G

Qualcomm acaba de anunciar la fabricación de su primer chipset modem 5G para dispositivos móviles con el que está llevando a cabo una serie de pruebas de conexiones y rendimientos en este entorno.

Se trata del Snapdragon X50 5G y pasará a formar parte de la nueva generación de dispositivos de conectividad celular ofreciendo conexiones de datos sobre el espectro de los 28GHz mmWave. Se trata de una nueva tecnología de conectividad radio móvil que permite su despliegue en frecuencias de ondas milimétricas (mm-wave), a la que se le presupone una entrega de datos de lo más eficiente y de alta capacidad.

El mensaje clave del fabricante es que ya dispone del primer diseño de referencia que será utilizado en smarpthone con soporte 5G.

el cual será utilizado para probar los modem 5G, radios, así como redes junto al resto de partners y socios tecnológicos a lo largo del próximo año para preparar el despliegue y la llegada de los primeros smartphones compatibles con conectividad 5G a principios del año 2019. El diseño de móvil de referencia empleado por Qualcomm cuenta con un grosor de 9 milímetros y pantalla de borde a borde, como los terminales actuales que están siendo presentados.

Para conseguir las nuevas velocidades de conexión del modem X50, Qualcomm ha desarrollado una nueva antena milimétrica con planes para reducirla en un 50% durante los próximos meses. Además de lo indicado, Qualcomm también anuncia a través de su blog una serie de componentes que facilitarán a los fabricantes el uso del espectro de frecuencia de los 600 MHz que actualmente despliega T-Mobile. El único teléfono que aprovecha este nuevo espectro parece ser el V30 de LG, aunque Qualcomm espera que en breve se unan más.

Por último, Qualcomm anunció el nuevo procesador Snapdragon 636 para teléfonos inteligentes de gama media. Es el sucesor natural del 630, y presume de poder aportar mejoras en rendimiento del orden del 40%. Además, se trata de un chip de 14nm (frente al Snapdragon 835 de gama alta que es de 10nm) y admite conexiones LTE de 600Mbps y cámaras de 24 megapíxeles, entre otras novedades. Qualcomm destaca que su disponibilidad para los fabricantes de terminales está prevista para el mes de noviembre.

Alfonso Casas

 

Huawei presenta la primera plataforma de procesamiento para inteligencia artificial móvil en IFA

El CEO de Huawei, Richard Yu ha sido el encargado de inaugurar la Conferencia IFA que se celebra en Berlín donde ha reflejado la intención de la compañía de invertir en nuevos proyectos de inteligencia artificial.

“Al contemplar el futuro de los smartphones, vemos que nos encontramos en el origen de una nueva y emocionante era”, aseveró Richard Yu, consejero delegado de Huawei Consumer Business Group. “La inteligencia artificial móvil es la suma de IA en el propio dispositivo e IA en la nube. En Huawei mantenemos nuestro compromiso en el desarrollo de dispositivos con inteligencia propia, y hacerlo posible desarrollando capacidades que permitan hacer realidad el diseño coordinado de chips, dispositivos y servicios en la nube. Nuestro objetivo final es ofrecer una experiencia de uso significativamente superior. Kirin 970 es el primero en una nueva serie de avances que se traducirán en potentes funciones de IA para nuestros dispositivos, y que nos posicionarán frente a nuestros competidores”.

Estos nuevos desarrolladores en inteligencia artificial requieren un esfuerzo conjunto en toda la cadena de valor, involucrando decenas de millones de desarrolladores, y la experiencia y retroalimentación de cientos de millones de usuarios.

El nuevo chipset Kirin 970 de la compañía, que es la primera plataforma de computación móvil de inteligencia artificial de Huawei con una unidad de procesamiento neural dedicada (NPU). Según Yu, “el Kirin 970 es el primero de una serie de nuevos avances que traerá poderosas funciones de IA a nuestros dispositivos y los llevará más allá de la competencia”.

Por otro lado, este nuevo chipset se posiciona como una plataforma abierta para la inteligencia artificial móvil, que entrará en funcionamiento con el próximo smartphone Mate 10 de Huawei, que saldrá a finales de este año.

Redacción

 

En la Computación cuántica, menos es más

Un grupo de investigadores de Canadá descubrió la manera de crear bloques de construcción, que son clave para la computación cuántica, a partir de chips fotónicos personalizados. Este procesador puede ser manipulado como dos ‘quiddes’, dígitos de computación cuántica. Cada uno puede tener diez valores posibles.
Si las computadoras clásicas operan los valores en secuencia, los equipos cuánticos son capaces de expresar simultáneamente todos los valores posibles de una variable, dejando en evidencia la respuesta correcta.

No todos los problemas informáticos se benefician de este tratamiento, pero es particularmente útil en la factorización de grandes números. Los elementos de almacenamiento de las computadoras cuánticas están hechos de material inherentemente inestable, y deben estar enlazados para trabajar juntos. Cuantos más elementos hay, más difícil es mantenerlos enlazados y funcionando durante el tiempo suficiente para realizar un cálculo.

El elemento cuántico más simple es el qubit bidimensional, un bit cuántico que puede contener valores de cero y uno. Con seis, un computador podría obtener todos los valores posibles. Pero eso requiere mantener el estado cuántico de estos seis componentes.

El año pasado, un grupo de investigadores rusos sugirió que en lugar de construir los equipos con qubits sería más fácil mantener un número menor de qudits, cada uno capaz de mantener una mayor gama de valores. Mostraron cómo hacer un qudit de cinco dimensiones,  que tendría mayor poder de cálculo que un ordenador cuántico con dos qubits.

Ahora, en Canadá han demostrado que su chip fotónico puede enlazar dos quidds de diez dimensiones, almacenando una mayor gama de valores que un ordenador de seis qubits, pero que requiere la estabilización de solo dos elementos.

Usando el mismo chip, aseguran, debería ser posible generar un equivalente a un ordenador de 12 qubits. Por ejemplo, IBM conectó un equipo de 16 qubits a su nube en mayo, y Google, por su parte, espera tener un ordenador de 49 qubits a finales de año.

Peter Sayer

HPE presenta una computadora diseñada para el Big Data

Hewlett Packard Enterprise (HPE) presentó hoy el último hito del proyecto de investigación The Machine.

The Machine, que es el mayor programa de investigación y desarrollo en la historia de la compañía, está enfocado en ofrecer un nuevo paradigma llamado Cómputo Basado en Memoria (Memory-Driven Computing), una arquitectura diseñada específicamente para la era del Big Data.

“Los secretos de la próxima innovación científica será capaz de cambiar la industria o la próxima tecnología capaz de alterar la forma de vivir se esconden, visibles, detrás de las montañas de datos que creamos todos los días”, afirmó Meg Whitman, CEO de Hewlett Packard Enterprise.

El prototipo presentado tiene 160 terabytes (TB) de memoria, lo que lo hace capaz de trabajar simultáneamente con cinco veces los datos que contienen todos los libros de la Biblioteca del Congreso, lo que equivale a aproximadamente 160 millones de libros. Nunca hasta ahora fue posible almacenar y manipular conjuntos de datos completos de ese tamaño en un sistema de memoria única, y esto es solo una pequeña muestra del potencial del Cómputo Basado en Memoria.

Consecuencias de escalabilidad

Basado en el prototipo actual, HPE espera que la arquitectura pueda escalar con facilidad a un sistema de memoria única a escala de exabyte y, más allá de eso, a un conjunto de memoria casi ilimitado de 4,096 yottabytes. Para tener una idea, eso equivale a 250,000 veces todo el universo digital completo actual.

Con esa cantidad de memoria, será posible trabajar simultáneamente con las historias clínicas de todos los habitantes del planeta; con cada porción de datos de Facebook; con todos los viajes de los vehículos autónomos de Google; y con todos los conjuntos de datos de la exploración espacial al mismo tiempo, lo que permitirá obtener respuestas y descubrir nuevas oportunidades a una velocidad sin precedentes.

El Cómputo Basado en Memoria pone a la memoria, y no al procesador, en el centro de la arquitectura del cómputo. Al eliminar las ineficiencias relacionadas con la forma en que la memoria, el almacenamiento y los procesadores interactúan en los sistemas tradicionales actuales, el Cómputo Basado en Memoria reduce el tiempo necesario para procesar problemas complejos de días a horas, de horas a minutos y de minutos a segundos, para proporcionar inteligencia en tiempo real.

Especificaciones técnicas

El nuevo prototipo incluye:

160 TB de memoria compartida dispersos en 40 nodos físicos, interconectados usando un protocolo de tejido de alto rendimiento.

Un sistema operativo (SO) optimizado basado en Linux que ejecuta en ThunderX2, el SoC de punta de segunda generación optimizado para carga de trabajo de doble socket ARMv8-A, de Cavium.

Enlaces de comunicación fotónicos/ópticos, que incluyen el nuevo módulo de fotónica X1, que están en línea y operativos.

N. de P. HPE

IBM lanza su nueva computadora cuántica de 16 bits

IBM anuncia que ha construido y probado con éxito sus procesadores de computación cuántica universal más potentes. El primer procesador actualizado estará disponible para su uso por desarrolladores, investigadores y programadores para explorar la computación cuántica usando un procesador cuántico real sin costo alguno a través de IBM Cloud. Además, la empresa tiene un prototipo de sistema de 17 bits que trabaja en los laboratorios, que dice que ofrece el doble de rendimiento de la máquina de 16 bits.

Este nuevo prototipo de procesador comercial, será el núcleo de los primeros sistemas comerciales IBM Q de acceso anticipado. Lanzado en marzo de 2017, IBM Q es una iniciativa de primera industria para construir sistemas de computación cuántica universal comercialmente disponibles para aplicaciones empresariales y científicas. Los sistemas y servicios de IBM Q se entregarán a través de la plataforma IBM Cloud.

La multinacional abrió el año pasado el acceso público a sus procesadores cuánticos, para servir como una herramienta de habilitación para la investigación científica, un recurso para las aulas universitarias. Hasta la fecha, los usuarios han ejecutado más de 300,000 experimentos cuánticos en la nube de IBM.

Con la introducción de dos nuevos procesadores para IBM Q, la compañía está construyendo la base para resolver problemas prácticos en negocios y ciencia que son intratables incluso con los sistemas de computación clásicos más poderosos de hoy.

“Las importantes mejoras de ingeniería anunciadas hoy permitirán a IBM escalar futuros procesadores para incluir 50 o más qubits y demostrar capacidades computacionales más allá de los sistemas clásicos de computación”, dijo Arvind Krishna, vicepresidente senior y director de IBM Research and Hybrid Cloud. Las poderosas mejoras a nuestros sistemas cuánticos, entregados a través de IBM Cloud, nos permiten imaginar nuevas aplicaciones y nuevas fronteras para el descubrimiento que son prácticamente inalcanzables usando solo ordenadores clásicos”.

El rendimiento de la computación cuántica es difícil de comparar, depende de la calidad de los qubits en el procesador, que se basan en fenómenos cuánticos de corto alcance a nivel atómico y, por lo tanto, son algo inestables.

IBM está proponiendo una nueva medida del rendimiento de la computación cuántica que llama volumen cuántico, que tiene en cuenta las interconexiones entre los qubits y la fiabilidad de los cálculos que realizan.

Redacción

Microprocesadores de auto montaje para dar largo plazo a la Ley de Moore

Uno de los temas que más está dando que hablar en el mundo de la robótica es el auto ensamblaje, así como cualquier técnica que no requiera intervención humana. Una tecnología que podría traer grandes avances a los chips, que están consiguiendo que los dispositivos informáticos se estén reduciendo gracias a tamaños más pequeños de los procesadores, alineados con la Ley de Moore. Sin embargo, éstos están alcanzando su límite físico.

Pero, investigadores del MIT (Instituto de Tecnología de Massachusetts) y de la Universidad de Chicago están implementando una técnica de auto montaje que podría servir para añadir más capacidades a los chips más pequeños. Sería una manera, también, de continuar con dicha ley de Moore, vigente desde hace más de 50 años.

La investigación gira en torno al autoensamblaje de los cables en los chips. De este modo, los materiales llamados copolímeros de bloques se expandirían y se montarían en diseños y estructuras predefinidas. “La implantación de esta tecnología supondrá un paso más en el avance de la fabricación de los chips existentes”, dijo Karen Gleason, profesora del departamento de ingeniería del MIT. “El proceso de hoy en día implica la quema de patrones de circuito en las obleas de silicio a través de máscaras que utilizan longitudes de onda de luz”.

Actualmente, se están construyendo chips de 10 nanómetros aunque se espera pronto la llegada de los mini procesadores de 7 nm.

Redacción

 

IBM muestra el potencial de TrueNorth, su procesador de emulación cerebral

IBM se ha enfocado en el desarrollo de un equipo de cómputo capaz de ser tan decisivo e inteligente como un ser humano. Por el momento, ya ha logrado bastantes avances. De hecho, ha diseñado el chip TrueNorth, emula las funciones de un cerebro humano. La compañía está realizando pruebas para demostrar que la velocidad y la eficiencia de los chips pueden ser comparadas a las de los equipos actuales.

El gigante azul asegura que TrueNorth es capaz de participar en Deep Learning y tomar decisiones basadas en asociaciones y probabilidad. Además, puede hacerlo mientras consume una porción de la energía utilizada por otros chips en otras computadoras con el mismo propósito.

“Sus capacidades abrirán las posibilidades de incorporar la inteligencia a todo el mundo de la computación a través de smartphones, Internet de las Cosas, robots, automóviles, la nube o, incluso, la supercomputación”, ha expresado la organización en su blog oficial. A principios de año, la empresa ya probó el chip en el ordenador NS16e, siguiendo el modelo del cerebro. El equipo podía ser utilizado para imágenes, el habla y el reconocimiento de patrones a través de una red neuronal de unidades de procesamiento.

La mente humana tiene más de 100,000 millones de neuronas que se comunican entre sí mediante conexiones llamadas sinapsis.  La corteza cerebral es la responsable del reconocimiento visual mientras que las demás partes se encargan de la función motora. Al igual que el cerebro, NS16e tiene “neuronas digitales”, a menor escala, el procesador está equipado con 16 chips TrueNorth. Cada chip tiene un millón de neuronas y 256 millones de sinapsis. Así, la computadora ha rediseñado la memoria y la comunicación con los subsistemas para facilitar el procesamiento de datos de bajo consumo.

Según la tecnológica, el procesador puede clasificar datos de imágenes entre 1,200 y 2,600 fotogramas por segundo mientras consume solo de 25 a 275 milivatios. Además, puede identificar y reconocer los patrones de las imágenes generadas por unas 100 cámaras a 24 fotogramas por segundo. Puede hacerlo a través de un teléfono inteligente sin necesidad de recargar la batería en días.

El chip supondría un gran avance en cuanto a la energía y la eficiencia de los servidores actuales, que funcionan con chips convencionales como GPU, CPU y FPGA. Facebook, Google, Microsoft y Baidu usan deep learning para encontrar respuestas relacionadas con la formación de imágenes y el reconocimiento de voz.

El potencial de deep learning salta a la vista en los autos autónomos, los cuales utilizan potentes ordenadores para que el vehículo reconozca señales, carreteras u otros objetos. Por el momento, es pronto para ver todas las posibilidades de este chip. IBM comenzó el desarrollo en 2004 y simuló un modelo informático a escala del cerebro de un gato en 2009. Un prototipo de chip en el año 2011 tenía 256 neuronas digitales con capacidades de reconocimiento de patrones. Sin embargo, un equipo completo con un chip que emule toda la actividad cerebral tardará bastante en llegar.

Finalmente, la compañía está construyendo también un equipo de cómputo cuántico como opción para reemplazar a las PC y servidores actuales.

Agam Shah

 

HPE lanzará nuevos servidores Itanium a mediados de 2017

Hewlett Packard Enterprise tiene planeado lanzar nuevos servidores Itanium a mediados de 2017, empleando el prometido chip Kittson de Intel que sustituirá  al actual Itanium 9500. El adelanto ha sido confirmado por Ken Surplice, gerente de la división de servidores de HPE en EMEA.

El directivo señaló que la compañía va a actualizar sus servidores Intefrity de HP-UX y OpenVMS con los próximos procesadores de Intel Itanium Kitsson en 2017. Una de las razones de este paso es la de controlar los costes. “Cada cliente busca gestionar y controlar sus propios gastos. Esto significa que se requieren menos núcleos, es decir, se necesitan menos licencias para el rendimiento del servidor”, declaró Surplice.

El anuncio se mancha dado a que se realiza en medio de la polémica de HPE, con otro de los grandes fabricantes de software que cobra por cada núcleo de sus licencias, Oracle. A principios de mes, un jurado estadounidense dictaminó que finalmente Oracle tendrá que pagar los 3.000 millones de dólares que le demandaba HPE por haber dejado de soporte al hardware de esta última compañía basado en Itanium. Según HPE, la decisión de Oracle de cortar el soporte para los productos de la compañía que usaban el chip tuvo un gran impacto en las ventas. Según estimaciones, éstas ascendieron a 1.7000 millones de dólares en ventas y otros 1.300 millones de dólares en ventas futuras.

Intel señala que ha estado trabajando en la actualización de Kittson desde 2011, y HPE tiene servidores Itanium en su hoja de ruta por lo menos hasta 2025, y se ha comprometido a lanzar Unix de HP-UX para esa fecha. Este tiempo podría resultar demasiado para la industria TI, pero Itanium tiene la suficiente garantía como para ejecutar cargas de trabajo en el sector bancario, donde los legados pueden durar mucho tiempo.

Redacción

 

HPE gana 3 000 millones a Oracle por el caso Itanium

Debido al fallo, Oracle deberá pagar 3 000 millones de dólares a Hewlett Packard Enterprise (HPE) por haber dejado de dar soporte al hardware de esta última compañía basado en el procesador Itanium. En Oracle aseguran que recurrirán esta decisión.

Lo más destacado entre el litigio entre Hewlett Packard Enterprise y Oracle llevan librando desde hace años por el caso Itanium. Un jurado estadounidense ha dictaminado finalmente que Oracle deberá pagar los 3 000 millones de dólares que demandaba Hewlett Packard Enterprise por haber dejado de dar soporte al hardware de esta última compañía basado en el procesador Itanium.

Fue en 2011 cuando la antigua HP (hasta noviembre de 2015 no se dividiría en dos empresas: HP Inc y HPE) demandó a Oracle alegando que la decisión de la compañía de dejar de ofrecer futuras versiones de su popular software de base de datos para Itanium violaba el acuerdo que habían firmado en 2010. Oracle, por su parte, siempre ha argumentado que parte del acuerdo eran sólo “un apretón de manos de las empresas” y no imponían ningunas obligaciones a largo plazo.

Pero, según HP, la decisión de Oracle de cortar el soporte para los productos de la compañía que usaban el chip de Itanium tuvo un gran impacto en las ventas. Según estimaciones de los abogados de HPE, la decisión de Oracle supuso pérdidas de 1700 millones de dólares en ventas para HP/HPE y otros 1.300 millones de dólares en futuras ventas.

Segundo caso perdido por Oracle en los últimos meses

Oracle, por su parte, ya ha anunciado que recurrirá esta decisión. La compañía, de hecho, no se encuentra precisamente en una buena racha judicial. El pasado mes de mayo perdía otro caso en el que había demandado a Google por infringir supuestamente su propiedad intelectual al copiar partes de Java en Android. La demanda de Oracle en este caso implicaba la solicitud de una compensación de 9 000 millones de dólares. Este caso también ha sido recurrido por la compañía cofundada por Larry Ellison.

IDG.es