Etiqueta: microprocesador

Qualcomm le muestra a Apple que la innovación llegó antes a equipos Android

La compañía fabricante de microprocesadores para dispositivos móviles, ha publicado en su blog una tabla con una relación de tecnologías que acaban implementando los dispositivos Android mucho antes de lo que lo hagan los iPhone en lo que se atreve a destacar que siempre va por detrás de esta innovación.

En concreto, el post lo firma Francisco Cheng, director Technical Marketing de Qualcomm, quien destaca que su compañía trabaja de cerca con Google y con las marcas OEM líderes del mercado, incluyendo Samsung, LG, HTC y Motorola/Lenovo para conseguir que el ecosistema Android siga siendo vibrante para el consumidor final.

En la tabla publicada en la noticia, incluida en el post vertido por el directivo de la compañía, puede apreciarse en los campos y áreas en los que los dispositivos Android lideran la implementación de nuevas tecnologías y funcionalidades frente a los iPhone de Apple. Por citar algún ejemplo, la implementación del lector de huellas dactilares bajo el cristal de la pantalla, la carga rápida presente en muchos modelos, el reconocimiento facial y la autenticación por Iris presente en los Galaxy S8, Note 8 y LG V30.

También hace alusión al apartado de conectividad, con el soporte de Gigabit LTE en los smartphones, la modalidad de Bluetooth 5.0, la conectividad Wifi 802.11ad, así como las pantallas de tipo OLED Display en el LG Flex 2, o la de tipo 4K en el Xperia XZ Premium de Sony.

Muchas de todas estas novedades están presentes en la nueva generación del iPhone 8 y iPhone X, pero como menciona Cheng, ya están presentes desde principios de año en una gran variedad de teléfonos con Android. Desde la realidad aumentada hasta el Gigabit LTE, los procesadores de Qualcomm dotan a los smartphones de nuevas funcionalidades que permiten que los usuarios puedan ser más productivos. Es el caso del soporte de la nueva conectividad con las redes móviles, que llega a ser hasta 135 veces más rápido que los primeros teléfonos con Android de hace nueve años.

Alfonso Casas

 

Huawei presenta la primera plataforma de procesamiento para inteligencia artificial móvil en IFA

El CEO de Huawei, Richard Yu ha sido el encargado de inaugurar la Conferencia IFA que se celebra en Berlín donde ha reflejado la intención de la compañía de invertir en nuevos proyectos de inteligencia artificial.

“Al contemplar el futuro de los smartphones, vemos que nos encontramos en el origen de una nueva y emocionante era”, aseveró Richard Yu, consejero delegado de Huawei Consumer Business Group. “La inteligencia artificial móvil es la suma de IA en el propio dispositivo e IA en la nube. En Huawei mantenemos nuestro compromiso en el desarrollo de dispositivos con inteligencia propia, y hacerlo posible desarrollando capacidades que permitan hacer realidad el diseño coordinado de chips, dispositivos y servicios en la nube. Nuestro objetivo final es ofrecer una experiencia de uso significativamente superior. Kirin 970 es el primero en una nueva serie de avances que se traducirán en potentes funciones de IA para nuestros dispositivos, y que nos posicionarán frente a nuestros competidores”.

Estos nuevos desarrolladores en inteligencia artificial requieren un esfuerzo conjunto en toda la cadena de valor, involucrando decenas de millones de desarrolladores, y la experiencia y retroalimentación de cientos de millones de usuarios.

El nuevo chipset Kirin 970 de la compañía, que es la primera plataforma de computación móvil de inteligencia artificial de Huawei con una unidad de procesamiento neural dedicada (NPU). Según Yu, “el Kirin 970 es el primero de una serie de nuevos avances que traerá poderosas funciones de IA a nuestros dispositivos y los llevará más allá de la competencia”.

Por otro lado, este nuevo chipset se posiciona como una plataforma abierta para la inteligencia artificial móvil, que entrará en funcionamiento con el próximo smartphone Mate 10 de Huawei, que saldrá a finales de este año.

Redacción

 

HPE agrega seguridad basada en silicio a sus nuevos servidores

Los ciberataques aumentan a gran medida, de hecho, las brechas de seguridad causadas se han atribuido generalmente a los ataques al firmware. Según un estudio de ISACA, más del 50% de los profesionales especializados en ciberataques han informado de al menos un incidente de firmware infectado por malware el pasado año.

HPE quiere responder a esta amenaza y para ello ha desarrollado un chip de silicio seguro diseñado a la medida para asegurar que los servidores no ejecuten el código firmware infectado. El chip de silicio de HPE que llevan sus servidores ProLiant incorpora la seguridad directamente en el chip de iLO, creando una huella dactilar inalterable en el silicio y evitando que los servidores arranquen a menos que el firmware coincida con la huella.

“Una brecha de seguridad en el firmware es uno de los problemas más difíciles de detectar y puede ser uno de los peligros más dañinos. Por desgracia, el firmware se ignora a menudo en las conversaciones entre los directivos sobre seguridad en centros de datos, y los ciberdelincuentes se aprovechan de ello, lanzando nuevos ataques dirigidos a este componente informático”, afirmó Patrick Moorhead, presidente y analista en la empresa de asesoría y análisis tecnológico Moor Insights & Strategy. “Aunque muchos servidores llevan incorporados algún nivel de seguridad del hardware, HPE está creando una seguridad del firmware indisolublemente ligada al silicio elaborado a medida, para ayudar a los clientes a protegerse de esos ataques maliciosos”.

A su vez, Alain Andreoli, vicepresidente primero y director general del Data Center Infrastructure Group en HPE, añadió que “los clientes no deberían correr riesgos en seguridad, en la agilidad de la infraestructura definida por software y en la flexibilidad que proporciona la economía de la nube. Con nuestro portfolio de equipos ProLiant Gen10, HPE ofrece a los clientes la mejor experiencia informática en el sector, con una seguridad inigualable”.

La nueva experiencia informática ofrece a los clientes la posibilidad de acelerar las aplicaciones y la obtención de conocimientos empresariales en toda la infraestructura definida por software. HPE anunció nuevas actualizaciones, incluyendo: HPE OneView 3.1, HPE Intelligent System Tuning y HPE Synergy for Gen10.

Redacción

 

IBM desarrolla el primer chip de cinco nanómetros del mercado

El gigante azul está colaborando con Samsung en el desarrollo de su red de socios GlobalFoundries, el primer chip de silicio de 5nm del mundo de 30,000 millones de transistores. Un dispositivo que parecía imposible para la industria a tan corto plazo toda vez que llega en un momento en el que la ley de Moore está más en duda que nunca. De hecho, Intel, uno de los grandes fabricantes mundiales, se había aferrado a dicho axioma para tratar de producir uno de siete nanómetros en los próximos meses.

Por el momento, el gigante azul no ha dicho más detalles del procesador y será en los próximos meses cuando la industria pueda conocer más características, aunque el aumento de rendimiento de esta nueva pieza podrá ser de ayuda para acelerar la computación cognitiva, el Internet de las cosas y otras aplicaciones que necesiten llevar grandes cantidades de datos a la nube. Asimismo, tal y como informa la compañía, el chip podría suponer un ahorro de energía tal que las baterías de los smartphones podrían durar entre dos y tres veces más que las actuales.

Una de las claves del proceso de creación ha sido la utilización del silicio como material principal, en lugar del estándar FinFET. “El avance en la tecnología de semiconductores es esencial”, señala Arvind Krishna, director de IBM Research. “Por ello, desde IBM exploramos constantemente con nuevas arquitecturas y materiales diferentes que exploten los límites de esta industria y nos ayuden en el mercado con tecnologías como mainframe o sistemas cognitivos”.

En contraposición con los chips actuales de 10nm, este nuevo dispositivo puede mejorar el rendimiento de la potencia fija en un 40% y en un 75% el ahorro de energía.

Redacción

 

Microprocesadores de auto montaje para dar largo plazo a la Ley de Moore

Uno de los temas que más está dando que hablar en el mundo de la robótica es el auto ensamblaje, así como cualquier técnica que no requiera intervención humana. Una tecnología que podría traer grandes avances a los chips, que están consiguiendo que los dispositivos informáticos se estén reduciendo gracias a tamaños más pequeños de los procesadores, alineados con la Ley de Moore. Sin embargo, éstos están alcanzando su límite físico.

Pero, investigadores del MIT (Instituto de Tecnología de Massachusetts) y de la Universidad de Chicago están implementando una técnica de auto montaje que podría servir para añadir más capacidades a los chips más pequeños. Sería una manera, también, de continuar con dicha ley de Moore, vigente desde hace más de 50 años.

La investigación gira en torno al autoensamblaje de los cables en los chips. De este modo, los materiales llamados copolímeros de bloques se expandirían y se montarían en diseños y estructuras predefinidas. “La implantación de esta tecnología supondrá un paso más en el avance de la fabricación de los chips existentes”, dijo Karen Gleason, profesora del departamento de ingeniería del MIT. “El proceso de hoy en día implica la quema de patrones de circuito en las obleas de silicio a través de máscaras que utilizan longitudes de onda de luz”.

Actualmente, se están construyendo chips de 10 nanómetros aunque se espera pronto la llegada de los mini procesadores de 7 nm.

Redacción

 

Este microprocesador podría revolucionar la seguridad del IoT

Un grupo de ingenieros de la empresa surcoreana SK Telecom han desarrollado un pequeño chip que podría ayudar a asegurar completamente las comunicaciones en varios dispositivos electrónicos portátiles y IoT.

El procesador es de solo cinco milímetros cuadrados y es capaz de generar matemáticamente números aleatorios que son la base de los sistemas de encriptación altamente seguros. Su producción en una escala tan pequeña –menor a la del tamaño de una microSD- no había sido posible hasta la fecha. Éste fue presentado ayer en Barcelona durante la celebración del Mobile World Congress y se presume costará solo unos pocos euros una vez que llegue al mercado.

“El dispositivo funciona explotando lo que conocemos como ‘disparo cuántico”, aseguró Sean Kwak, director del laboratorio de tecnología cuántica de SK Telecom. Dentro del chip dos LED producen fotones que rebotan en las paredes y que son detectados por un sensor de imagen CMOS que también se construye dentro del microprocesador. El ‘ruido de disparo’ es resultado de esa detección y es de naturaleza aleatoria.

Los números aleatorios son sumamente importantes en la criptografía porque se utilizan para generar claves de cifrado. Si éstos no son absolutamente aleatorios podrían ser usados para determinar el número original mediante un exhaustivo análisis y así romper el cifrado.

La capacidad de generar números aleatorios dentro de un chip tan pequeño podría mejorar significativamente la seguridad de los teléfonos inteligentes, los coches inteligentes y los dispositivos IoT. En estos últimos, la naturaleza de bajo coste de los productos a menudo significa que los desarrolladores utilizan generadores de cifras cuasi-aleatorias o incluso una clave fija que nunca cambia durante la vida del dispositivo.

SK Telecom es una compañía que ha estado activa en la encriptación cuántica y en los sistemas de seguridad desde el año 2011 cuando formó un laboratorio en su centro de I+D en Seongnam, cerca de Seúl.

Martyn Williams

 

Intel podría instalar su Core i7 en automóviles autónomos

La empresa de microprocesadores estaría cerca de anunciar un potente procesador diseñado específicamente para estos vehículos en la nueva edición del CES, el cual se celebrará en Las Vegas el próximo mes de enero.

Hace 16 años, un pequeño chip llamado Transmeta obligó a Intel a reequipar sus procesadores de las computadoras de escritorio para satisfacer las demandas de los portátiles. Hoy día, la compañía está adaptando sus procesadores de PC a un mercado completamente nuevo: el de los autos autónomos.

El diario The New York Times, señala que Intel ha realizado una alianza con Mobileye, el antiguo cerebro del sistema de piloto automático de Tesla Motors, y con el fabricante de piezas de automóviles Delphi para que el Core i7 sea mando principal de los vehículos de conducción autónoma, junto con los chips EyeQ de Mobileye.

Intel utilizará “un procesador desconocido y más potente que será revelado en unas pocas semanas”, informabael diario estadounidense. Probablemente, la presentación del nuevo procesador se llevará a cabo durante la feria de tecnología CES el próximo mes de enero.

A principios de noviembre, la compañía californiana anunció una asignación de 250 millones de dólares a estos autos como parte de su compromiso de “hacer plenamente la conducción autónoma una realidad”, explicaba Brian Krzanich, director ejecutivo de Intel.

Intel y Mobileye también han acordado trabajar con BMW para conseguir poner sobre la pista un auto de conducción autónoma en el año 2021. Para ello, Intel ha establecido un grupo impulsor dentro de la compañía encabezado por su jefe de IoT, Doug Davis.

Según el Times, el Core i7 de Intel no llegará a los autos hasta dentro de dos años. Estos chips serán capaces de realizar “20 billones de operaciones matemáticas por segundo”, afirma el medio. Además, ha señalado que una versión posterior tendrá dos o tres veces más potencia de procesamiento.

Por su parte, Delphi y Mobileye demostrarán sus capacidades autónomas en un trayecto de 6.3 millas durante el CES, combinando la conducción urbana con la conducción en carretera. Las compañías afirman que sus vehículos de conducción autónoma tendrán una mayor precisión para conocer su geolocalización, incluso sin GPS, y que serán capaces de detectar vehículos ubicados en cualquier ángulo y de calcular el espacio libre en situaciones inusuales.

Mark Hachman

 

Intel presenta familia de chips inteligentes para IoT

La firma de microprocesadores, ha realizado el lanzamiento de la serie Atom E3900, estos chips están dotados de gráficos y de procesamiento de imágenes más potentes.

El despliegue del Internet de Cosas (IoT) ha provocado que los dispositivos se conviertan en nuestros ojos, oídos e, incluso, en nuestros consejeros. Es por ello que Intel acaba de presentar los nuevos procesadores de la serie Atom E3900, unos chips que cuentan con una mejor visión por computadora y una nueva herramienta que mide el tiempo de arranque del sistema.

Estos chips están pensados para tener un uso en una amplia gama de aplicaciones, en la que se incluyen fabricación y vigilancia, y pronto serán integrados en una versión específica para coches, llamada A3900, enfocada en el procesamiento de imágenes.

Los E3900 poseen más potencia informática que sus predecesores -casi dos veces más-, así como velocidades de memoria más rápidas y mayor ancho de banda.

De esta forma, el rendimiento de sus gráficos es 2.9 veces más alto que el de la generación anterior, y los nuevos chips pueden reproducir vídeos 4K (Ultra Alta Definición) en hasta tres pantallas independientes, según Intel.

Estas tres pantallas podrían ser el cuadro de mandos virtual de un coche y dos pantallas para los pasajeros en los respaldos de los asientos. El nuevo procesador puede asegurar que la pantalla del salpicadero no se vea afectada por la actividad de las pantallas de entretenimiento, explica Ken Caviasca, vicepresidente del grupo IoT de Intel.

intel-atom-e3900

Los nuevos procesadores están optimizados en cuanto a captura y procesamiento de imágenes. Tienen cuatro unidades de procesamiento vectorial para reducir el ruido de los vídeos, mejorar la calidad de las imágenes con poca luz y conservar más color.

En una grabadora de vídeo en red (NVR), un E3900 podría transmitir vídeos 1080p de 15 cámaras y mostrar sus feeds simultáneamente a 30 frames por segundo en una pared de vídeo, asegura Caviasca.

Para usos industriales, la serie E3900 utiliza la tecnología TCC de Intel (Time Coordinated Computing), la cual otorga al chip un control más estricto de la sincronización de las acciones de un dispositivo.

Stephen Lawson

 

IBM muestra el potencial de TrueNorth, su procesador de emulación cerebral

IBM se ha enfocado en el desarrollo de un equipo de cómputo capaz de ser tan decisivo e inteligente como un ser humano. Por el momento, ya ha logrado bastantes avances. De hecho, ha diseñado el chip TrueNorth, emula las funciones de un cerebro humano. La compañía está realizando pruebas para demostrar que la velocidad y la eficiencia de los chips pueden ser comparadas a las de los equipos actuales.

El gigante azul asegura que TrueNorth es capaz de participar en Deep Learning y tomar decisiones basadas en asociaciones y probabilidad. Además, puede hacerlo mientras consume una porción de la energía utilizada por otros chips en otras computadoras con el mismo propósito.

“Sus capacidades abrirán las posibilidades de incorporar la inteligencia a todo el mundo de la computación a través de smartphones, Internet de las Cosas, robots, automóviles, la nube o, incluso, la supercomputación”, ha expresado la organización en su blog oficial. A principios de año, la empresa ya probó el chip en el ordenador NS16e, siguiendo el modelo del cerebro. El equipo podía ser utilizado para imágenes, el habla y el reconocimiento de patrones a través de una red neuronal de unidades de procesamiento.

La mente humana tiene más de 100,000 millones de neuronas que se comunican entre sí mediante conexiones llamadas sinapsis.  La corteza cerebral es la responsable del reconocimiento visual mientras que las demás partes se encargan de la función motora. Al igual que el cerebro, NS16e tiene “neuronas digitales”, a menor escala, el procesador está equipado con 16 chips TrueNorth. Cada chip tiene un millón de neuronas y 256 millones de sinapsis. Así, la computadora ha rediseñado la memoria y la comunicación con los subsistemas para facilitar el procesamiento de datos de bajo consumo.

Según la tecnológica, el procesador puede clasificar datos de imágenes entre 1,200 y 2,600 fotogramas por segundo mientras consume solo de 25 a 275 milivatios. Además, puede identificar y reconocer los patrones de las imágenes generadas por unas 100 cámaras a 24 fotogramas por segundo. Puede hacerlo a través de un teléfono inteligente sin necesidad de recargar la batería en días.

El chip supondría un gran avance en cuanto a la energía y la eficiencia de los servidores actuales, que funcionan con chips convencionales como GPU, CPU y FPGA. Facebook, Google, Microsoft y Baidu usan deep learning para encontrar respuestas relacionadas con la formación de imágenes y el reconocimiento de voz.

El potencial de deep learning salta a la vista en los autos autónomos, los cuales utilizan potentes ordenadores para que el vehículo reconozca señales, carreteras u otros objetos. Por el momento, es pronto para ver todas las posibilidades de este chip. IBM comenzó el desarrollo en 2004 y simuló un modelo informático a escala del cerebro de un gato en 2009. Un prototipo de chip en el año 2011 tenía 256 neuronas digitales con capacidades de reconocimiento de patrones. Sin embargo, un equipo completo con un chip que emule toda la actividad cerebral tardará bastante en llegar.

Finalmente, la compañía está construyendo también un equipo de cómputo cuántico como opción para reemplazar a las PC y servidores actuales.

Agam Shah

 

La Ley de Moore llegaría a su final en cinco años

La teoría que dicta, el tamaño de los transistores se reduce a la mitad cada dos años podría llegar a su fin en 2021. La Ley de Moore venía demostrando que el número de estos pequeños componentes se doblaba cada dos años, respecto al aumento de las prestaciones de cualquier dispositivo, al mismo tamaño.

Esto supondrá que la progresiva reducción del tamaño se estancará desde 2020 a 2025, aunque no es la muerte definitiva de la famosa Ley, ya que se prevé que muchos fabricantes vayan apilando componentes de forma vertical, a modo de rascacielos, para aprovechar al máximo el espacio disponible en una placa, creando múltiples capas de transistores. Este método podría “aumentar la densidad de transistores, superando las previsiones de la Ley de Moore, según reconocen los expertos del IEEE.

El mercado de dispositivos móviles ha impulsado la miniaturización de los componentes en busca de mayor rendimiento y funcionalidad; y también lo ha hecho Internet de las Cosas.

Aunque en su día proliferaron los fabricantes de microprocesadores, ya sea Intel, TSMC, Samsung y GlobalFoundries (ésta última absorbió las plantas de fabricación de chips de IBM).

Cada una de estas empresas tiene su propia hoja de ruta y son “muy competitivas”. Como destaca el analista de VLSI Research, Dan Hutcheson, “es algo así como un juego entre todos, que comienza con un principio de temporada suave pero que tendrá unos playoffs bastante duros”.

Pero, incluso si la Ley de Moore llega a su fin, esto no significará que los chips no sigan mejorando. El último informe del IEEE al respecto constata que el hecho de no poder seguir reduciendo las dimensiones, abre el camino a una reflexión sobre los aspectos que realmente importan, y no solo el tamaño.

Cabe destacar, que este tema se abordará en octubre durante la primera conferencia internacional Rebooting Computing, que organizará el IEEE.

Redacción