Etiqueta: memoria

La Pavilion All-in-One 27 de HP es la primera con memoria Optane

Los entusiastas de los juegos de PC llevan ya tiempo esperando que, esta nueva tecnología de la que HP tanto ha hablado, se haga realidad, algo que parece que con el anuncio de este nuevo equipo Pavilion y la empresa por fin pone como disponible la configuración de agregar Optane.

La memoria Intel Optane con la que ha sido dotado el Pavilion All-in-One 27, puede hacer que el sistema marque las diferencias frente a sus marcas competidoras. Este sistema es posible adquirirlo con una unidad SATA de 1 TB de 7200 rpm, y gracias a la presencia del nuevo tipo de memoria Optane, las velocidades y rendimiento con aplicaciones y juegos serán superiores a los equipos que se basan en discos SSD.

Hoy en día, la mayoría de los usuarios utilizan discos duros tradicionales para sus necesidades de almacenamiento. De hecho, el 79% de las PCs de escritorio todavía emplean discos duros tradicionales con partes mecánicas como unidades primarias de almacenamiento. La cuestión es que, aunque los discos duros satisfacen esta necesidad de almacenamiento, también ralentizan los sistemas y alargan el tiempo de respuesta y ejecución, suponiendo un cuello de botella importante. Aquí es donde entra en juego la memoria Intel Optane, aumentando la velocidad de carga de aplicaciones, juegos y archivos de gran tamaño para eliminar la latencia.

La memoria se comercializa en forma de módulos de memoria de 16 o 32 GB para equipos de sobremesa, con posibilidad de añadirla como si se fuera una memoria RAM sobre una placa base compatible. Varios fabricantes como HP, Dell, Lenovo, Asus y Acer ya anunciaron que tendrían configuraciones de equipos para la segunda mitad de año. Para todos aquellos usuarios que dispongan de sistemas compatibles, decirles que la comercialización de los módulos ya es una realidad. En Amazon se puede encontrar los módulos Intel SSD M.2 Optane de 32 GB por 79 dólares, mientras que la de 16 GB parte de los 46 dólares.

Alfonso Casas

 

 

 

 

 

The Machine, una computadora construida para la era del Big Data

El prototipo de Hewlett Packard Enterprise (HPE) todavía no está cerca de lo que la compañía imaginó con The Machine cuando se anunció por primera vez hace tres años, pero sigue teniendo el objetivo de impulsar la computación en subsistemas de memoria. “Los secretos del próximo gran avance científico, la innovación que cambia la industria o la tecnología que altera la vida se esconden a la vista de las montañas de datos que creamos todos los días”, asegura Meg Whitman, CEO de HPE. “Para cumplir con esta promesa, no podemos confiar en las tecnologías del pasado, necesitamos una computadora construida para la era de los grandes datos”.

La característica principal es que contiene 160 TB de memoria, tres veces más que el mayor superordenador HPE Superdome X, y es capaz de sostener conjuntos de datos enteros de grandes tamaños en un sistema de memoria única, lo que hará posible trabajar simultáneamente con cada una de las historias clínicas electrónicas de cada habitante del planeta, a la vez que, con cada pieza de datos de Facebook, con los datos de cada viaje de los coches autónomos de Google y de la exploración espacial.

“Creemos que la computación en memoria (memory-driven computing) es la solución para evolucionar la industria de la tecnología de manera que pueda permitir avances en todos los aspectos de la sociedad”, opina Mark Potter, CTO de HPE y director de Hewlett Packard Labs. “La arquitectura que hemos desvelado puede aplicarse a todas las categorías de computación, desde dispositivos inteligentes del borde de la red o Edge computing a supercomputadoras”.

Memory-Driven Computing utiliza la memoria, no el procesamiento, como el centro de la plataforma de computación para que el equipo tenga mayor rendimiento y eficiencia, por lo que reduce el tiempo necesario para procesar problemas complejos de días a horas.

Además, el ordenador cuenta con un sistema operativo basado en Linux optimizado que se ejecuta en ThunderX2, un chip servidor de segunda generación de la compañía Cavium.

“Cavium comparte la visión de HPE para la computación impulsada por la memoria y se enorgullece de colaborar con HPE en el programa The Machine”, dijo Syed Ali, presidente y CEO de Cavium Inc. “Las innovaciones de HPE en computación impulsada por memoria permitirán un nuevo paradigma de computación para una variedad de aplicaciones, incluyendo la próxima generación de centros de datos, cloud y computación de alto rendimiento”.

Sin embargo, se han detectado muchas fallas. El modelo inicial de The Machine se suponía que tenía memristors, un tipo de memoria y almacenamiento que podría ayudar a las computadoras a tomar decisiones basadas en datos que conservan.

“La máquina se encuentra en algún lugar entre las computadoras de hoy y los futuros sistemas como los ordenadores cuánticos. Pero todavía está a tres o cinco años de estar listo para la implementación práctica en los centros de datos”, señala Patrick Moorhead, analista principal de Moor Insights and Strategy.

Redacción

 

Apple tiene planeado limitar la memoria RAM de los próximos iPhone

Todo parece indicar que el próximo modelo de la manzana, el iPhone 8, tenga una RAM limitada a 3GB. Aquellos consumidores que deseen mayor memoria, deberán esperar al sucesor del iPhone 8, que no llegará hasta 2018 o 2019.

En este 2017 Apple lanzará dos iPhone, de 5’8 pulgadas con una pantalla AMOLED y de 5,5 pulgadas con pantalla LCD, ambos tendrán 3 GB de memoria. Además, saldrá un modelo de 4,7 pulgadas con una pantalla LCD que tendrá 2 GB de DRAM, según ha predicho la marca. El actual iPhone 7 Plus de 5,5 pulgadas tiene 3GB de memoria LPDDR4 mientras que el de 5,7 pulgadas tiene 2GB.

En el último trimestre, Apple alcanzó unas ventas de 52,900 millones de dólares. “Estamos muy orgullosos de informar de un buen trimestre, con un crecimiento de los ingresos que acelera desde el trimestre anterior y una gran demanda del iPhone 7 Plus”, asegura Tim Cook, consejero delegado de Apple. Además de anunciar el crecimiento, Apple señaló abiertamente la subida del precio de los componentes.

Más memoria, más costo

Ante la creciente demanda de memoria por parte de los usuarios, que incorporan cada vez más multimedia, juegos e incluso realidad virtual e inteligencia artificial, los fabricantes tienen que cubrir esa necesidad e integrar más memoria RAM. La compañía surcoreana Samsung ha logrado incorporar 6GB de RAM en el nuevo Galaxy S8+, pero por el momento sólo está disponible en Corea del Sur.

Debido a la escasez de los componentes que se utilizan en las memorias, los precios de estas se mantendrán al alza con un crecimiento de más del 10% este año. Esto ha provocado que los precios de los dispositivos móviles también aumenten.

De esta forma, agregar más memoria a los próximos dispositivos dará lugar a que el costo de su fabricación sea mayor, incrementando también el precio de venta, para poder mantener el margen de beneficios.

Las PC´s también se ven afectados

Un mercado que se ha visto muy afectado por el aumento del precio de las memorias es el de los PC´s, donde ha aumentado no sólo el precio de las memorias, sino también el de las pantallas, baterías y componentes.

Estos factores provocarán también una subida en el precio de los ordenadores portátiles, como ya anunció en febrero Gianfranco Lanci, director de operaciones de Lenovo. No se descarta que algunos ordenadores nuevos y de bajo costo, tengan pantallas de menor resolución, menos memoria, almacenamiento, o no incluir una cámara web con el fin de abaratar otra serie de componentes y mantener el precio medio de los equipos.

Agam Shah

 

Memoria criogénica, el plan de computación cuántica de Microsoft

Microsoft tiene planes algo locos de computación cuántica: primero, construyó hardware basado en una partícula que ni siquiera había sido descubierta. Ahora, tiene la esperanza de co-diseñar memoria super-cool para las computadoras cuánticos.

La compañía está trabajando con Rambus para desarrollar y construir prototipos de computadoras con subsistemas de memoria que pueden ser enfriados a temperaturas criogénicas, normalmente por debajo de menos 180 grados Celsius. La criogenia va de la mano con las computadoras cuánticas, que prometen ser mucho más rápidas que las PC y los servidores de hoy, e incluso pueden reemplazarlas. Pero los sistemas son notoriamente inestables y necesitan ser almacenados en refrigeradores para una operación más rápida y segura.

Microsoft está persiguiendo agresivamente el hardware y el software de la computadora quántum y, a finales del año pasado, reclutó algunos de los investigadores superiores en el campo. La compañía también está desarrollando un conjunto de herramientas de software avanzado para funcionar con la computadora cuántica. Pero el sistema de computación cuántica de Microsoft se basa en una nueva topología, materiales exóticos y una partícula no descubierta, y podría tardar años o incluso décadas antes de su lanzamiento. Rambus, por su parte, es conocido por desarrollar tecnología de memoria y luego licenciarla.

La idea de la memoria criogénica fue explorada por primera vez en 1991, pero Rambus y Microsoft están mejorando el concepto con las tecnologías modernas. Las dos compañías comenzaron a colaborar en la investigación de la memoria criogénica a finales de 2015. Ahora, planean construir prototipos de sistemas con la memoria, aunque no se ha anunciado ninguna fecha de lanzamiento.

Esta nueva tecnología se propone como un posible reemplazo de las tecnologías de memoria existentes como DDR DRAM. Cada vez es más difícil hacer pequeños chips de memoria con más capacidad utilizando las tecnologías actuales. Los servidores se están cargando con más memoria para ejecutar aplicaciones como el aprendizaje y el análisis de las máquinas, y una pequeña caja de memoria criogénica podría reemplazar grandes matrices de DRAM de acumulación de espacio. La memoria criogénica también se está desarrollando para las supercomputadoras.

Sin embargo, todo ese rendimiento vendrá a un precio. Los refrigeradores para computadoras cuánticas y la memoria criogénica darán como resultado grandes facturas de electricidad. En definitiva, aunque las supercomputadoras que funcionan con enfriamiento estándar basado en ventiladores o líquidos podrían usar memoria criogénica operando a temperaturas más bajas, la adopción dependerá del precio de la conversión a la nueva memoria.

Microsoft no es el único que trabaja en esto. IBM y D-Wave ya están persiguiendo a otros tipos de computadoras cuánticas.

Redacción

 

Ataques invisibles quebrantan la seguridad de las empresas

A finales de 2016, los bancos de la Comunidad de Estados Independientes (CIS por sus siglas en inglés) ya que habían encontrado el software de prueba de penetración Meterpreter, el cual ahora se utiliza con fines maliciosos, en la memoria de sus servidores, en un lugar donde no debería estar. Kaspersky Lab descubrió que el código de Meterpreter se combinaba con una secuencia de comandos de PowerShell legítimos y otras herramientas. Las herramientas combinadas se habían adaptado a un código malicioso que podía esconderse en la memoria para recopilar las contraseñas de los administradores del sistema de manera invisible. De esa manera, los ciberatacantes podían controlar los sistemas de sus víctimas en remoto y conseguir su objetivo final: el acceso a los procesos financieros.

Desde esa fecha, Kaspersky Lab ha descubierto que estos ataques se están produciendo a gran escala, ya que afectan a más de 140 redes en una amplia gama de sectores empresariales, con la mayoría de las víctimas situadas en Estados Unidos, Francia, Ecuador, Kenia, Reino Unido y Rusia. En total, se han registrado infecciones en 40 países, entre los que se encuentran Ecuador y Brasil.

La distribución geográfica de las empresas atacadas

Tales herramientas también hacen más difícil descubrir los detalles de un ataque. El proceso normal durante la respuesta a incidentes es que el investigador siga las huellas y muestras dejadas en la red por los atacantes. Y aunque los datos contenidos en un disco duro pueden permanecer disponibles durante un año después de un suceso, los artefactos que se ocultan en la memoria se borrarán después del primer reinicio del equipo. Afortunadamente, en esta ocasión, los expertos llegaron a tiempo.

“La determinación que muestran los atacantes por ocultar su actividad y hacer cada vez más difícil la detección y respuesta a los incidentes, explica la última tendencia en las técnicas antiforenses y del malware basado en la memoria. Es por eso que la investigación forense de la memoria se está convirtiendo en algo esencial para el análisis del malware y sus funciones”, dijo Sergey Golovanov, Investigador Principal de Seguridad en Kaspersky Lab.

Finalmente, los atacantes aún están activos, por lo cual es importante advertir que la detección estos ataques es posible sólo en RAM, la red y el registro, y que, en tales casos, el uso de reglas Yara basadas en una exploración de archivos maliciosos no da resultado.

N. de P. Kaspersky Lab.

 

Descubren tecnología para restaurar la memoria de una persona

En marzo del año pasado, científicos del Queensland Brain Institute (QBI) -una de las organizaciones de neurociencia más grandes del mundo- descubrieron una tecnología de ultrasonido no invasiva que puede usarse para tratar la enfermedad de Alzheimer y restaurar la memoria de una persona. Es un tratamiento sin medicamentos que descompone las “placas neurológicas amiloides” que provocan la pérdida de memoria y deterioro cognitivo.

Los científicos que realizan estos descubrimientos médicos en el QBI dependen en gran medida de la infraestructura tecnológica para acceder, almacenar y administrar grandes conjuntos de datos de imágenes cerebrales y dispositivos de microscopía.

Las necesidades de la informática científica tienen fronteras que se rompen cada día y las mejoras tecnológicas tienen un periodo de satisfacción para los usuarios muy corto, ya que a cada momento necesitan más capacidades para el análisis científico.

QBI se ha convertido en la primera organización australiana en implementar conmutadores de red de fibra Brocade G620 para formar un tejido de red de almacenamiento totalmente redundante con enlaces de 32Gb/s, reemplazando modelos antiguos que proporcionan sólo un rendimiento de datos de 8Gb/s. Los nuevos conmutadores pueden combinarse con un tronco basado en tramas de 128 Gb/s para manejar los exigentes flujos de datos de la organización.

El nuevo tejido de red de fibra forma parte de una solución de almacenamiento integrada junto con las matrices HDS de alto desempeño de todos los flashes y Oracle Hierarchical Storage Manager, para controlar el flujo de datos entre capas de almacenamiento.

La infraestructura de almacenamiento eliminará las barreras de rendimiento y proporcionará a los científicos acceso fácil a los datos que necesitan para llevar a cabo la investigación. También ofrece capas adecuadas de gobernanza y preservación, relacionadas con la reproducibilidad y la inmutabilidad.

QBI tiene 8,5 petabytes de datos no estructurados que provienen de los instrumentos de investigación científica y no están en una base de datos o plataforma. Esto solo hace referencia a los datos en bruto, no incluye datos administrativos ni nada en ese sentido. Además, QBI tiene alrededor de 10 TB de datos almacenados. La infraestructura de fibra les permite hacer frente a sus necesidades en este momento y les da un margen para escenarios.

Byron Connolly

 

HPE prueba su primera arquitectura de computo basado en memoria

Palo Alto en el marco del Discover 2016, ha mostrado unos de los “hitos más importantes por transformar la arquitectura de las computadoras construidas en los últimos 60 años”, según la propia organización. Esta nueva arquitectura arrojará nuevas conclusiones sobre Big Data.

El crecimiento de dispositivos conectados que se espera para 2020, es de 20.8 mil millones, los cuales generarán un volumen de datos sin precedentes y que crecerán más rápido que las capacidades para procesarlos, almacenarlos y securizarlos con las plataformas y arquitecturas de computación de hoy en día. Así lo pone de manifiesto Gartner.

En el marco del Discover 2016, evento de referencia de HPE en Europa, celebrado en Londres, la compañía de Palo Alto ha anunciado que ha probado con éxito un “concepto revolucionario” que ha denominado “Memory Driven Computing Architecture” (computación basada en memoria) y que coloca a la memoria en el centro de la computación y no al procesamiento.

HPE quiere tomar ventaja en la carrera por la innovación y para la tecnológica este nuevo concepto representa “el hito más importante de la compañía por transformar la arquitectura de los ordenadores construidos en los últimos 60 años” Así, esta investigación se enmarca dentro de su proyecto The Machine, el programa de investigación de la firma que pretende liderar la transformación tecnológica durante la próxima década.

El proyecto ha sido diseñado por unos 375 ingenieros en los laboratorios de HPE. Así, la compañía ha conseguido que los nodos de computación accedan a un grupo compartido de memoria, que funcione el sistema operativo Linux optimizado en un SOC (System on a Chip), customizado, poner en línea y operativos los enlaces de comunicación fototónica/óptica y nuevas herramientas de programación de software diseñadas para aprovechar la abundante memoria persistente.

Durante la fase de diseño del prototipo, las simulaciones predijeron que la velocidad de esta arquitectura puede mejorar la computación por múltiples órdenes de magnitud. HPE ha utilizado nuevas herramientas de programación de software en productos existentes, mejorando la velocidad de ejecución 8000 veces en diferentes tipos de cargas de trabajo.

memoria-hpe

“Con este prototipo, hemos demostrado el potencial de la computación manejada por memoria y también hemos abierto la puerta a la innovación inmediata. Nuestros clientes y la industria en su conjunto pueden esperar beneficiarse de estos avances mientras continuamos nuestra búsqueda de tecnologías que suponen un punto de inflexión”, ha manifestado Antonio Neri, vicepresidente ejecutivo de HPE.

Redacción

 

SanDisk lanza memoria USB inalámbrica en México

SanDisk anuncia el lanzamiento en México del ConnectTM Wireless Stick, es un USB que alcanza capacidades de hasta 64 GB y tiene la capacidad de compartir, acceder y transferir de forma inalámbrica archivos entre dispositivos móviles y computadoras, sin necesidad de estar conectado a Internet.

El SanDisk ConnectTM Wireless Stick funciona con smartphones, tabletas y computadoras. Es posible acceder a archivos multimedia, transferir información, guardar o enviar fotos y videos, ver películas en HD y escuchar música vía streaming. Estas funciones se pueden realizar simultáneamente hasta en tres dispositivos móviles de forma inalámbrica. A través de un puerto USB, o usar la aplicación SanDisk Connect administra los contenidos entre protegidos mediante una contraseña con conectividad Wi-Fi. La aplicación está disponible en App Store, Google Play y Amazon Appstore para Android, también permite hacer copias de seguridad automáticas de las fotos y videos directamente de la cámara al dispositivo.

“Este lanzamiento responde a las necesidades, cada vez mayores, de los consumidores en términos de almacenamiento, tanto en capacidad, como en movilidad”, explicó Eduardo Alexandri, Country Manager de SanDisk en México. “Vivimos en una era móvil y el estilo de vida de nuestros usuarios sigue esta tendencia. SanDisk Connect Wireless Stick se diseñó para brindar al público una forma simple e intuitiva de guardar y acceder de forma segura a todos los contenidos que se producen durante el día a través de múltiples dispositivos, incluidos iOS y Android, Mac y PC.

La disponibilidad del producto en México, se ofrece en capacidades de 16 GB, 32 GB y 64 GB y un precio sugerido de $769 pesos.

Redacción

HPE estrena memoria persistente en sus servidores

La compañía lanza sus primeros servidores Proliant Gen9 con la tecnología NVDIMM de memoria persistente en la que se unifica la memoria DRAM junto con memoria Flash de almacenamiento en un mismo módulo DIMM. Los rendimientos en servidores aumentan sobre la tecnología tradicional.

La memoria y el almacenamiento son componentes que, durante décadas, siempre se han concebido de forma separada en las configuraciones de los ordenadores tradicionales. Pero según la visión de Hewlett Packard Enterprise, esto está cambiando para proporcionar mejores rendimientos en servidores. Es por ello que HPE considera que es necesario ir más allá del planteamiento tradicional de años atrás y unificar ambos componentes en una nueva “memoria persistente” que es lo que la compañía está anunciando estos días. Dicho “módulo” combina 8 GB de memoria DRAM junto con 8 GB de memoria tipo Flash en un único módulo de formato DIMM, el cual podría convertirse en la memoria estándar para servidores.

El slot DRAM opera a altas velocidades pero por el momento resulta excesivamente caro, y si un servidor se cae de manera inesperada, cualquier dato en DRAM puede perderse. Por su parte, la memoria Flash es de tipo no volátil, permitiendo retener los datos cuando la fuente de alimentación es retirada o reemplazada.

HPE menciona que los módulos de “memoria persistentes” son conocidos como NVDIMMs, combinando la velocidad habitual de la DRAM con la resistencia de Flash.

La tecnología no pretende reemplazar las soluciones de almacenamiento externo ya existentes, como los discos duros, las unidades SSD o los sistemas de cinta utilizados para las copias de seguridad cuando se trata de manejar grandes cantidades de datos. Se trata de proporcionar una porción de almacenamiento que quede residente en el bus de la memoria para garantizar alta velocidad y disponibilidad, conservando los datos en el caso de que se bloquee el servidor. De este modo, las aplicaciones en NVDIMM pueden correr mucho más rápido, según destaca HPE, ya que los datos no tienen que viajar entre las unidades de CPU y los sistemas de almacenamiento. HPE dice que NVDIMM ofrece hasta seis veces el ancho de banda de los SSD basado en la alta velocidad de NVMe y proporciona un rendimiento de 24 veces más en IOPS (operaciones de entrada y salida).

Dentro de este formato HPE no está sólo en el mercado, ya que otros fabricantes como Micron Technology y Viking fabrican VNDIMMs, y otros fabricantes de servidores ya están experimentando con modelos similares de la denominada “memoria persistente”.

Patrick Moorhead, analista principal en Moor Insights y Strategy comenta que “HPE juega con cierta ventaja sobre sus rivales, en lo que respecta al mercado de servidores”. La compañía tiene planes para su comercialización a partir de este mismo mes, y es posible encontrarla en dos modelos diferentes de servidores Proliant Gen 9: el DL380 y el DL360.

hp-proliant-gen9

También es necesaria la participación de fabricantes de software para sacar el máximo partido a esta tecnología. Los sistemas operativos deben ser conscientes de NVDIMM para aprovechar todo su potencial, y mientras las aplicaciones estándares verán mejoras de rendimiento, los mayores beneficios llegarán una vez que los desarrolladores programen para aprovechar el uso de la “memoria persistente”.

De momento, HPE ha desarrollado un controlador para Windows Server 2012 R2 que estará disponible con los nuevos servidores. Además, los socios de HPE, como Microsoft, apoyarán NVDIMM en las versiones de Windows Server 2016, la cual se espera que llegue a finales de este año. La compañía también está trabajando con proveedores de Linux y otros fabricantes de software.

En cuanto a precios, NVDIMMs no es barata ya que presenta un precio de 899 dólares, en comparación con las tecnologías ya existentes, donde un módulo DRAM estándar de 8GB de memoria RAM cuesta unos 249 dólares. Los módulos NVDIMMs cuentan con un microcontrolador y se conectan a una batería de iones de litio de 96 vatios integrado en el servidor. Si un servidor falla, la batería dota del voltaje necesario para alimentar al módulo hasta que los datos en la memoria DRAM hayan sido respaldados y no se pierdan. La batería puede soportar hasta 128 GB de “memoria persistente” en un servidor.

La firma destaca que los principales beneficiarios de NVDIMM serán entornos de aplicaciones como bases de datos. Diversas pruebas ya han demostrado que es posible incrementar el rendimiento hasta 10 veces más.

La densidad de la memoria flash gana ventaja a los HDD

Las empresas que se concentran en fabricar discos duros mecánicos, tendrán que encontrar nuevas fórmulas para incrementar la densidad de área de sus dispositivos de almacenamiento dentro los próximos de años.

La memoria flash de tipo NAND ha sobrepasado por vez primera la capacidad de almacenamiento que ofrece la tecnología de los dispositivos de disco duro (HDD), de acuerdo con un estudio llevado a cabo por una empresa de investigación de mercados. Durante una presentación en la conferencia 2016 del IEEE International Solid State Circuits Conference (ISSCC) de San Francisco, la semana pasada, la organización Micron presentó datos que apuntaban que la tecnología de almacenamiento flash NAND ha superado la capacidad de los dispositivos HDD en aspectos relacionados con la densidad del área, según información aportada por Coughlin Associates.

El pasado año, Samsung indicó que sus productos de almacenamiento flash  NAND 3D habían alcanzado 1.19 Terabits por pulgada cuadrada (Tbpsi), afirmando que en 2016 esta capacidad superaría los 1.69 Tbpsi. Este año, Micron reveló haber alcanzado en sus laboratorios densidades superiores a los 2.77 Tbpsi en sus NAND 3D; una capacidad que supera con creces la densidad de algunas de las tecnologías HDD cuyo límite está en 1,69 Tbpsi. De modo que los desarrollos flash están convirtiendo a esta tecnología en más disruptiva en aspectos relacionados con la densidad; pero sus chips todavía son mucho más caros de producir que los discos, por lo que los costos básicos del almacenamiento HDD todavía resultan mucho más rentables con respecto a las de estado sólido (flash).

Durante su presentación en ISSCC, los representantes de Samsung hicieron alusión a la creación de un consorcio de investigación avanzada en tecnologías de almacenamiento gráficas que trabaja en la proyección de densidad en HDD, en un proyecto que tendrá un recorrido hasta el año 2025. Samsung afirma que en 2015 la tecnología flash NAND había sobrepasado ya a la de los sistemas magnéticos de almacenamiento (HDD y dispositivos de cintas magnéticas) en densidad de área. A día de hoy, la densidad de área más elevada que puede alcanzar un HDD es de 1.3 Tbpsi, si bien la mayoría ronda niveles más bajos, de acuerdo con Coughlin.

-Redacción Computerworld