Etiqueta: Flash

Software hace que el flash sea asequible para el almacenamiento empresarial

La memoria flash es una tecnología altamente disruptiva que utilizan las cámaras de 35 mm, lo que ha cambiado la manera de cómo se registran las fotografías. De hecho, las empresas de soluciones de almacenamiento, que aún dependen de discos mecánicos, se encuentran en la misma posición que Kodak, hace una década: enfrentándose a una nueva tecnología que ha mejorado dramáticamente lo que ellos ofrecen al mercado.

Flash ofrece una mejor escalabilidad, velocidad, disponibilidad y estabilidad en las aplicaciones, mientras tiene un menor consumo de recursos del centro de datos en comparación a cualquier otro almacenamiento basado en disco. Pero no es tan simple como traer una nueva tecnología y desechar las viejas en un instante.

En el caso del flash empresarial, el costo ha sido la principal barrera de adopción del mercado. La tecnología flash es costosa y, por lo tanto, la mayoría de los proveedores la implementan en pequeñas cantidades, al mismo tiempo que el disco, para ayudar con el rendimiento, actuando como un caché. Una manera mejor y más rentable de solucionar esto implementar equipos de almacenamiento flash (FlashArray) con software que brinda funcionalidades de compresión y de-duplicación para poder almacenar más información y ocupar menos espacio físico de la memoria flash haciéndola más asequible.

Flash almacena y provee datos de una manera significativamente diferente al disco. Lo que lo hace viable en el uso empresarial es que la lectura es rápida y en conjunto con el software, no solo ofrece asequibilidad, sino que permite que el flash sea más fiable a nivel hardware, ya que evita que con la gran cantidad de escrituras se desgaste el medio.

Las tecnologías de reducción de datos en tiempo real prolongan la duración de la vida del flash, al reducir el volumen de datos que se escribe. La fiabilidad del disco de estado sólido (SSD, por sus siglas en inglés) aumenta en correlación directa con el número de tecnologías de reducción de datos. Solo algunos equipos son capaces de esto, mientras muchos más son híbridos de flash y disco duro, por lo cual combinan tanto las debilidades, así como las fortalezas de ambos y, en última instancia, se quedan cortos en fiabilidad.

data-center-memory-flash

Si bien, el beneficio inmediato del flash es evidente, existe un segundo menos obvio que vale la pena señalar. Sabemos que el flash van más allá del almacenamiento, también aumenta la velocidad de las aplicaciones empresariales.

Para tomar este argumento un paso más allá, es necesario considerar el hecho de que una gran cantidad de software empresarial es escrito considerando las restricciones de velocidad inherentes al disco mecánico. Al eliminar el retraso del disco duro y al utilizar flash surge un nuevo universo de posibilidades:

  • El rendimiento de la aplicación crece de manera exponencial;
  • el usuario final experimenta aumentos en estabilidad y mayor conocimiento a medida que aumenta la accesibilidad a la información;
  • los requerimientos de autorización del software también pueden revisarse, ya que se dispone de más procesamiento del CPU al remover el regulador de velocidad del disco;
  • y finalmente, la dependencia en la gestión de datos y las herramientas de equilibrio de cargas diseñadas para responder retroactivamente a los desafíos de rendimiento también disminuye, devolviendo el tiempo al personal operativo.

Flash ya está generando un revuelo dentro del centro de datos cuando apenas estamos al inicio del punto de inflexión. Algunos tomarán medidas cautelosas y optarán por la comodidad de una serie de equipos legados modificados para integrar flash o la promesa de uno híbrido.

Ambos ayudarán en el corto plazo. Los visionarios se embarcarán en el viaje hacia una empresa totalmente impulsada por flash. Los sistemas de almacenamiento 100% flash, los cuales se han vuelto asequibles y confiables gracias al software diseñado para flash, ayudarán a estos líderes a crear múltiples oportunidades nuevas y aumentar masivamente su ventaja competitiva de negocios.

 

Douglas-Wallace-Pure-Storage

 

 

Por: Douglas Wallace,

Gerente General

para América Latina y El Caribe (excepto Brasil)

en Pure Storage.

Pure Storage presenta equipo de almacenamiento flash para la nube

Pure Storage, presentó el almacenamiento a escala de petabyte, respaldado por el lanzamiento de la nueva generación de FlashArray//m, el cual ofrece el mejor desempeño con la simplicidad y agilidad que caracterizan a una nube pública o privada.

Este lanzamiento de la firma, es un almacenamiento construido con la intención de ser fácil, eficiente y permanecer siempre vigente, así como ser capaz de ofrecer simplicidad, automatización, resiliencia, con un modelo de negocio amigable e incluyendo todos elementos esenciales para el cómputo en la nube.

“El almacenamiento es la base de todo lo que hacemos en la economía digital, cada vez más apoyada en el centro de cómputo en la nube”, aseguró Matt Kixmoeller, Vicepresidente de producto en Pure Storage. “Sin importar que se trate de nube pública, privada, SaaS o una mezcla de las tres. El almacenamiento 100% flash eficiente, ahora a escala de petabyte, es la base flexible para las nubes de hoy y del futuro”.

La nueva actualización del FlashArray//m, escala hasta los 512 terabytes de almacenamiento en crudo, lo que se traduce en aproximadamente 1.5 petabytes de capacidad efectiva. Esta escala y densidad permiten a los clientes reducir varios racks del almacenamiento usando tecnología de disco mecánicos a siete unidades o menos.

El nuevo FlashArray//m sin ventana de mantenimiento y migración de datos, ofrece cuatro opciones de controladoras para cumplir las necesidades de desempeño y capacidad:

El //m10 (presentada este mismo año). Proporciona hasta 25 TBs de capacidad efectiva (de 5 a 10 TBs de almacenamiento en crudo) y hasta 100,000 IOPS de 32K.

Para el //m20. Provee hasta 250 TBs de capacidad efectiva (de 5 a 80 TBs de almacenamiento en crudo) y hasta 200,000 IOPs de 32K.

Además //m50. Brinda hasta 500 TBs de capacidad efectiva (de 20 a 176 TBs de almacenamiento en crudo) y hasta 270,000 IOPS de 32K.

Y finalmente, //m70. Ofrece hasta 1.5 petabytes de capacidad efectiva (de 42 a 512 TBs de almacenamiento crudo) y hasta 370,000 IOPS de 32K.

A través de estas opciones de nuevas controladoras, FlashArray//m proporciona un aumento de 20% a 30% en desempeño y un incremento de entre 100% y 276% en capacidad comparado con generaciones anteriores. El escalamiento de objetos ha aumentado 10 veces, mejoró la escalabilidad total del sistema y permite realizar copias de seguridad a gran escala con hasta 50,000 snapshots eficientes en espacio.

Redacción

Dell Technologies presenta solución para la transformación de los centros de datos

La joven compañía conformada por Dell y EMC ha lanzado una solución all-flash definida por software llamada Dell EMC ScaleIO Ready Node, la cual se ejecuta en servidores Dell EMC PowerEdge x86, diseñados para ayudar a los clientes a transformar sus centros de datos. En palabras de la compañía, ScaleIO es almacenamiento definido por software scale-out para las necesidades de almacenamiento en bloques.

La solución permite el uso de varias aplicaciones. Las unidades SSD dentro de ScaleIO Ready Node trabajan en paralelo para ayudar a eliminar deficiencias en el rendimiento.

Entre las novedades principales destaca el hardware de próxima generación; la herramienta se ejecuta en servidores rack Dell PowerEdge de carga de trabajo optimizada. Además, cuenta con una capa de caching mejorada que permite que los datos más usados estén accesibles en medios de respuesta más rápida para aplicaciones que utilizan configuraciones híbridas. Por último, la compañía ha mejorado la flexibilidad del sistema operativo.

Según el informe Wikibon 2016, el mercado Enterprise Server SAN incrementará sus ingresos en todo el mundo un 22% en este año. Este crecimiento se hace evidente en empresas de hiperescala  web que están rediseñando grandes centros de datos mediante la adopción de soluciones definidas por software para los servicios que prestan. La consultora IDC ha asegurado que la nueva solución es un 50% más eficiente en comparación con las infraestructuras SAN tradicionales.

“Ofrecer una versión all-flash completa nuestra cartera de productos flash para ofrecer a los usuarios una manera sencilla de aprovechar las ventajas de capacidad, rendimiento y eficiencia del almacenamiento definido”, ha señalado Josh Goldstein, vicepresidente de gestión de producto y marketing para ScaleIO de Dell EMC.

Redacción

 

Por qué la tecnología flash pertenece al servidor

El uso principal de los sistemas de almacenamiento basados en tecnología flash es uno de los adelantos más significativos en el diseño de centros de datos modernos. Hoy día, la mayoría de las empresas ejecutan múltiples cargas de trabajo en soluciones de almacenamiento que emplean tecnología flash. De hecho, los dispositivos completamente flash son cada vez más populares para ciertas clases de aplicaciones. Habiendo dicho eso, ¿por qué la tecnología flash debe ser meramente un componente en una matriz de almacenamiento existente? ¿No debería ser diseñada directamente en la arquitectura del servidor donde esté más cerca de las aplicaciones a las que da servicio?

Antes de dar respuesta a esa importante pregunta, permítanos entender primero los fundamentos de las matrices de almacenamiento tradicionales. Las soluciones NAS y SAN de proveedores establecidos, entre otros EMC, NetApp, HP e IBM, dominan hoy el espacio del almacenamiento en las empresas. Las matrices de almacenamiento de estas compañías se sustentan en controladoras de almacenamiento, que no son mucho más que servidores basados en la tecnología x86. Las controladoras de almacenamiento están dedicadas al manejo de múltiples anaqueles de discos, además de proveer funciones de manejo de datos como replicación, compresión, deduplicación y clasificación por niveles.

Cada matriz de almacenamiento tiene múltiples controladoras de almacenamiento (dos en general) para garantizar alta disponibilidad y para proveer balance de carga. Los recursos de almacenamiento compartidos se conectan al clúster de servidores a través de cables de red o Fibre Channel existentes. Con esta arquitectura de tres niveles tradicional, las operaciones de lectura y escritura de datos viajan de una máquina virtual al servidor físico a través de la red hacia la controladora de almacenamiento y finalmente a los discos.

¿Cómo encaja la tecnología flash en este modelo? La tecnología flash proporciona a las aplicaciones E/S de alto desempeño y baja latencia, entregando miles de IOPS (entradas/salidas por segundo), comparado con cientos de ellas de los discos giratorios. La clasificación de datos en niveles es una técnica común que se aprovecha en las soluciones de almacenamiento híbridas de la actualidad, las cuales contienen unidades de disco duro y de estado sólido, para hacer posible un más alto desempeño. La controladora de almacenamiento lleva el control de los “datos calientes”, o datos que se utilizan con mayor frecuencia, y promueve estos datos a SSDs de más alto desempeño. Cuando los datos se “enfrían”, o ya no se accede a ellos con frecuencia, éstos se desplazan automáticamente a discos giratorios de más baja velocidad.

La clasificación en niveles garantiza que los datos más comúnmente usados estén siempre en los medios de almacenamiento de más alta velocidad. Esto es muy similar a la forma en que los procesadores usan la DRAM hoy día. Como la cantidad de datos que se pueden almacenar en la memoria es limitada, sólo los datos calientes residen en la DRAM y los datos que no se usan se retiran automáticamente. ¿Por qué entonces la DRAM está más cerca de la CPU (dentro del servidor), mientras que el sistema de almacenamiento basado en flash se coloca en un sitio distante de la red dentro de una matriz de almacenamiento alejada? ¿No tiene más sentido mantener el dispositivo flash más cerca del servidor, como están las DRAMs en la actualidad? Después de todo, el bus PCIe está más cerca de la CPU y proporciona más rendimiento agregado y menor latencia que las redes Fibre Channel o Ethernet a través de un switch.

Los proveedores de sistemas hiperconvergidos que integran cómputo y almacenamiento en un dispositivo 2U, han venido incorporando flash del lado del servidor en los últimos tres años.

Los modelos de arquitectura de centros de datos actuales están camino a la obsolescencia en el Nuevo mundo de la TI en escala Web. Por ejemplo, ¿qué sucederá cuando 50 servidores en el clúster de cómputo intenten acceder a datos residentes en flash en una matriz NAS? Las SSDs con capacidad de procesar decenas de miles de IOPS están conectadas ahora a través de la misma controladora en la misma red. ¿Dónde se topa el desempeño con un cuello de botella? ¿En la red, la controladora o unidades flash? (Una pista: no es en la flash.)

Ahora bien, ¿qué sucede si se agregan 50 servidores más? ¿O 100 servidores? ¿Escalará el modelo actual? Esto es análogo a sacar agua de un barril utilizando un popote. ¿Resolverá el problema agregar más popotes?

El problema es que el desempeño de la unidad flash está limitado por la arquitectura de almacenamiento implícita. Para mantener el desempeño, la infraestructura complete tiene que escalar con la demanda de datos. Sin embargo, cualquier persona con experiencia en centros de datos sabe que los ejercicios de planeación de la capacidad rara vez son precisos, ya que los requisitos de negocios y de las aplicaciones son notoriamente difíciles de predecir. Agregue los puntos neurálgicos comunes de la infraestructura de almacenamiento tradicional como la distribución por zonas, el desenmascaramiento, la provisión LUN y la falta de funcionalidad centrada en VM y quedará claro por qué los administradores de almacenamiento batallan para cumplir con los SLAs de desempeño y disponibilidad.

Las soluciones hiperconvergidas incorporan discos flash en el servidor, proporcionando altos niveles de Resistencia de los datos y almacenamiento de datos en depósitos que es equivalente a un dispositivo NAS, mientras que permite acceso rápido sin restricciones al sistema de almacenamiento flash por parte de las aplicaciones. Estos sistemas están diseñados para ofrecer escalabilidad y paralelismo, sin las limitaciones inherentes que se crean cuando se accede al almacenamiento a través de una controladora. Cuando se implementan en configuraciones por clústeres, los dispositivos hiperconvergidos evitan la contención de la red que ocurre cuando existe demanda simultánea de discos flash en un dispositivo de almacenamiento. En su lugar, cada servidor tiene sus propios discos flash, de tal suerte que la gran mayoría de E/Ss de lectura pueden ser satisfechas por recursos locales conectados en directo y evitan el acceso a la red por completo. Incluso las E/Ss que requieren que el servidor hiperconvergido salga por la red (como lecturas remotas desde nodos contiguos o la replicación de operaciones de escritura a otros nodos) están libres de cuellos de botella aislados, ya que estas operaciones se distribuyen a través de diferentes servidores por todo el clúster.

La hiperconvergencia optimiza los beneficios de la tecnología flash, incluso cuando aumenta el tamaño del clúster. Además, introducir más capacidad de almacenamiento es tan fácil como agregar otro servidor con la capacidad de SSD requerida o bien reemplazar las SSDs actuales en los servidores con unidades de mayor capacidad.

La integración de tecnología flash en el servidor permite que todas las aplicaciones se ejecuten en la infraestructura común, incluyendo cargas de trabajo con grandes exigencias de ancho de banda o sensibles a la latencia del sistema de almacenamiento. Así, el flash basado en servidor elimina también el costo y la complejidad de silos de implementación controlados por la arquitectura del hardware.

Las soluciones hiperconvergidas proporcionan incluso beneficios de seguridad relativos al almacenamiento tradicional. En entornos hiperconvergidos, los datos pueden ser encriptados dentro del servidor físico, eliminando con ello el escenario de datos no encriptados en un vínculo de la red o teniendo que recurrir a funcionalidad externa para asegurar transferencias de servidor a almacenamiento.

El almacenamiento basado en flash ofrece un desempeño a mayor velocidad órdenes de magnitud superiores a las unidades de disco duro tradicionales. Sin embargo, la inserción de recursos flash en matrices centrales y el acceso a ellas a través de una red nunca permitirá que se alcance todo su potencial. Adelantándonos, el surgimiento de la memoria NVMe (memoria exprés no volátil) trae consigo un estándar de peso más ligero para acceder a SSDs, lo cual sólo incrementará la demanda de tecnología flash basada en servidor. Las arquitectura hiperconvergidas ofrecen un enfoque holístico para lograr el potencial de las innovaciones en tecnología SSD moderna.

 

Por: Fernando Paredes, Country Manager, México   

 

IBM no se queda atrás en almacenamiento, ante Dell-EMC

IBM no quiere quedarse atrás frente a un competidor que se ve reforzado, Dell-EMC que, en breve, verá la luz bajo el nombre de Dell Technologies. Dada la expectación que está generando la compra de EMC por parte de Dell y cómo las soluciones de ambas empresas se integrarán y ofertarán al mercado, el Gigante Azul ha decidido realizar una jugada para anunciar un nuevo tipo de almacenamiento all-flash de clase empresarial que brinde a pequeñas, medianas y grandes organizaciones almacenamiento primario para aplicaciones cognitivas o en la nube y cargas de trabajo.

Con el nuevo lanzamiento por parte de IBM, la compañía ha lanzado un programa de migración llamado Flash In, dirigido a aquellas organizaciones que “quieran realizar una fácil transición a las soluciones de almacenamiento de IBM como parte de su ‘viaje’ para convertirse en empresas cognitivas y en la nube, por ejemplo, los clientes de Dell y EMC”, reza un comunicado emitido por la compañía.

IBM señala que sus soluciones all-flash IBM Storwize V7000F e IBM Storwize 5030F cubren las necesidades de almacenamiento primario para aplicaciones, realización de tareas y creación de escenarios de uso a un precio competitivo. Ambas, continúa el comunicado, “proporcionan una disponibilidad de clase empresarial al almacenamiento all-flash de gama media y nivel inicial, que ofrece mayor rendimiento y requiere menos tiempo de provisión y optimización de los sistemas”. Storwize, que estará disponible en todo el mundo a través de IBM y sus partners a principios de septiembre. La firma señala que la oferta inicia desde los 19 mil dólares.

Apuesta contra la oferta combinada de Dell y EMC

Respecto a los servicios de instalación para facilitar la transición de clientes de Dell/EMC a IBM, se trata de una iniciativa de migración sin costo que, afirman desde IBM, “proporcionará una transición sencilla a aquellas organizaciones que no se encuentran actualmente entre los clientes de IBM”. En este sentido y bajo el paraguas del nuevo programa, los clientes recibirán servicios de migración de datos y de instalación durante cinco días consecutivos ya sea para reemplazo o actualización.

Redacción

El SSD ofrece ventajas a los negocios de economía colaborativa

La apertura de nuevos comercios enfocados en la promoción de banners, flyers e incluso con anuncios en la propia fachada de la tienda, poco a poco se va consolidando. Dentro del negocio online pasa lo mismo, y ponerlo a funcionar o actualizar puede tardar horas, pero el primer indicio de que funciona es casi siempre cuando tus amigos lo empiezan a utilizar.

Este último, es el modelo que están utilizando la gran mayoría de empresas que están en constante crecimiento y  que han llamado nuestra atención durante todo el año. Compañías como Uber, Spotify y Airbnb, crecen a una gran velocidad gracias a una infraestructura mínima, con ello han conseguido atraer y fidelizar a sus clientes, convirtiéndose en los impulsores de la economía colaborativa, siendo este modelo una nueva forma para crecer.

Uber, el pequeño dentro de las empresas que forman parte de la economía colaborativa, se ha convertido en un jugador global, gracias a la habilidad de llegar a una ciudad y ofrecer un servicio de transporte 24h llegando a dónde están sus clientes en menos de dos minutos, incluso si el cliente lo necesita puede salir de la ciudad (una acción adicional que le ha añadido batallas legales a la compañía). Pero es esta inmediatez y agilidad de llegar a cualquier lugar y en cualquier momento que lo ha llevado al éxito, pero tienen que seguir innovando, porque incluso las compañías más disruptivas tienen competencia.

En la economía colaborativa nadie puede permitirse el lujo de quedarse inmóvil y las compañías son cada vez más dependientes de Internet, convirtiéndose exclusivamente en empresas “online”, esto significa que las compañías deben estar por delante de la tecnología que hace posible estos servicios de manera rápida y sencilla.

Cualquier empresa con esperanzas de prosperar dentro de la economía colaborativa necesita construir una estructura sencilla, que en todo momento cumpla con las funciones y capacidades requeridas y tenga la flexibilidad suficiente para cumplir las expectativas cuando la demanda sea más alta. Cualquier fallo en su rendimiento o simplemente tratar de llegar al día a día se traducirá en la pérdida de clientes. La habilidad de Uber de gestionar su negocio de manera rápida ha sido la clave para vencer a sus competidores así como el éxito de Spotify en proporcionar música ininterrumpida que la ha llevado a liderar este mercado, incluso teniendo a un fuerte competidor como es Apple.

Todo esto comienza con su propia base de datos. Los sistemas tradicionales de las bases de datos no son suficientes para proporcionar la velocidad y la agilidad de datos que este tipo de economía requiere. La memoria de los discos que almacenan dichos datos y sus aplicaciones funcionan a la perfección en negocios donde los datos no tienen que ser consultados a diario, pero para las empresas que compiten dentro de esta economía esta clase de  consulta y sus aplicaciones simplemente no existen. Es así, que los pocos segundos usados en recuperar los datos de un cliente que no ha utilizado recientemente su aplicación, le pueden parecer una eternidad, por lo que es más probable que este cliente use otra app con un acceso más rápido. Estas situaciones echan abajo la confianza del cliente y que se vayan con la competencia. Son muchas aún las bases de datos que no están listas para el gran número de acceso e innovaciones que demanda la economía colaborativa.

Es por esto que el almacenamiento en Flash es la solución a todos estos problemas. Es la clave para ayudar a las organizaciones a diferenciar sus ofertas y servicios en los mercados en los que la economía colaborativa está generando mayor expectación. Las compañías en pleno crecimiento están adoptando Data Fabric para la movilidad de sus datos con el fin de satisfacer la demanda de manera consistente, repetible y predecible. Están utilizando la estrategia basada en almacenamiento en estado sólido (SSD) para las bases de datos para, de esta manera, crear la agilidad y flexibilidad que necesitan con el fin de mejorar sus modelos de negocio.

El uso de esta infraestructura la empresas podrán moverse de manera más ágil, entregar más rápido los paquetes a sus clientes, crecer de manera exponencial y continuar innovando por delante de sus competidores, sabiendo que sus instalaciones seguirán manteniéndose a la cabeza y soportando la expectativa propia de este tipo de economía.

Javier Martínez, director técnico de NetApp

 

Firefox 47 añade más soporte y protección de copias de video

Mozilla ha presentado la versión 47 de su navegador Firefox, luce múltiples cambios, muchas de sus funcionalidades para reproducir video y mejora la experiencia de usuario (UX) con el servicio de sincronización del navegador.

Los usuarios que ahora sincronicen Firefox con PC, Macs o smartphones Android con Windows y Linux, aunque no con los iPhones y iPads con iOS, verán las pestañas abiertas en todos los dispositivos en una barra lateral del escritorio del servidor. Anteriormente, las pestañas sincronizadas se mostraban en un marco separado, no en una barra lateral, que se utilizaba principalmente para los marcadores guardados. Sin embargo, las mejoras entre bambalinas eran más robustas que los cambios de sincronización UX.

En lo más alto de la lista estaba el soporte para Widevine CDM (Content decryption module) de Google en Windows y OS X. Widevine CDM es una plataforma de sistema operativo cruzado para distribuir y exhibir contenidos protegidos contra copias, como películas, en un servidor a través de un plug-in. (Google adquirió Widevine en 2010).

Como la decisión de Mozilla en 2015 de integrar una tecnología antipiratería en Adobe para utilizar archivos protegidos en Firefox, el soporte para Widevine va en contra de la filosofía de la fundación de código abierto sobre una web abierta. Pero el año pasado, Mozilla reconoció la realidad de que un navegador tiene que dar soporte a CDM para sobrevivir.

Igual que Adobe CDM,  Widevine ofrece una manera de reproducir contenidos bloqueados sin tener que recurrir a los plug-ins de Adobe Flash o de Microsoft Silverlight, importante para Mozilla y otros fabricantes de navegadores como Google, que han abandonado el antiguo formato de plug-ins NAAPI. En particular, Widevine permite a Firefix reproducir contenido utilizando HTML5 de los servicios de video de Amazon, incluyendo su popular Prime, sin necesidad de recurrir a Silverlight.

Firefox 47 también añade soporte para reproducir videos de YouTube embebidos en otras páginas sin necesidad de Flash y de activar el código abierto, con el codec de video acceso gratuito VP9 en sistemas con potentes multiprocesadores como el Skylake de Intel y su sucesor, Kaby Lake, y a algunas tarjetas de gráficos de Nvidia. YouTube por ejemplo, se basa en VP9, otro desarrollo de Google vinculada a su proyecto de formato de archivo de video WebM, para reproducir video utilizando HTML5.

Firefox es el producto más importante de Mozilla, pero el navegador pasa por malos tiempos: en mayo, la firma de análisis Net Applications colocaron el porcentaje de usuarios de Firefox en tan sólo un 8.9%, el nivel más bajo en sus 11 años.

Firefox se puede descargar desde el sitio web de Mozilla para Linux, Windows y Mac, además de las tiendas de aplicaciones de Android e iOS.

Gregg Keizer

 

Un exploit de Flash Player es utilizado en ataques generalizados

A los hackers les ha llevado menos de dos semanas integrar un exploit recientemente parcheado de Flash Player en herramientas de los sitios web más visitados que están siendo utilizadas para infectar computadoras con malware. La vulnerabilidad, conocida como CVE-2016-4117, la descubrieron a principios de mes unos investigadores de seguridad de FireEye. La vulnerabilidad explotó en ataques dirigidos a través de contenido malicioso Flash incrustado en documentos de Microsoft Office. Cuando se descubrió el ataque, la vulnerabilidad estaba sin parchear, lo que provocó una alerta de seguridad de Adobe Systems y un parche dos días después. Como sucede normalmente con los exploits de día cero, sólo es cuestión de tiempo que los cibercriminales pongan sus manos el código del exploit CVE-2016-4117 y lo empiecen a utilizar en ataques generalizados.

Un investigador de malware conocido como Kafeine descubrió el exploit en Magnitude, uno de los kits de exploits más populares entre los cibercriminales. Los kit de exploit son herramientas para ataques en la web que agrupan múltiples exploits para vulnerabilidades en los plug-ins del navegador como Flash Player, Java, Silverlight o Adobe Reader. Se utilizan para instalar de forma silenciosa malware en los ordenadores de los usuarios cuando estos visitan sitios web maliciosos o comprometidos.

Otra forma de dirigir los kits de exploit a los usuarios es a través de publicidad colocada en sitios web legítimos, una técnica conocida como malvertising. A diferencia de los grupos de ciberespionaje, a los creadores y operadores de kits de exploit no les importa si sus exploits son para vulnerabilidades parcheadas porque cuentan con el hecho de que muchos usuarios no actualizan frecuentemente su software.Sin embargo, el hecho de que hayan necesitado menos de dos semanas en encontrar un exploit y lo hayan añadido a sus herramientas incrementa el número potencial de victimas con instalaciones vulnerables de Flash Player.

Para estar protegidos, los usuarios deberían comprobar que están utilizando la última versión de Flash Player disponible para su navegador y que los otros plug-ins del navegador también están actualizados.

 

Lucian Constantin

IBM apuesta por el almacenamiento flash para potenciar la computación cognitiva

Los nuevos sistemas de FlashSystem están diseñados para la computación en nube y la analítica. IBM busca ampliar su línea de almacenamiento flash para potenciar los centros de datos en la nube que llevan a cabo la denominada computación cognitiva. Lo nuevo que ha presentado la compañía es la tecnología rápida y de bajo costo de FlashCore con una arquitectura escalable diseñada para ser fácil de ampliar.

La computación cognitiva, que IBM define como el análisis de datos en tiempo real para la toma de decisiones automatizada inmediata, está en el centro de gran parte de la de la tecnología actual de IBM propuesta a empresas y proveedores de servicios. Su tecnología de Watson es la estrella del espectáculo, pero sólo la parte más visible de lo que está haciendo la empresa en esta área. Un ejemplo de computación cognitiva se puede dar en un operador de telefonía móvil que analice la información sobre calidad de la llamada de teléfono para tomar decisiones al vuelo sobre cambios en la red, comentó Andy Walls, miembro de IBM y CTO para los sistemas de flash. “A gran escala, la computación en tiempo real necesita flash”, indicó el analista de IDC Eric Burgener.

“Básicamente no pueden ejecutar esas cosas en las unidades de disco duro, ya que las latencias son demasiado lentas”.

Sobre esta idea, se enfocaron en construir en flash para dar salida adecuada para este tipo de aplicaciones, IBM realizó una combinación de hardware FlashCore con su software Spectrum Accelerate  para facilitar la expansión y optimizar la administración. Con FlashCore IBM construye una alternativa a los SSD (unidades de estado sólido) pre-construidos. Otros fabricantes como EMC y Violin Memory están utilizando placas similares, que están diseñados para ser más rápidas y más económicas que los SSD.

ibm-flashsystem-a9000_hi

Por ello IBM ha presentado un appliance all-flash, el FlashSystem A9000, y una versión basada en rack del mismo sistema, llamada A9000R. Son los primeros productos de la gama todo-flash de IBM diseñada para la computación cognitiva, indicó Andy Walls.

IBM también está agregando duplicación y compresión de datos que no retrasará la entrega de datos.

Hyper-Scale Mobility, ofrece más características, puede mover datos entre matrices sin interrumpir las operaciones. La serie FlashSystem lo hace mediante el aprendizaje de patrones de uso de una empresa a través del tiempo. El A9000 es un aparato diseñado para hiperescala y almacenamiento en la nube en las empresas de tamaño medio. Puede volver a sintonizarse a sí mismo cuando los clientes añadan más capacidad de almacenamiento, y su software permite a los administradores operan más de 100 aparatos de una única interfaz de usuario. Por su parte el A9000R es un sistema basado en el rack de escala petabyte para grandes empresas y proveedores de servicios cloud. Está diseñado para múltiples poseedores y tiene características de calidad de servicio para asegurarse de que un poseedor no monopoliza la red o de la capacidad de procesamiento a expensas de los demás. IBM ayudar a construir personalizados estos sistemas para los clientes, ahorrándoles trabajo de configuración.

Los sistemas de A9000 y A9000R estarán disponibles esta semana, con un precio de tan sólo 1.50 dólares por gigabyte. La firma agregó a la presentación el DS8888, un gama de almacenamiento todo-flash optimizado para sistemas Z de IBM y plataformas mainframe Power Systems.

Stephen Lawson

HPE estrena memoria persistente en sus servidores

La compañía lanza sus primeros servidores Proliant Gen9 con la tecnología NVDIMM de memoria persistente en la que se unifica la memoria DRAM junto con memoria Flash de almacenamiento en un mismo módulo DIMM. Los rendimientos en servidores aumentan sobre la tecnología tradicional.

La memoria y el almacenamiento son componentes que, durante décadas, siempre se han concebido de forma separada en las configuraciones de los ordenadores tradicionales. Pero según la visión de Hewlett Packard Enterprise, esto está cambiando para proporcionar mejores rendimientos en servidores. Es por ello que HPE considera que es necesario ir más allá del planteamiento tradicional de años atrás y unificar ambos componentes en una nueva “memoria persistente” que es lo que la compañía está anunciando estos días. Dicho “módulo” combina 8 GB de memoria DRAM junto con 8 GB de memoria tipo Flash en un único módulo de formato DIMM, el cual podría convertirse en la memoria estándar para servidores.

El slot DRAM opera a altas velocidades pero por el momento resulta excesivamente caro, y si un servidor se cae de manera inesperada, cualquier dato en DRAM puede perderse. Por su parte, la memoria Flash es de tipo no volátil, permitiendo retener los datos cuando la fuente de alimentación es retirada o reemplazada.

HPE menciona que los módulos de “memoria persistentes” son conocidos como NVDIMMs, combinando la velocidad habitual de la DRAM con la resistencia de Flash.

La tecnología no pretende reemplazar las soluciones de almacenamiento externo ya existentes, como los discos duros, las unidades SSD o los sistemas de cinta utilizados para las copias de seguridad cuando se trata de manejar grandes cantidades de datos. Se trata de proporcionar una porción de almacenamiento que quede residente en el bus de la memoria para garantizar alta velocidad y disponibilidad, conservando los datos en el caso de que se bloquee el servidor. De este modo, las aplicaciones en NVDIMM pueden correr mucho más rápido, según destaca HPE, ya que los datos no tienen que viajar entre las unidades de CPU y los sistemas de almacenamiento. HPE dice que NVDIMM ofrece hasta seis veces el ancho de banda de los SSD basado en la alta velocidad de NVMe y proporciona un rendimiento de 24 veces más en IOPS (operaciones de entrada y salida).

Dentro de este formato HPE no está sólo en el mercado, ya que otros fabricantes como Micron Technology y Viking fabrican VNDIMMs, y otros fabricantes de servidores ya están experimentando con modelos similares de la denominada “memoria persistente”.

Patrick Moorhead, analista principal en Moor Insights y Strategy comenta que “HPE juega con cierta ventaja sobre sus rivales, en lo que respecta al mercado de servidores”. La compañía tiene planes para su comercialización a partir de este mismo mes, y es posible encontrarla en dos modelos diferentes de servidores Proliant Gen 9: el DL380 y el DL360.

hp-proliant-gen9

También es necesaria la participación de fabricantes de software para sacar el máximo partido a esta tecnología. Los sistemas operativos deben ser conscientes de NVDIMM para aprovechar todo su potencial, y mientras las aplicaciones estándares verán mejoras de rendimiento, los mayores beneficios llegarán una vez que los desarrolladores programen para aprovechar el uso de la “memoria persistente”.

De momento, HPE ha desarrollado un controlador para Windows Server 2012 R2 que estará disponible con los nuevos servidores. Además, los socios de HPE, como Microsoft, apoyarán NVDIMM en las versiones de Windows Server 2016, la cual se espera que llegue a finales de este año. La compañía también está trabajando con proveedores de Linux y otros fabricantes de software.

En cuanto a precios, NVDIMMs no es barata ya que presenta un precio de 899 dólares, en comparación con las tecnologías ya existentes, donde un módulo DRAM estándar de 8GB de memoria RAM cuesta unos 249 dólares. Los módulos NVDIMMs cuentan con un microcontrolador y se conectan a una batería de iones de litio de 96 vatios integrado en el servidor. Si un servidor falla, la batería dota del voltaje necesario para alimentar al módulo hasta que los datos en la memoria DRAM hayan sido respaldados y no se pierdan. La batería puede soportar hasta 128 GB de “memoria persistente” en un servidor.

La firma destaca que los principales beneficiarios de NVDIMM serán entornos de aplicaciones como bases de datos. Diversas pruebas ya han demostrado que es posible incrementar el rendimiento hasta 10 veces más.