Etiqueta: cómputo

El cómputo en la nube garantiza la seguridad del sector salud

El sector salud es uno de los mercados más difíciles para implementar innovaciones tecnológicas debido a la confidencialidad e importancia de los datos. Sin embargo, las soluciones que ofrece el cómputo en la nube garantiza la seguridad de la información subida a la red.

De acuerdo a un estudio realizado a nivel global por la empresa MarketsandMarkets, en 2017 el mercado del Cloud Computing en el sector salud tendrá un crecimiento de 5.4 billones de dólares, generando que para el 2020, el 80% de los datos de los pacientes estará direccionándose a la nube. La promesa de esta tecnología es lograr una mayor penetración de los servicios médicos, mejorar la experiencia del paciente y ahorros operativos.

Con el desarrollo de modalidades digitales en los servicios de salud, como el expediente clínico electrónico, imagenología clínica (ultrasonidos, tomografías), radiología, la medicina a distancia, o para el manejo administrativo, el cómputo en la nube en los centros de salud se convierte en un modelo tecnológico que ayuda a la optimización de los recursos y la calidad de los servicios.

En México hay más de 23 mil unidades de salud, de las cuales el 86.8% pertenecen al sector público y 17.2% al sector privado. Sin embargo, cada centro médico cuenta con diversos sistemas o tecnologías para recabar información de los pacientes, y de la que gran parte no se encuentra estructurada, lo que dificulta la capacidad de respuesta de los médicos.

Es aquí donde entran los servicios del Cloud Computing debido a que su uso permite recabar información con una velocidad y precisión imprescindibles, resultando de utilidad tanto para la prevención, como detección y tratamiento de enfermedades al permitir un uso ordenado de los datos.

Una encuesta realizada por HIMSS Analytics, confirma que el 92% de los proveedores de servicios de salud ven en el Cloud Computing un valor indispensable para el futuro, ya que la adopción de esta tecnología beneficiará a doctores, pacientes y personal administrativo.

México ya se cuenta con 45 millones de registros electrónicos de pacientes en 3,841 unidades médicas, según datos del Proyecto Agenda Digital MX.

Hospitales o clínicas que ya cuentan con estos servicios presentan grandes beneficios y ventajas sobre aquellos que aún no cuentan con el cómputo en la nube. Por ejemplo:

Seguridad de información: una de las grandes preocupaciones de los doctores es la divulgación de la información de sus pacientes, y más si es a través de la red, ya que cualquiera podría tener acceso a la información. Sin embargo, Cloud Computing garantiza la encriptación de la información para que sólo aquellas que tengan acceso autorizado puedan hacer uso de los datos.

Capacidad de almacenamiento: muchos de los hospitales han buscado transformar Rayos X y placas a formato digital en formatos especiales, sin embargo, el peso y la lentitud de los procesos ha sido lento. Esta es una de las herramientas que ofrece el Cloud Computing, permitir a los centros de salud escalar rápido y fácil cualquier tipo de registro, ahorrando dinero al minimizar las necesidades de almacenamiento interno.

Acceso confiable: gracias a la tecnología del cómputo en la nube, la información médica de los pacientes está disponible desde cualquier lugar y dispositivo, para que los doctores tengan acceso inmediato a la descarga y visualización de los expedientes. A través de dispositivos móviles, videoconferencias y apps diseñadas específicamente para las organizaciones en el sector salud, la nube acelera las cosas y permite una mejor comunicación a distancia, facilitando la colaboración entre los médicos.

Ahorro de gastos para pacientes y hospitales: los pacientes no tendrían que pagar dos veces el costo de una misma prueba cuando van a diferentes médicos o especialistas, o si los resultados de la prueba se pierden; y, por otro lado, los beneficios de ahorro pueden ascender a más de 37 millones de dólares en un periodo de 5 años, según el reporte Cloud Standards Costumer Council.

Estos son algunos de los ejemplos de cómo Cloud Computing puede satisfacer algunas de las necesidades de pacientes y doctores, ya que con el intercambio de información se garantiza la seguridad y privacidad de los datos con el fin de ayudar a que los doctores tomen mejores decisiones, de forma más rápida y bien informadas para con el paciente.

Redacción

HPE prueba su primera arquitectura de computo basado en memoria

Palo Alto en el marco del Discover 2016, ha mostrado unos de los “hitos más importantes por transformar la arquitectura de las computadoras construidas en los últimos 60 años”, según la propia organización. Esta nueva arquitectura arrojará nuevas conclusiones sobre Big Data.

El crecimiento de dispositivos conectados que se espera para 2020, es de 20.8 mil millones, los cuales generarán un volumen de datos sin precedentes y que crecerán más rápido que las capacidades para procesarlos, almacenarlos y securizarlos con las plataformas y arquitecturas de computación de hoy en día. Así lo pone de manifiesto Gartner.

En el marco del Discover 2016, evento de referencia de HPE en Europa, celebrado en Londres, la compañía de Palo Alto ha anunciado que ha probado con éxito un “concepto revolucionario” que ha denominado “Memory Driven Computing Architecture” (computación basada en memoria) y que coloca a la memoria en el centro de la computación y no al procesamiento.

HPE quiere tomar ventaja en la carrera por la innovación y para la tecnológica este nuevo concepto representa “el hito más importante de la compañía por transformar la arquitectura de los ordenadores construidos en los últimos 60 años” Así, esta investigación se enmarca dentro de su proyecto The Machine, el programa de investigación de la firma que pretende liderar la transformación tecnológica durante la próxima década.

El proyecto ha sido diseñado por unos 375 ingenieros en los laboratorios de HPE. Así, la compañía ha conseguido que los nodos de computación accedan a un grupo compartido de memoria, que funcione el sistema operativo Linux optimizado en un SOC (System on a Chip), customizado, poner en línea y operativos los enlaces de comunicación fototónica/óptica y nuevas herramientas de programación de software diseñadas para aprovechar la abundante memoria persistente.

Durante la fase de diseño del prototipo, las simulaciones predijeron que la velocidad de esta arquitectura puede mejorar la computación por múltiples órdenes de magnitud. HPE ha utilizado nuevas herramientas de programación de software en productos existentes, mejorando la velocidad de ejecución 8000 veces en diferentes tipos de cargas de trabajo.

memoria-hpe

“Con este prototipo, hemos demostrado el potencial de la computación manejada por memoria y también hemos abierto la puerta a la innovación inmediata. Nuestros clientes y la industria en su conjunto pueden esperar beneficiarse de estos avances mientras continuamos nuestra búsqueda de tecnologías que suponen un punto de inflexión”, ha manifestado Antonio Neri, vicepresidente ejecutivo de HPE.

Redacción

 

Intel adquiere empresa de procesadores visuales Movidius

Actualmente, muchas empresas se están reorganizando y están redefiniendo su plan de negocio, otras más quieren enriquecer sus portafolios con empresas que tiene desarrollos interesantes, la estrategia de Intel, se enfoca en adquirir tecnologías esenciales para garantizar el liderazgo en el enfoque del equipo de cómputo y la computación perceptual.

Movidius ofrece la visión por computadora, la cual permite que las máquinas procesen visualmente y entiendan su entorno. Las cámaras sirven como “ojos” del dispositivo; la unidad central de procesamiento es el ‘cerebro’; y un procesador de visión es la “corteza visual”. Integrada, la visión por computador permite la navegación y el mapeo, evita colisiones, sigue y reconoce objetos, hace análisis de inspección y más.

El Vicepresidente y Gerente General del Grupo de Nuevas Tecnologías de Intel, Josh Walden señaló, “estoy muy entusiasmado con el anuncio de la adquisición pendiente de Movidius, Intel gana plataformas SoC de baja potencia y alto rendimiento para acelerar aplicaciones de visión por computador”.

“Esta adquisición trae algoritmos sintonizados con aprendizaje profundo, procesamiento de profundidad, navegación y mapeo e interacciones naturales, además de la amplia experiencia en integración de visión por computadora e inteligencia de máquina”, añadió.

La familia de Movidius, reconocida en el mercado de SoCs para visión por computador complementa las ofertas RealSense de Intel y hace que el portafolio de la forma de microprocesadores crezca.

N de P. Intel

 

 

Seis cosas que debe saber del nuevo Dell Technologies

Dell ha terminado el proceso de compra de EMC y ahora cambia el nombre del conglomerado a Dell Technologies, la mayor compañía privada de tecnología del mundo.

La nueva compañía venderá computadoras, servidores, soluciones de almacenamiento y de software. Dell Technologies no solo dispone de los equipos de cómputo y servidores de Dell y del almacenamiento de EMC, además cuenta con los activos de VMware, RSA, Wyse, Force 10, Pivotal y Boomi.

La nueva corporación ha comenzado a trabajar para que sus unidades autónomas funcionen bien, pero además tiene otras prioridades. Esto es lo que necesita saber:

  • Dell Technologies piensa como el Alphabet de Google. La compañía estará conformada por una mezcla de unidades independientes unidas unas a otras. Funcionará de forma similar al Alphabet, el cual tiene múltiples unidades independientes dirigidas por Google y trabajando estrechamente entre sí. Las unidades de Dell Technologies continuarán funcionando de forma independiente, pero también trabajarán juntas para ofrecer productos integrados, como los sistemas hiperconvergentes que combinan los servidores de Dell, el almacenamiento de EMC, la virtualización de VMware y los activos de cloud públicos y privados.
  • El solapamiento de los productos no está en peligro inmediato. La fusión Dell-EMC tenía sentido porque sus activos eran compatibles. Antes de que la compra fuera completada, Dell hizo espacio a los bienes de EMC vendiendo su división de Software por 2.000 millones de dólares a la firma de capital privado Francisco Partners y al fondo de capital riesgo Elliot Management. Asimismo, vendió su división de servicios TI por 3.000 millones de dólares a la compañía japonesa NTT Data. Todavía hay algunos productos de almacenamiento, de seguridad y cloud que se solapan, pero Dell no acabará con ellos inmediatamente.
  • La empresa señala que no habrá cambios en la división de computadoras, su nombre seguirá siendo Dell, el desarrollo de controladores no cambiará y los clientes mantendrán el mismo nivel de asistencia. La nueva compañía continuará ofreciendo XPS, Alienware y los equipos Dell Inspiririon, pero explorará nuevas áreas para seguir creciendo. La realidad aumentada y la realidad virtual serán una parte importante del futuro de la compañía.
  • La memoria flash y la infraestructura a escala de bastidor (rack) son sus prioridades. El almacenamiento All-Flash será una de las áreas principales de Dell Technologies, así como la infraestructura Dell-bastidores, capaz de aumentar la velocidad de procesamiento en los centros de datos. Su objetivo es construir un data center configurado como un servidor gigante, de forma que la estructura a escala de bastidor reduzca las facturas energéticas y las ineficiencias en el procesamiento y movimiento de datos.
  • Los usuarios de los productos de EMC no serán estafados. Los activos de Dell Technologies de VMware y Pivotal se utilizan en servidores de diversos vendedores, y eso no va a cambiar. Los productos de VMware tienen niveles de integración más altos en los servidores de Dell, pero los clientes que no tengan preferencia por dichos servidores podrán comprar productos y servicios de soporte de EMC.
  • Finalmente, podemos vislumbrar una Dell Technologies que no será un esclavo de los caprichos de Wall Street. Dell fue privado en 2013 para permanecer alejado de las brillantes luces de Wall Street; los accionistas le exigieron resultados inmediatos y, tal y como señaló la compañía, esto sofocó la innovación. En esta línea, permanecer privado permitirá a Dell Technologies perseguir sus objetivos a largo plazo.

Agam Shah

 

40 años de evolución de Apple en el cómputo personal

Al momento de lanzarse el Apple II aún no se pensaba que fuera necesario tener una computadora personal en el hogar. Repasamos también los principales logros de la empresa con productos que dieron forma a la industria y con los que no lo hicieron.

Cuando Apple lanzó Apple II en 1977, todavía estaba lejos de ser una realidad que los consumidores quisieran o necesitaran un equipo de cómputo personal. Pero mientras que los aficionados jugaban con computadoras que construían, Apple vio la necesidad de un producto más fácil, y presentó El Apple II. En un artículo publicado en mayo de 1978 en la edición americana de Computerworld se muestra el escenario del momento y se describe cómo una joven Apple Computer miraba hacia el futuro. Se comentaba cómo los primeros usuarios vieron un uso innovador en el primer equipo de cómputo de consumo de Apple.

appleII La historia de la computación personal temprana se entrelaza con la de phreaking telefónico, con el que la gente trataba de encontrar la manera de sacar ventaja de los sistemas telefónicos automáticos. Un truco muy popular era tratar de averiguar la secuencia de tonos táctiles necesaria para obtener acceso a las llamadas telefónicas gratuitas. Era un trabajo laborioso, pero con la llegada de la computadora Apple II, John Draper, un famoso phreaker y empleado de Apple, decidió crear una computadora que podría hacer el trabajo mucho más fácil. Incluso en un artículo republicado en octubre de 1984 en Infoworld el cofundador de Apple Steve Wozniak describía el truco.

Principales logros y fracasos

El aniversario 40 de la compañía, celebrado el pasado 1 de abril, es un buen momento para repasar algunos de los principales logros con los que ésta dio forma a una industria… y otros con los que no lo hizo. Uno de los grandes logros fue Apple II, el primer equipo portatil que Apple diseñó para el mercado de masas y que salió a la venta el 10 de junio de 1977, un año después del debut del Apple I. Diseñado por Steve Wozniak, fue utilizado por toda una generación para aprender a programar y adquirir conocimientos de informática. Su éxito ayudó a definir el mercado de las computadoras personales y convirtió a Apple en una empresa a tener en cuenta. El equipo se mantuvo en producción hasta 1993, cuando Apple finalmente dejó de vender Apple II.

Cuando Apple introdujo Macintosh en 1984 es probable que apenas tuviera idea de que estaba presentando un nombre que se uniría a la compañía durante más de 30 años (aunque reducido a Mac en los últimos años). El Macintosh original tenía 128 kilobytes de memoria y fue el primer equipo de cómputo de corriente con una interfaz gráfica de usuario y un ratón.

Cuando llegó el iPod, lanzado en 2001, se convirtió inmediatamente en el modelo por el cual fueron juzgados los demás reproductores de música digital. La combinación del iPod e iTunes hizo fácil la compra, posesión y escucha de música digital, y permitió que Apple adelantara rápidamente a competidores como Sony, que había sido uno de los grandes protagonistas en la venta de productos musicales desde hacía años. La popularidad del iPod sentó las bases para la próxima década de éxito en Apple, hasta que fue empujado hacia las sombras por otro producto innovador, el iPhone.

ipod-ipone-1g

La importancia del iPhone para Apple y para la industria electrónica en su conjunto es difícil de exagerar. Gracias a este smartphone se redefinió el mercado de teléfonos inteligentes, dejando a un lado la competencia que tardaron años en ponerse a su nivel. Con el iPhone Apple no solo impulsó Internet móvil, sino que logró poner sus teléfonos en manos de cientos de millones de consumidores que, de otra manera, no los tendrían. Es el dispositivo de hardware más vendido en la historia de Apple.

La llegada de OS X en 2001 también marcó un gran cambio para los usuarios de Mac y fue la base para los siguientes 15 años de innovación de software. Se basa en el software de NeXT, empresa a la que Steve Jobs se fue después de salir de Apple en 1985, y el sistema operativo BSD. Las actualizaciones anuales de Apple han ayudado a mantener Mac completamente al día y que este sistema esté por delante de la competencia. Desde Mavericks esas mejoras han sido gratuitas durante la vida útil de las máquinas.

No podemos olvidar algo que no es tan grande. En 1989, la informática estaba completamente ligada al escritorio, pero el debut del Macintosh portátil prometía a los usuarios la libertad de trabajar donde quisieran. Con una pantalla LCD monocromática de 9.8 pulgadas, unidad de disquete y rueda de desplazamiento, el equipo era más que destacable en ese momento. Pero pesaba 7 kilos (más del doble de algunas máquinas de la competencia) y quizás su peor característica era una batería de serie con una fuente de alimentación. Eso significa que cuando la batería estaba agotada, para que el equipo funcionara, había que esperar hasta que ésta se recargara.

Pero las apariencias no lo son todo, y algunos propietarios de Power Mac G4 Cube (imagen de portada), pueden dar fe de ello. Cuando el equipo se presentó por 1 799 dólares en julio de 2000, Apple tenía grandes esperanzas. Pero se suspendió un año después por bajas ventas.

Por su parte, el Apple III pasará a la historia como el primer gran fracaso de Apple. Dirigido a usuarios de negocios, costaba entre 4 340 y 7 800 dólares cuando se presentó en 1980 (un precio muy alto para un equipo con pocas aplicaciones, software defectuoso y chips que no se quedarían en sus sockets). La leyenda cuenta que en un momento dado Apple dijo a los clientes que dejaran el equipo en la mesa para mantener los chips en su lugar. El debut del PC de IBM, un año después, por 1 565 dólares, casi significó el final de la Apple III.

Claro que antes de que Internet se convirtiera en algo común fuera de los laboratorios de investigación y universidades, hubo un puñado de servicios en línea. Apple puso en marcha en junio de 1994 eWorld, un servicio para ofrecer correo electrónico, tablones de anuncios y el acceso limitado a los servicios de Internet. Compitió con los servicios más grandes, como America Online, Microsoft Network y CompuServe, y logró ganar alrededor de 100 000 abonados antes de ser cerrado dos años después de su lanzamiento. Nunca se materializó una versión planeada para PC y los usuarios se cambiaron a AOL cuando se cerró.

newtoniphone

A veces las empresas se adelantan a su tiempo. Es lo que le ocurrió a Apple con Newton, una temprana PDA (asistente digital personal) que ayudó a avanzar en el reconocimiento de la escritura manual. Pero tuvo una mala vida por la batería y su alto precio. Se canceló en 1998.

Martyn Williams

 

IBM desarrollará computadoras que imiten las capacidades cerebrales

En la última versión del NS16e, el cual sigue su progreso. El sistema alcanza el mismo tipo de resultados obtenidos por los algoritmos de aprendizaje automático en las computadoras que realizan reconocimiento de patrones.

IBM quiere crear computadoras inteligentes que puedan llegar a tomar decisiones como si de una persona se tratara. Por ello, esta semana ha lanzado el NS16e, su última proyección en este ámbito. Sin embargo, desde la empresa reconocen que tienen aún grandes metas por delante.

En principio, la multinacional tiene pensado desarrollar varias versiones más grandes del NS16e para intentar igualar las complejidades de un cerebro humano. “Tal vez un día podamos ver un único rack de sistema Neurosynaptic con el mayor número de neuronas y conexiones posible”, ha dicho Jun Sawada, investigador de IBM.

Actualmente los esfuerzos que se realizan para imitar sistemas cerebrales están destinados a proporcionar una gran cantidad de datos de una manera más eficiente energéticamente que los actuales equipos de cómputo. Desde IBM creen que el NS16e puede procesar enormes cantidades de información mientras que consume la misma potencia que una tableta.

Esta nueva herramienta se basa en una arquitectura de chip avanzado llamado TrueNorth que puede retener la información y tomar decisiones basadas en los patrones descubiertos por medio de probabilidades y asociaciones. A través del uso de modelos de aprendizaje y algoritmos la computadora puede asociar datos tanto pasados como actuales con patrones y clasificaciones.

De alguna forma, el sistema alcanza el mismo tipo de resultados obtenidos por los algoritmos de aprendizaje automático en computadoras que realizan el reconocimiento de patrones. Por ejemplo, estos modelos se utilizan para reconocer objetos en imágenes y para los coches autónomos que reconocen peatones o señales de tráfico.

Sin embargo, la computadora de IBM se diferencia en que utiliza circuitos para aproximarse a la forma en que funcionan las neuronas y las sinapsis del cerebro. La compañía ha rediseñado las funciones de memoria, cálculo y comunicación para poder ser más eficientes en el procesamiento de datos.

“En nuestro cerebro, una cierta porción de la corteza es responsable del reconocimiento visual y otras partes son responsables de la función motora. El NS16e tiene algo similar. Puedes asignar al chip las funciones que lleve a cabo, partiendo de una gran red neuronal”, ha asegurado Sawada.

El NS16e tiene 16 chips TrueNorth que están interconectados en una malla, que asciende al equivalente de aproximadamente 16 millones de neuronas y 4 000 millones de sinapsis. Aun así, se trata de una escala muy inferior a la del cerebro humano, que tiene 100 000 millones de neuronas que se comunican a través de billones de conexiones.

“El sistema está todavía en evolución. Estamos creando continuamente nuevos algoritmos de aprendizaje y nuevas técnicas de generación de modelos”, ha expresado Sawada.

Redacción

Científicos encuentran una forma de construir una versión cuántica de Fredkin

Se ha encontrado la posibilidad de construir grandes circuitos cuánticos, esto se refleja como un nuevo paso para acelerar la llegada de la computación cuántica.

La llegada de la computación cuántica está cada vez más cerca tras el descubrimiento de unos científicos que han demostrado que un bloque de construcción clave puede ensamblarse.  Las computadoras cuánticas están basadas en una escala atómica de bits cuánticos o quobits, que pueden representar 0 y 1 simultáneamente. Se espera que estas computadoras  aporten enormes mejoras de rendimiento sobre los equipos de cómputo tradicionales, aunque su potencia dependerá de la capacidad de construir circuitos cuánticos de trabajo.

Esto es lo que aporta la puerta Fredkin, también conocida como puerta controlador SWAP. La versión cuántica de la puerta clásica Fredkin intercambia dos qubits dependiendo del valor del tercero. Esto podría ser un componente clave en un circuito cuántico, pero debido a la complejidad que implica, nadie había conseguido desarrollarlo hasta ahora.

Mientras que la clásica Fredkin requiere un circuito de cinco operaciones lógicas, investigadores de la Universidad Griffith y la Universidad de Queensland han utilizado el entrelazamiento cuántico de las partículas de luz para implementar el controlador SWAP directamente.

“Igual que en la construcción de una enorme pared con muchos ladrillos pequeños,  los grandes circuitos cuánticos requieren muchas puertas lógicas de función”,  explicó Raj Patel, un investigador del centro Griffith para Quantum Dynamics. “Sin embargo, si se utilizan ladrillos más grandes, la misma pared podría ser construida con un número mucho menor de los ladrillos”.

En esencia, los científicos demostraron cómo construir grandes circuitos cuánticos directamente, sin tener que utilizar numerosas pequeñas puertas lógicas. Este nuevo avance pone a las computadoras cuánticas más al alcance.

Científicos del MagLab de la Universidad de Florida también han presentado de forma reciente, avances en el campo de la computación cuántica que tenían que ver con la reducción de la susceptibilidad a las perturbaciones magnéticas de los qubits.

Katherine Noyes

 

HPE va por la hiperconvergencia competirá con Nutanix y Cisco

HP Enterprise (HPE) lanzará su producto de sistemas hiperconvergentes basados en su servidor Proliant que va para finales de marzo, según ha anunciado su CEO Meg Whitman.

HPE planea entrar de lleno al masificado mercado de los sistemas hiperconvergentes este mismo mes. La información fue dada conocer por su CEO, Meg Whitman, durante la teleconferencia trimestral sobre ganancias de HPE del jueves. Durante la conferencia, Whitman apuntó a Nutanix como una de las startups pioneras en esta categoría.

“A finales de este mes vamos a anunciar una nueva oferta de sistemas hiperconvergentes, basados en nuestro servidor Proliant”, comunicó Whitman. “Nuestra nueva solución ofrecerá a los clientes una instalación en cuestión de minutos, una experiencia de usuario preparada para uso móvil, sencilla y con las operaciones de TI automatizadas, ofreciendo un costo del 20% menor que Nutanix”.

Los sistemas hiperconvergentes combinan funciones de almacenamiento, de computación y de redes en un solo producto el cual se ofrece como una aplicación. Son una evolución de los sistemas convergentes pero con componentes con los que están más estrechamente ligados. Sistemas convergentes, como VCE Vblocks, tienden a ser productos de gama alta a medida para cargas de trabajo concretas en las grandes empresas. En cambio, los sistemas hiperconvergentes pueden orientarse también a las empresas de tamaño medio y tienden a costar menos y a necesitar menos personalización.

IDC señala que estos sistemas se desarrollaron pensando en los escritorios virtuales aunque con el tiempo se han extendido a otros tipos de servicios. En estimaciones de la consultora, el mercado de sistemas hiperconvergentes habrá crecido un 60% en 2019 alcanzando los 4 000 millones de dólares en ventas. Estas cifras podrían explicar la entrada de HPE en este mercado, aunque no será la única. Cisco ha anunciado esta semana también su intención de introducirse en los sistemas hiperconectados con un producto desarrollado junto a Springpath.

Whitman explicó que HPE está consciente de que este es un mercado bastante concurrido por lo que van a desarrollar sus productos en un tiempo récord. Aún así, no dio fechas concretas para el lanzamiento.

Por otra parte Nutanix, remarca que toda la atención que está recibiendo la compañía en estas semanas no es más que la confirmación de la importancia de los sistemas hiperconvergentes para los centros de datos. “Ganar el mercado de la nube requiere innovación constante y el compromiso con el valor del cliente, no sólo competir en precio”, comentó en un comunicado Sudheesh Nair, presidente de Nutanix.

Durante la videoconferencia, además de los sistemas hiperconvergentes, Whitman presentó lo que será otro de los nuevos proyectos de la compañía aunque sin dar demasiados detalles al respecto. Se trata de lo que HPE ha denominado “memoria persistente” (persistent memory), es una nueva tecnología que permitirá a los servidores hacer un uso más amplio de memorias no volátiles como flash.

-James Niccolai

 

Nuevo mainframe procesa 2 mil millones de transacciones al día

ibm-z13IBM presentó un nuevo mainframe, con la promesa de que ayudará a los clientes a detectar más fraudes en tiempo real y revisará miles de millones de transacciones generadas todos los días por smartphones y tablets.

El z13 es el primer mainframe presentado por IBM en casi tres años, y muestra que la compañía continúa invirtiendo en un producto en el que aún se confía mucho en bancos, aerolíneas y otras grandes firmas.

El z13 tiene un nuevo diseño de procesador, un I/O más rápido y la capacidad de trabajar con hasta 10TB de memoria, tres veces más que su predecesor. Puede albergar hasta 141 unidades de procesador en un solo sistema y correr hasta ocho mil servidores virtuales, indicó la compañía.

IBM recientemente celebró el 50 aniversario de los mainframes y una de las razones que se mantienen vigentes –a pesar de que IBM vendió su negocio de servidores x86– es que la compañía los mantiene actualizados para que se hagan cargo de las nuevas tareas de cómputo.

Algunas de sus aplicaciones

Cada vez que una persona presiona el botón “comprar” en una aplicación de teléfono inteligente, se dispara una cascada de transacciones detrás de escena, lo que involucra aprobaciones de tarjetas de crédito, inventarios y sistemas de facturación. El z13 puede procesar 2.5 mil millones de transacciones al día, sostiene IBM; lo cual es equivalente a “100 Cyber Mondays” de Estados Unidos, todos los días del año, según la compañía.

La detección del fraude es otro de los puntos de interés. El z13 permitirá a las compañías analizar cada transacción que procesan casi en tiempo real para detectar instancias de fraude en banca, seguros de salud y otras industrias, de acuerdo con la compañía. Los mainframes de la actualidad permiten que los proveedores de salud analicen casi de la mitad de sus transacciones a esa velocidad. Ahora será posible efectuar analítica en tiempo real en el 100% de las transacciones, según IBM.

A un máximo de 5GHz, el procesador del z13 es más lento en términos de velocidad de reloj que el chip en el z12, pero IBM señala que esto se compensa con otras mejoras. El chip tiene ocho núcleos –en comparación con los seis de su predecesor– y se encuentra manufacturado con un nuevo proceso de 22 nanómetros, lo cual implica transistores más pequeños y rápidos.

Quizás más importante es señalar que el nuevo chip es el primer procesador para mainframe de IBM en incorporar multithreading simultáneo (SMT), lo cual le permite ejecutar dos instrucciones en paralelo en cada ciclo de reloj. El SMT se ha ofrecido antes en los chips x86 y más recientemente con los procesadores Power de IBM, pero la compañía no ha añadido SMT a los chips de mainframes en el pasado, porque el software para mainframe zOS no estaba escrito para aprovecharlo.

El z13 también ofrece soporte para SIMD (Single Instruction, Multiple Data), otra tecnología de computación paralela que ha sido soportada durante mucho tiempo por los chips x86, la cual debería acelerar las capacidades de analítica del mainframe. La analítica también ha sido mejorada en DB2 BLU para Linux, una tecnología de base de datos in memory que ahora llega al mainframe. El z13 también correrá Hadoop, sostiene IBM, el cual se utiliza para analizar grandes conjuntos de datos.

Por el momento, IBM no ha proporcionado los precios de sus nuevos mainframes, pero fácilmente pueden pasar los 100 mil dólares. El z13 está siendo instalado en algunos clientes iniciales esta semana y será desplegado más ampliamente en los siguientes meses, según la compañía.

-James Niccolai, IDG News Service