Etiqueta: Apache

El 2017 se perfila como el año del Big Data

Una de las grandes esperanzas para las empresas en este nuevo año es que mejoren sus compromisos con el Big Data y comiencen a poner datos útiles y procesables en manos de los negocios en el momento en que los necesitan.

Como el costo del almacenamiento continúa cayendo y la disponibilidad de soluciones de análisis SaaS (software as a service) se están multiplicando, la oportunidad de implementar estas técnicas y de formar a los empleados nunca ha sido más fácil y barata. Estas son algunas de las tendencias que el 2017 nos va a dejar en materia de Big Data, analytics y Business Intelligence (BI).

Abrazando machine learning

La consultora Ovum cree firmemente que el machine learning será el elemento disruptor “más grande” para en el análisis de datos en este nuevo año.  El experto en esta materia, Tony Baer, asegura que “el aprendizaje automático seguirá creciendo, pero en la mayoría de los casos se integrará en aplicaciones y servicios en lugar de desarrollarse a medida de los usuarios, ya que pocas organizaciones fuera del Global 2000 cuentan con científicos de datos entre su personal”.

Los vendedores han comenzado a comercializar paquetes que hacen que sea más fácil que nunca que las empresas apliquen estas tecnologías en sus conjuntos de datos, por lo que es de esperar que se continúe aprovechando la analítica predictiva, los motores de recomendación la personalización del cliente y la detección de fraudes y amenazas.

Más allá de Hadoop

La solución de almacenamiento de datos de código abierto Apache Hadoop ha centrado la conversación de la industria de BI en los últimos años. Ahora, las alternativas más viables están empezando a llegar a través de Apache Spark.

El motor de procesamiento de datos in-memory ya había sido promocionado hace años, pero, tal y como señala Baer, la capacidad de implementar Spark en la nube está impulsando la adopción. “La disponibilidad de Spark basado en cloud junto con el aprendizaje automático y los servicios de IoT ofrecerán alternativas para las compañías”.

Aunque similares, Hadoop y Spark son productos diferentes. “El debate se agrava cuando se elimina la sobrecarga de un propósito general de procesamiento de datos y el motor de almacenamiento. En este caso Spark debería ser más eficiente. Sin embargo, el inconveniente reside en que los clústeres independientes de Spark carecen de la seguridad o las características de administración de datos de Hadoop”.

Expertos en visualización de datos creen que los que han adoptado Hadoop recientemente pueden aprovechar las herramientas de preparación de datos de autoservicio para 2017.

Data Lakes utilizables

En los últimos años ha vencido la tendencia a tener una única fuente de datos en la empresa en lugar de varias, lo que facilita compartir información sobre la organización. Se espera que  las empresas que implementan Data Lakes vuelvan a estar gobernadas de manera adecuada.

Ramon Chen, gerente de gestión de datos de Reltio ha indicado que muchas empresas que tomaron el Data Lake desde sus inicios gastaron una cantidad significativa de dinero, no solo con la compra bajo la promesa de bajo costo de proceso y almacenamiento, sino de una gran cantidad de servicios. Con el fin de agrupar y poner a disposición agrupaciones significativas de grandes datos para ser correlacionados y descubiertos para una mejor comprensión”.

La empresa necesita aún científicos de datos

La demanda de perfiles específicos de científicos de datos podría ir satisfaciéndose poco a poco a medida que entran más graduados al mercado de trabajo. Según el informe 2016 Mind The Gap de Hired, las ofertas de salarios de científicos de datos aumentaron en un 29% en los últimos 18 meses. El informe también mostró un aumento del 234% en las solicitudes de entrevistas para ingenieros de datos en el mismo período.

Más Business Intelligence de autoservicio

Aaron Auld, CEO y especialista en analítica de EXASOL, cree que la BI de autoservicio, donde los usuarios de negocios tienen acceso directo a la analítica, seguirá siendo una tendencia en la empresa en 2017.

Las herramientas de autoservicio están ganando terreno tanto en la empresa como en las startups de reciente creación. A medida que el análisis de datos se integra más en el núcleo del negocio, habrá un cambio hacia la implementación de análisis de datos con bases de datos, herramientas de visualización como Tableau y herramientas de preparación de datos como Alteryx.

Análisis en streaming

La analítica en tiempo real es la práctica de monitorear los datos a medida que se transmiten a la organización, en lugar del análisis tradicional. Esto es particularmente clave cuando se analiza la salud de la infraestructura, por lo que el análisis en streaming debe ser una fuerza tractora en 2017.

Redacción

 

Citrix lanza una versión gratuita de carga NetScaler para desarrolladores

El tema de la Transformación Digital, es donde las empresas en la actualidad llevan a la línea del negocio al adoptar metodologías veloces de desarrollo e implementación de aplicaciones, tales como DevOps.

Las empresas están desarrollando sus propias aplicaciones para mejorar la productividad interna y aumentar el compromiso de los clientes. Citrix anunció el lanzamiento de NetScaler CPX Express, una versión gratuita para desarrolladores, que es un NetScaler en factor de forma de contenedor que entrega un balanceador de carga probado rigurosamente para que los desarrolladores puedan crear aplicaciones de microservicios.

A diferencia de las alternativas de software gratuito y de código abierto (F/OSS), NetScaler CPX Express es un balanceador de carga con funcionalidades completas compatible con microservicios que les da a los desarrolladores la misma funcionalidad segura y de nivel empresarial que la plataforma NetScaler, permite una transición sin inconvenientes de la infraestructura para entrega de aplicaciones en los dos ciclos, desde el desarrollo hasta la implementación. NetScaler CPX Express ofrece a los desarrolladores de aplicaciones de microservicios como:

  • Capacidades de balanceo de carga con reconocimiento de aplicaciones
  • Actualizaciones fáciles y en servicio sin disrupción para los microservicios
  • Capacidades de seguridad avanzadas tales como descarga de SSL y protección contra vectores de amenazas DDoS para la capa de la red, el transporte y las aplicaciones, y límites a la velocidad de API para mitigación de ataques DDoS
  • Descubrimiento y autorreconfiguración de servicios con los sistemas de gestión de contenedores Google Kubernetes, Docker Swarm y Apache Mesos
  • Visibilidad, gestión y análisis en tiempo real mediante la integración con Sistema de análisis y administración de NetScaler
  • La capacidad de puesta en funcionamiento en menos de cinco minutos

Redacción

Las cinco habilidades open source más demandadas en la empresa

El mercado laboral que está relacionado con código abierto va en aumento y las empresas siguen demandando habilidades en este terreno para impulsar su negocio, podemos decir, que en concreto, cinco habilidades que concentran la mayor parte de la demanda actual.

Según la última encuesta al respecto de Dice y la Fundación Linux, el 65% de los directores de recursos humanos cree que, en los próximos seis meses, aumentará la contratación de especialistas en código abierto, más que la de cualquier otro perfil. Gran parte de la demanda viene provocada porque el código de fuente abierta es parte fundamental del mundo actual.

A continuación le compartimos las cinco habilidades más demandadas, según el informe:

  • Desarrolladores. El 74% de los encuestados mencionaron la necesidad de desarrolladores de código abierto calificados. Esto incluye habilidades en Linux, Unix, Apache, Hadoop y otras plataformas de código abierto, que abarcan áreas de tecnología, como desarrollo de software, Big Data, tecnología de data center o seguridad.

“A medida que incluso las empresas tradicionales abrazan la transformación digital, hasta los objetos más mundanos, como termostatos o automóviles, tienen un software que requiere código, y gran parte de ese código es abierto”, reconoce Jim Zemlin, director ejecutivo de la Fundación Linux.

  • DevOps. El 58% de los directores de recursos humanos asegura estar buscando profesionales especialistas en DevOps este año. Como las funciones de los administradores de sistemas y de los desarrolladores de software convergen en la nube, los profesionales DevOps están en muy alta estima, para ayudar a las empresas a diseñar, suministrar y desplegar tecnologías en la nube, señala Zemlin.

 

  • Tecnología de la nube.La tercera característica, son los especialistas OpenStack, CloudStack y otras tecnologías similares son mencionadas por el 51% de los directores de recursos humanos encuestados. La cantidad de tecnología corporativa que se está moviendo a la nube está creciendo exponencialmente y eso impulsa la necesidad de contratar a arquitectos cloud y otros profesionales cualificados.

 

  • Redes. También han una elevada demanda en networking, y el 21% de los directores de recursos humanos están buscando talento en esta área, según la misma encuesta. A medida que las organizaciones se mueven desde soluciones definidas por hardware a otras definidas por software, la conectividad se vuelve cada vez más importante.

 

  • Almacenamiento. Una de las especialidades del conteo con buena forma, que no extraña tras el comentado crecimiento de las necesidades en cloud y redes. Las capacidades de almacenamiento de código abierto distribuido también están en alta demanda, dice Marie Louise van Deutekom, jefa de recursos humanos de SUSE Linux. “La necesidad de acceder a los datos, archivos e información a través de una red, por parte de múltiples usuarios desde múltiples ubicaciones a partir de recursos compartidos en la nube, supone una tormenta perfecta para la demanda de talento de almacenamiento distribuido”, señala.

IDG

 

Las competencias técnicas más valoradas y demandadas por las empresas

A continuación le compartimos las 10 competencias y habilidades tecnológicas que están teniendo mayor demanda por parte de las empresas, según apunta un informe de Dice. Cabe destacar que las competencias que encabezan en la lista es la especialización en tecnologías relacionadas con Big Data y nube.

La firma hace seguimiento de las ofertas de trabajo de todo un año, para determinar qué cualidades se demandan.

  1. Spark

Tras el éxito de su framework de código abierto de Hadoop, Apache desarrolló este motor de procesamiento en open source, destinado a ayudar a las empresas a procesar grandes conjuntos de datos. Cada vez hay más compañías que lo utilizan a la hora de construir sus infraestructuras tecnológicas, así que los profesionales TI con conocimientos en código y programación en Spark figuran entre las prioridades de contratación.

  1. Azure

Microsoft Azure, es de las plataformas en nube más reconocidas, está diseñada para mejorar la productividad de los profesionales de TI. Tener capacitación en Azure puede hacer más eficiente y simplificar el desarrollo y las analíticas de las apps móviles. En general, los profesionales con experiencia en Microsoft Azure y en Amazon Web Services (AWS) son particularmente deseados.

  1. Salesforce

Salesforce no es nueva en el mundo de la tecnología, pero sí que debuta en la lista de las habilidades más requeridas en el mercado. La compañía continúa siendo un jugador dominante en servicios innovadores de atención al cliente para equipos de ventas. El interés por profesionalidades especializadas en Salesforce es amplio, y se destaca por su elevada demanda por parte universidades, empresas de consultoría de gestión y compañías de seguros.

  1. Big Data

Big Data es una tendencia global que supone un reto para las empresas a la hora de extraer valor de un gran conjunto de datos. Las compañías quieren aprovechar sus beneficios y tener una mayor visibilidad de sus clientes y de los patrones de comportamiento de los usuarios. El valor de los profesionales con experiencia y conocimientos en esta área también está en alza.

  1. JIRA

JIRA es un sistema de gestión de proyectos y seguimiento de incidencias, desarrollado por Atlassian, y de uso común en el desarrollo de software. Su popularidad ha crecido en el mundo de la tecnología y cada vez más empresas demandan experiencia en ella. Empieza a ser un prerrequisito obligatorio en los procesos de selección.

  1. Ingeniero eléctrico

Aunque es el único puesto de ingeniería de esta lista, no es extraño que los ingenieros eléctricos estén en gran momento. Su papel en el diseño, programación, aplicación, fabricación y operación de sistemas electrónicos o informáticos, comienza a ser vital con la emergencia de Internet de las Cosas.

  1. La nube

Éste es otro punto fundamental para cualquier profesional de TI en este momento en el que muchas organizaciones han dado el paso de migrar muchos de sus recursos a la nube. Por eso, muchas compañías están dispuestas a abrir sus carteras y pagar por profesionales expertos en la nube.

  1. Hive

El sistema de data warehouse analiza grandes conjuntos de datos Hadoop. La demanda en Hive está creciendo a la vez que lo hacen otras habilidades en Big Data, como Spark. Aunque todavía es muy nueva, esta herramienta  está consiguiendo el reconocimiento de empresas, como Apple y Amazon, que buscan profesionales con conocimientos prácticos en él.

  1. Cassandra

Cassandra es otra habilidad de Big Data/Apache que también se utiliza para ayudar a almacenar, procesar y acceder a grandes conjuntos de datos. Esencial para el éxito de una empresa, los profesionales con experiencia en Cassandra son bien compensados.

  1. Redes

En la actualidad, el mercado y la mayoría de las empresas dependen de los productos y servicios de redes para impulsar su éxito. El informe cita a proveedores como Juniper Networks, y dice que aumentan la demanda para candidatos que sean capaces de administrar redes y su seguridad.

Redacción

 

Cloudera y EMC crean una solución para Apache Hadoop

El DSSD D5 será la primera solución de una nueva categoría de almacenamiento, Rack Scale Flash. Orientada al Big Data, el cual está destinado en mejorar el rendimiento de las nuevas aplicaciones de análisis en Hadoop.

Cloudera colaborará en la creación de un plug-in para la API de EMC, DSSD D5, que permitirá innovaciones en almacenamiento de alto rendimiento en el ecosistema ApacheTM Hadoop. De esta forma, ambas compañías amplían su colaboración tecnológica.

“Cuando empezamos a trabajar con EMC en Isilon, y creció al incluir DSSD, fue porque creímos en la necesidad de una arquitectura de big data capaz de soportar tanto el almacenamiento local como el remoto”, explica Mike Olso, founder y chief strategy officer en Cloudera. “Ese trabajo está empezando a dar sus frutos y estamos entusiasmados por ver los nuevos casos que nuestros usuarios y colaboradores pueden llevar a cabo”.

“Nuestra relación con Cloudera está permitiendo que nuestros clientes comunes obtengan más valor de su ecosistema Hadoop con la plataforma flash de más alto rendimiento de todos los tiempos. Tiene el potencial de cambiar las reglas del juego”, explicó Jeremy Burton, presidente de productos y Marketing en EMC Corporation.

Hadoop aporta a las empresas la posibilidad de almacenar y analizar datos en tiempo real, elementos clave en la transformación digital de las empresas. El DSSD D5 en el que colaboran Cloudera y EMC supone una nueva plataforma de almacenamiento flash capaz de hacer frente a los grandes volúmenes de trabajo en Apache Hadoop. Gestionado con Cloudera Enterprise proporciona un mayor rendimiento para estos volúmenes de trabajo. En alabras de los desarrolladores, esta solución alcanza un rendimiento diez veces mayor para aplicaciones del día a día como la detección de fraudes, de autorización de tarjetas de crédito o de analítica avanzada.

Este dispositivo está orientado a sectores como el internet industrial, vehículos conectados o sistemas financieros que necesitan llevar a cabo análisis de datos en tiempo real. El sistema ofrece acceso directo a la memoria (DMA) dirigido en HDFS y con una conectividad de baja latencia. El uso más eficiente de flash supone también reducir el número de copias requeridas sin dejar de ofrecer la disponibilidad de datos en clave empresarial. “Las capacidades analíticas son absolutamente imprescindibles para mejorar la experiencia del cliente, generar ingresos y adelantarse a la competencia”, aseguró Burton.

Toñi Herrero Alcántara

 

Cloudera y Argile Data van contra el fraude de proveedores de servicios de comunicación

La plataforma de analítica de fraude en tiempo real, la cual está basada en Hadoop ofrece un descubrimiento de fraude por encima de 350 por ciento.

Cloudera y Argyle Data han presentado su nueva plataforma dirigida especialmente a los proveedores de servicios de comunicación (CSP). Esta nueva solución, construida sobre Apache Hadoop, está enfocada a reducir los problemas derivados del aumento creciente del fraude móvil  con la consiguiente pérdida de ingresos que conlleva para las empresas CSP.

Según la Encuesta de Pérdida Global por Fraude 2015 publicada por Communicatios Fraud Control Association, los dispositivos móviles y operadores de líneas fijas pierden unos 38 000 millones de dólares anuales a causa del fraude. Los métodos utilizados cada vez son más rápidos y eficaces y en algunos casos ni siquiera se detectan a tiempo manteniéndose en los sistemas durante mucho tiempo.

Respecto a la información anterior, Argyle Data y Cloudera han desarrollado una plataforma de análisis más eficaz para los sistemas tradicionales. Según sus creadores, esta plataforma puede descubrir hasta un 350% más fraudes que otras que basan su trabajo en las normas, mediciones de laboratorios de prueba o entornos de operador vivo. La solución de Cloudera y Argyle Data permite a los CSP anticiparse a posibles amenazas para los ingresos y reducir el fraude en las telecomunicaciones a nivel global.

La plataforma está basada en Hadoop y combina ingesta de datos, con análisis de ingresos y aprendizaje automático con la que se consigue analizar a tiempo real una mayor cantidad de datos a través de centros empresariales (EDH). Sus desarrolladores confían en que esta combinación suponga no sólo un ahorra económico a los operadores en materia de fraude sino también un reducción en la pérdida de datos y una mayor prevención de posibles daños que puedan dañar a las marcas.

-Toñi Herrero Alcántara

 

Hitachi lanza una plataforma para Big Data basada en Pentaho

El nuevo dispositivo está preconfigurado y simplifica la implementación, operaciones y el escalado de los proyectos empresariales de Big Data.

Hitachi Data Systems Corporation (HDS), ha puesto en el mercado una nueva generación para Big Data de Hitachi Scale- Out Platform (HSP), el nuevo producto de la marca cuenta con integración nativa con la plataforma empresarial Pentaho. El pasado año, Hitachi se hizo con la compañía para impulsar su negocio IoT. De este modo, pretende ofrecer una plataforma preconfigurada que ayude a las organizaciones a obtener valor de las enormes cantidades de datos que se generan con las tecnologías de la información, la tecnología operativa, el Internet de las Cosas y los datos generados automáticamente en sus entornos.

HSP brinda una solución con ampliación horizontal e hiperconvergencia que combina capacidades de computación, almacenamiento y virtualización. El nuevo dispositivo pretende derribar las barreras de desconfianza de muchos usuarios a través de una arquitectura definida por software para centralizar y permitir un almacenamiento además de procesamiento sencillo de grandes conjuntos de datos.

El diseño de ampliación horizontal de HSP proporciona una infraestructura simplificada, escalable y preparada para el uso empresarial de Big Data. También incluye una interfaz de usuario centralizada para automatizar la implementación y la gestión de entornos virtuales para marcos destacados de Big Data de código abierto, incluido Apache Hadoop, Apache Spark y paquetes comerciales como Hortonworks Data Platform.

“Muchas empresas no cuentan a nivel interno con conocimientos especializados para realizar análisis de Big Data a escala con fuentes de datos complejos en entornos de producción. La mayoría desea evitar los inconvenientes de experimentar con tecnologías en ciernes y buscan una vía clara para obtener valor real de sus datos sin riesgos ni necesidades”, ha asegurado Nik Rouda, analista sénior de Enterprise Strategy Group. “Es por ello que a los clientes empresariales les interesa beneficiarse de sistemas configurados que superan las principales barreras de adopción al reducir el tiempo de obtención de información y valor, lo que acelera la transformación digital”.

-M. Moreno

 

Aspectos que debe tener en cuenta de Hadoop y Apache Spark

Dentro de la industria, se les considera como competidores en big data, actualmente gozan de una aceptación creciente entre la comunidad “open source”, afirman que prefieren verlos trabajando en conjunto.

Hablar de big data significa, en muchas ocasiones, hacer referencia a Hadoop o Apache Spark. Cinco aspectos fundamentales sobresalen en el momento de hacer comparaciones entre uno y otro.

  1. Realizan trabajos distintos. Aunque tanto Hadoop como Apache Spark son infraestructuras de big data, realizan tareas para diferentes propósitos. El primero es esencialmente una infraestructura de datos distribuida (asignando colecciones masivas de datos a través de múltiples nodos dentro de cluster de servidores), al tiempo que indexa y mantiene un seguimiento de los datos preparándolos para procesos de analítica. Mientras que Spark no realiza funciones de distribución de almacenamiento, sino que es una herramienta de procesamiento de datos que opera en las colecciones de datos distribuidas.
  2. Son aplicaciones independientes; por lo que una puede operar perfectamente sin necesidad de disponer de la otra. Hadoop incluye un componente de almacenamiento, llamado MapReduce, por lo que no es necesario emplear Spark para realizar las tareas de procesamiento. Spark, sin embargo, no incluye un fichero de gestión del sistema por lo que necesita la integración de uno de ellos; si no es HDFS, se necesitaría otra plataforma de datos basada en cloud.
  3. Spark ejecuta con mayor velocidad, con respecto a MapReduce, gracias al procesamiento de datos. Mientras que MapReduce opera paso a paso, Spark opera simultáneamente en todo el conjunto de los datos. Spark puede llegar a ser 10 veces más rápido que MapReduce en procesos batch, y puede ser 100 más rápido en funciones de analítica en memoria interna.
  4. Es probable que no todos necesiten la velocidad de Spark. El estilo de procesamiento de MapReduce puede satisfacer las necesidades relacionadas con operaciones de reporting, dado que los requerimientos son más estáticos a la hora de obtener un procesamiento en modo batch. Pero si el usuario necesita realizar el tipo de streaming o analítica de datos que realizan los sensores en una cadena de producción o disponer de aplicaciones que requieren múltiples operaciones, entonces la elección ha de ser Spark; el cual incluye campañas de marketing en tiempo real, recomendaciones a productos online, analítica para funciones de ciberseguridad y monitoreo de la carga de las máquinas.
  5. Distintos en recuperación de fallos, pero igualmente buenos. Hadoop es resistente de modo natural a errores y fallos del sistema ya que los datos se escriben en el disco tras cada operación; pero Spark dispone de una resistencia similar pero mantiene los datos en objetos que son almacenados en la zona de distribución de datasets, los cuales permanecen distribuidos por todo el cluster de datos.

-Marga Verdú

RackHD es el proyecto de código abierto de EMC

El proyecto está disponible bajo licencia Apache 2.0, el nuevo proyecto responde a los retos de hiperescala en los Datacenter, logrando con ello que la comunidad CoprHD anuncie una actualización de software y nuevas colaboraciones con Intel y la Universidad del estado de Oregón.

EMC Corporation ha anunciado hoy RackHD (Rack Hardware Director), una tecnología de plataforma libre destinada a resolver los retos en la gestión y orquestación de servidores y recursos de red a hiperescala, como respuesta a su compromiso por realizar nuevas y destacadas aportaciones a la comunidad de código abierto. Además, la comunidad CoprHD ha anunciado el lanzamiento de CoprHD 2.4 y nuevas colaboraciones con Intel y la Universidad del estado de Oregón, estos anuncios marcan un hito importante a medida que CoprHD evoluciona más allá de un proyecto de código abierto de un único proveedor. Por último, EMC también ha anunciado mejoras en su proyecto REX-Ray, su motor de orquestación de almacenamiento de código abierto para su uso con contenedores Docker, Mesos y otros.

RackHD API disponible para desarrolladores

RackHD ya ofrece el software para la gestión y orquestación del hardware (M&O) que automatiza el descubrimiento, descripción, aprovisionamiento y programación de una amplia gama de servidores, y una hoja de ruta para agregar dispositivos de red en el futuro.

Los centros de datos modernos son una combinación de múltiples proveedores de almacenamiento, redes y servidores con una creciente variedad de hardware Commercial-Off-the-Shelf (COTS, Commodity) en los casos de uso de hiperescala. La instalación de sistemas operativos de bajo nivel o la actualización de firmware y BIOS a través de numerosos dispositivos, es ya de por sí es una tarea manual complicada para los ingenieros de los centros de datos, cuya complejidad y costes se incrementan un orden de magnitud en el nivel hiper-escala. Por ello, RackHD ha sido creado para automatizar y simplificar estas tareas básicas en una amplia gama de hardware del centro de datos.

Los desarrolladores pueden utilizar la API RackHD como un componente en un sistema de orquestación más grande o crear una interfaz de usuario para la gestión de servicios de hardware independientemente del hardware subyacente. Está diseñado para ayudar a las organizaciones a acelerar el despliegue de aplicaciones modernas, como Plataforma 3, que se basan en un gran número de servidores commodity y en infraestructura heterogénea.

Hoy, RackHD soporta una amplia variedad de servidores basados en arquitectura x86, así como el descubrimiento y monitoreo e switches. El proyecto tiene su propia comunidad RackHD a través de EMC {code} (Community Onramp for Developer Enablement), con el objetivo de fomentar las aportaciones que extenderán el soporte de dispositivos heterogéneos, así como desarrollar nuevas funcionalidades útiles para el Centro de Datos definido por Software (SDDC). Una lista detallada de características y funcionalidades está disponible en la página de la comunidad del proyecto RackHD en GitHub.

-Marga Verdú

Aplicaciones Java en riesgo por una vulnerabilidad en una librería

La vulnerabilidad se ha localizado en un componente de Apache Commons Collections, lo cual pone en peligro a miles de servidores y aplicaciones.

Una conocida librería de apps Java contiene una importante vulnerabilidad, fue descubierta hace nueve meses, continúa poniendo en riesgo a miles de servidores y aplicaciones Java. El defecto ha sido localizado en Apache Commons, la librería contienen un conjunto de componentes Java cuyo mantenimiento corre a cargo de la Apache Software Foundation. La librería se emplea por defecto en múltiples aplicaciones desarrolladas en Java y en otros productos como Oracle WebLogic, IBM WebSphere, JBoss, Jenkins y OpenNMS.

La vulnerabilidad se localiza en concreto en el componente Collections de los sistemas Apache Commons; un defecto que puede llegar a originar la “serialización” de objetos, por lo cual, la visibilidad de los mismos poniendo la información en riesgo. En los lenguajes de programación, la serialización es el proceso de conversión de datos a formato binario para funciones de almacenamiento, o para enviar por la red. La “deserialización”, en este caso, vendría a invertir dicho proceso.

Esta vulnerabilidad fue puesta en conocimiento de la comunidad TI por primera vez en una conferencia sobre seguridad en enero de este año por los investigadores Chris Frohoff y Gabriel Lawrence, pero no recibió demasiada atención, probablemente porque muchos profesionales están convencidos de que la responsabilidad de prevenir la deserialización de los ataques radica en los desarrolladores de aplicaciones Java, y no en los creadores de librerías.

Oracle se ha dado a la tarea de contrarrestar el riesgo, ha desplegado una alerta de seguridad que contiene instrucciones temporales para la mitigación del riesgo para los usuarios de su plataforma WebLogic Server, mientras trabaja en hallar una solución permanente. Por su parte, los desarrolladores de Apache Commons Collection están trabajando intensamente en la reparación de la vulnerabilidad.

-Marga Verdú