Etiqueta: Hadoop

Comienzan los ataques a bases de datos CouchDB y Hadoop

El grupo de hackers que se encargaron de atacar con ransomware las bases de datos de MongoDB y de Elasticsearch, culminando el el borrado definitivo de miles de datos, han comenzado a apuntar a otras tecnologías de almacenamiento. Los investigadores ahora están observando ataques destructivos similares en accesos de Hadoop y de CouchDB.

Los investigadores de seguridad Victor Gevers y Niall Merrigan, que supervisaron los ataques de MongoDB y Elasticsearch , también comenzaron a dar seguimiento de las nuevas víctimas de Hadoop y CouchDB. Ambos han reunido hojas de cálculo en documentos de Google donde documentan las diferentes firmas de ataque y los mensajes que quedan después de que los datos se eliminen de las bases de datos.

En el caso de Hadoop, un marco utilizado para el almacenamiento distribuido y el procesamiento de grandes conjuntos de datos, los ataques observados hasta ahora pueden ser descritos como vandalismo, debido a que los atacantes no piden que se realicen pagos a cambio de devolver los datos eliminados. En su lugar, su mensaje indica a los administradores de Hadoop que aseguren sus despliegues en el futuro.

hadoop-big-data

Según el último recuento de Merrigan, 126 casos de Hadoop han sido borrados hasta ahora. El número de víctimas es probable que aumente por los miles de despliegues de Hadoop accesibles desde Internet, aunque es difícil decir cuántos son vulnerables.

Los ataques contra MongoDB y Elasticsearch siguieron un patrón similar. El número de víctimas de MongoDB saltó de cientos a miles en cuestión de horas. El último recuento pone el número de bases de datos borradas de MongoDB en más de 34.000 y el de Elasticsearch en más de 4.600.

Un grupo llamado Kraken0, responsable de la mayoría de los ataques de ransomware contra bases de datos, está tratando de vender su kit de herramientas de ataque y una lista de instalaciones vulnerables MongoDB y Elasticsearch por el equivalente a 500 dólares en bitcoins.

En el caso de CouchDB –plataforma de bases de datos esimilar a MongoDB-, el número de bases de datos borradas está creciendo rápidamente llegando a más de 400 hasta ahora. A diferencia del vandalismo de Hadoop, los ataques de CouchDB se acompañan de mensajes de rescate a los atacantes pidiendo 0.1 bitcoins (alrededor de 100 dólares)para devolver los datos. Se aconseja a las víctimas no pagar porque, en muchos de los ataques de MongoDB, no había pruebas de que los atacantes hubieran copiado los datos antes de eliminarlos.

Tras haber observado los ataques, los investigadores de Fidelis Cybersecurity han publicado una entrada en su blog con más detalles y recomendaciones sobre cómo asegurar dichos despliegues.

IDG.es

Information Builders y Teradata sellan acuerdo de distribución

La alianza de las firmas facilitará a sus clientes comunes un único punto de compra en los segmentos de analítica, business intelligence, data warehousing y Hadoop

Information Builders ha sellado un acuerdo de distribución a nivel mundial con Teradata, esto da como resultado de esta alianza, sus clientes podrán obtener en un único punto de compra tecnologías avanzadas de analítica, business intelligence, data warehousing y Hadoop.

Information Builders y Teradata comenzaron a colaborar en Norteamérica hace 20 años. Entre sus clientes se encuentran firmas de los sectores más variopintos, como finanzas, retail, transporte, gobierno, seguros y sanidad. Este nuevo acuerdo, que se extiende ahora al resto del planeta, persigue también ayudar a las organizaciones a alcanzar más rápido sus retos empresariales, empleando soluciones in-memory e in-database, así como de big data, analítica, gestión de datos y Hadoop.

Buscan aumentar el potencial de WebFOCUS

En particular, WebFOCUS, la plataforma de BI y analítica de Information Builders, ayuda a las organizaciones a resolver cualquier necesidad que puedan tener en materia de analítica tanto sus usuarios avanzados como sus empleados no técnicos que trabajan cara al cliente. Esta solución facilita el acceso rápido a todos los datos, precisos y actualizados, sitos en cualquier tipo de sistema, proceso o agente, simplificando la integración de la información y garantizando que las decisiones se fundamenten en datos de confianza.

“El big data analytics es un mercado de rápido crecimiento. Los clientes y prospectos de Teradata gozan de la posibilidad de reducir el tiempo y los recursos que exigen sus proyectos de big data, al tiempo que mejoran el retorno de la inversión realizada”, afirma Gerald Cohen, presidente y CEO de Information Builders. “A través de esta alianza con Teradata podremos proporcionar a nuestros clientes todo el potencial de la analítica de datos”.

“El posicionamiento tecnológico de Teradata engarza perfectamente con la propuesta de Information Builders. Esta alianza proporcionará al mercado una oferta sin parangón en el ámbito de la analítica de datos, garantizando la excelencia de sus arquitecturas y optimizando sus oportunidades de negocio”, indica Scott Collins, Vicepresidente de Alianzas Globales en Teradata.

N. de P. Information Builders

 

El 2017 se perfila como el año del Big Data

Una de las grandes esperanzas para las empresas en este nuevo año es que mejoren sus compromisos con el Big Data y comiencen a poner datos útiles y procesables en manos de los negocios en el momento en que los necesitan.

Como el costo del almacenamiento continúa cayendo y la disponibilidad de soluciones de análisis SaaS (software as a service) se están multiplicando, la oportunidad de implementar estas técnicas y de formar a los empleados nunca ha sido más fácil y barata. Estas son algunas de las tendencias que el 2017 nos va a dejar en materia de Big Data, analytics y Business Intelligence (BI).

Abrazando machine learning

La consultora Ovum cree firmemente que el machine learning será el elemento disruptor “más grande” para en el análisis de datos en este nuevo año.  El experto en esta materia, Tony Baer, asegura que “el aprendizaje automático seguirá creciendo, pero en la mayoría de los casos se integrará en aplicaciones y servicios en lugar de desarrollarse a medida de los usuarios, ya que pocas organizaciones fuera del Global 2000 cuentan con científicos de datos entre su personal”.

Los vendedores han comenzado a comercializar paquetes que hacen que sea más fácil que nunca que las empresas apliquen estas tecnologías en sus conjuntos de datos, por lo que es de esperar que se continúe aprovechando la analítica predictiva, los motores de recomendación la personalización del cliente y la detección de fraudes y amenazas.

Más allá de Hadoop

La solución de almacenamiento de datos de código abierto Apache Hadoop ha centrado la conversación de la industria de BI en los últimos años. Ahora, las alternativas más viables están empezando a llegar a través de Apache Spark.

El motor de procesamiento de datos in-memory ya había sido promocionado hace años, pero, tal y como señala Baer, la capacidad de implementar Spark en la nube está impulsando la adopción. “La disponibilidad de Spark basado en cloud junto con el aprendizaje automático y los servicios de IoT ofrecerán alternativas para las compañías”.

Aunque similares, Hadoop y Spark son productos diferentes. “El debate se agrava cuando se elimina la sobrecarga de un propósito general de procesamiento de datos y el motor de almacenamiento. En este caso Spark debería ser más eficiente. Sin embargo, el inconveniente reside en que los clústeres independientes de Spark carecen de la seguridad o las características de administración de datos de Hadoop”.

Expertos en visualización de datos creen que los que han adoptado Hadoop recientemente pueden aprovechar las herramientas de preparación de datos de autoservicio para 2017.

Data Lakes utilizables

En los últimos años ha vencido la tendencia a tener una única fuente de datos en la empresa en lugar de varias, lo que facilita compartir información sobre la organización. Se espera que  las empresas que implementan Data Lakes vuelvan a estar gobernadas de manera adecuada.

Ramon Chen, gerente de gestión de datos de Reltio ha indicado que muchas empresas que tomaron el Data Lake desde sus inicios gastaron una cantidad significativa de dinero, no solo con la compra bajo la promesa de bajo costo de proceso y almacenamiento, sino de una gran cantidad de servicios. Con el fin de agrupar y poner a disposición agrupaciones significativas de grandes datos para ser correlacionados y descubiertos para una mejor comprensión”.

La empresa necesita aún científicos de datos

La demanda de perfiles específicos de científicos de datos podría ir satisfaciéndose poco a poco a medida que entran más graduados al mercado de trabajo. Según el informe 2016 Mind The Gap de Hired, las ofertas de salarios de científicos de datos aumentaron en un 29% en los últimos 18 meses. El informe también mostró un aumento del 234% en las solicitudes de entrevistas para ingenieros de datos en el mismo período.

Más Business Intelligence de autoservicio

Aaron Auld, CEO y especialista en analítica de EXASOL, cree que la BI de autoservicio, donde los usuarios de negocios tienen acceso directo a la analítica, seguirá siendo una tendencia en la empresa en 2017.

Las herramientas de autoservicio están ganando terreno tanto en la empresa como en las startups de reciente creación. A medida que el análisis de datos se integra más en el núcleo del negocio, habrá un cambio hacia la implementación de análisis de datos con bases de datos, herramientas de visualización como Tableau y herramientas de preparación de datos como Alteryx.

Análisis en streaming

La analítica en tiempo real es la práctica de monitorear los datos a medida que se transmiten a la organización, en lugar del análisis tradicional. Esto es particularmente clave cuando se analiza la salud de la infraestructura, por lo que el análisis en streaming debe ser una fuerza tractora en 2017.

Redacción

 

Information Builders y Cloudera traen a México su alianza internacional

Las dos empresas, cooperan para ayudar al mercado y afrontar las nuevas necesidades derivadas del Big Data en materia de calidad e integración de datos.

La firma especializada en Business Intelligence y analítica, Information Builders, y Cloudera, proveedor de la plataforma de análisis y gestión de datos que opera sobre sobre Apache Hadoop, han decidido traer su alianza a México.

Uno de los objetivos prioritarios de este acuerdo radica en colaborar para ayudar al mercado a afrontar las necesidades derivadas del uso del Big Data en materia de calidad e integración de datos. iWay Big Data Integrator (BDI) de Information Builders simplifica la creación y el mantenimiento de los océanos de datos. Su sencilla interfaz ayuda al usuario a realizar la ingesta, asegurar la calidad, y adecuar y transformar los datos que posteriormente se utilizarán para tomar decisiones informadas. La combinación de Cloudera Enterprise e iWay BDI proporciona una excelente arquitectura para cubrir los objetivos de negocio de la empresa digital en materia de Big Data.

Miguel Reyes, Vicepresidente de Information Builders para Latinoamérica y EMEA Sur, “nuestra compañía trabaja de manera encomiable para aliarse con los mejores jugadores de la industria. Por ello consideramos prioritario trasladar a México cuanto antes la alianza que nuestra organización sustenta con Cloudera a nivel global”.

“Estamos muy satisfechos por extender a México nuestra alianza con Information Builders”, afirma Omar Camacho, Country Manager de Cloudera en México. “Ayudar a nuestros clientes en la gestión de su Big Data es clave y con el esfuerzo combinado de Information Builders y Cloudera, esperamos seguir ayudándoles a obtener el mayor valor posible de sus datos”, finalizó.

Redacción

Las cinco habilidades open source más demandadas en la empresa

El mercado laboral que está relacionado con código abierto va en aumento y las empresas siguen demandando habilidades en este terreno para impulsar su negocio, podemos decir, que en concreto, cinco habilidades que concentran la mayor parte de la demanda actual.

Según la última encuesta al respecto de Dice y la Fundación Linux, el 65% de los directores de recursos humanos cree que, en los próximos seis meses, aumentará la contratación de especialistas en código abierto, más que la de cualquier otro perfil. Gran parte de la demanda viene provocada porque el código de fuente abierta es parte fundamental del mundo actual.

A continuación le compartimos las cinco habilidades más demandadas, según el informe:

  • Desarrolladores. El 74% de los encuestados mencionaron la necesidad de desarrolladores de código abierto calificados. Esto incluye habilidades en Linux, Unix, Apache, Hadoop y otras plataformas de código abierto, que abarcan áreas de tecnología, como desarrollo de software, Big Data, tecnología de data center o seguridad.

“A medida que incluso las empresas tradicionales abrazan la transformación digital, hasta los objetos más mundanos, como termostatos o automóviles, tienen un software que requiere código, y gran parte de ese código es abierto”, reconoce Jim Zemlin, director ejecutivo de la Fundación Linux.

  • DevOps. El 58% de los directores de recursos humanos asegura estar buscando profesionales especialistas en DevOps este año. Como las funciones de los administradores de sistemas y de los desarrolladores de software convergen en la nube, los profesionales DevOps están en muy alta estima, para ayudar a las empresas a diseñar, suministrar y desplegar tecnologías en la nube, señala Zemlin.

 

  • Tecnología de la nube.La tercera característica, son los especialistas OpenStack, CloudStack y otras tecnologías similares son mencionadas por el 51% de los directores de recursos humanos encuestados. La cantidad de tecnología corporativa que se está moviendo a la nube está creciendo exponencialmente y eso impulsa la necesidad de contratar a arquitectos cloud y otros profesionales cualificados.

 

  • Redes. También han una elevada demanda en networking, y el 21% de los directores de recursos humanos están buscando talento en esta área, según la misma encuesta. A medida que las organizaciones se mueven desde soluciones definidas por hardware a otras definidas por software, la conectividad se vuelve cada vez más importante.

 

  • Almacenamiento. Una de las especialidades del conteo con buena forma, que no extraña tras el comentado crecimiento de las necesidades en cloud y redes. Las capacidades de almacenamiento de código abierto distribuido también están en alta demanda, dice Marie Louise van Deutekom, jefa de recursos humanos de SUSE Linux. “La necesidad de acceder a los datos, archivos e información a través de una red, por parte de múltiples usuarios desde múltiples ubicaciones a partir de recursos compartidos en la nube, supone una tormenta perfecta para la demanda de talento de almacenamiento distribuido”, señala.

IDG

 

Las competencias técnicas más valoradas y demandadas por las empresas

A continuación le compartimos las 10 competencias y habilidades tecnológicas que están teniendo mayor demanda por parte de las empresas, según apunta un informe de Dice. Cabe destacar que las competencias que encabezan en la lista es la especialización en tecnologías relacionadas con Big Data y nube.

La firma hace seguimiento de las ofertas de trabajo de todo un año, para determinar qué cualidades se demandan.

  1. Spark

Tras el éxito de su framework de código abierto de Hadoop, Apache desarrolló este motor de procesamiento en open source, destinado a ayudar a las empresas a procesar grandes conjuntos de datos. Cada vez hay más compañías que lo utilizan a la hora de construir sus infraestructuras tecnológicas, así que los profesionales TI con conocimientos en código y programación en Spark figuran entre las prioridades de contratación.

  1. Azure

Microsoft Azure, es de las plataformas en nube más reconocidas, está diseñada para mejorar la productividad de los profesionales de TI. Tener capacitación en Azure puede hacer más eficiente y simplificar el desarrollo y las analíticas de las apps móviles. En general, los profesionales con experiencia en Microsoft Azure y en Amazon Web Services (AWS) son particularmente deseados.

  1. Salesforce

Salesforce no es nueva en el mundo de la tecnología, pero sí que debuta en la lista de las habilidades más requeridas en el mercado. La compañía continúa siendo un jugador dominante en servicios innovadores de atención al cliente para equipos de ventas. El interés por profesionalidades especializadas en Salesforce es amplio, y se destaca por su elevada demanda por parte universidades, empresas de consultoría de gestión y compañías de seguros.

  1. Big Data

Big Data es una tendencia global que supone un reto para las empresas a la hora de extraer valor de un gran conjunto de datos. Las compañías quieren aprovechar sus beneficios y tener una mayor visibilidad de sus clientes y de los patrones de comportamiento de los usuarios. El valor de los profesionales con experiencia y conocimientos en esta área también está en alza.

  1. JIRA

JIRA es un sistema de gestión de proyectos y seguimiento de incidencias, desarrollado por Atlassian, y de uso común en el desarrollo de software. Su popularidad ha crecido en el mundo de la tecnología y cada vez más empresas demandan experiencia en ella. Empieza a ser un prerrequisito obligatorio en los procesos de selección.

  1. Ingeniero eléctrico

Aunque es el único puesto de ingeniería de esta lista, no es extraño que los ingenieros eléctricos estén en gran momento. Su papel en el diseño, programación, aplicación, fabricación y operación de sistemas electrónicos o informáticos, comienza a ser vital con la emergencia de Internet de las Cosas.

  1. La nube

Éste es otro punto fundamental para cualquier profesional de TI en este momento en el que muchas organizaciones han dado el paso de migrar muchos de sus recursos a la nube. Por eso, muchas compañías están dispuestas a abrir sus carteras y pagar por profesionales expertos en la nube.

  1. Hive

El sistema de data warehouse analiza grandes conjuntos de datos Hadoop. La demanda en Hive está creciendo a la vez que lo hacen otras habilidades en Big Data, como Spark. Aunque todavía es muy nueva, esta herramienta  está consiguiendo el reconocimiento de empresas, como Apple y Amazon, que buscan profesionales con conocimientos prácticos en él.

  1. Cassandra

Cassandra es otra habilidad de Big Data/Apache que también se utiliza para ayudar a almacenar, procesar y acceder a grandes conjuntos de datos. Esencial para el éxito de una empresa, los profesionales con experiencia en Cassandra son bien compensados.

  1. Redes

En la actualidad, el mercado y la mayoría de las empresas dependen de los productos y servicios de redes para impulsar su éxito. El informe cita a proveedores como Juniper Networks, y dice que aumentan la demanda para candidatos que sean capaces de administrar redes y su seguridad.

Redacción

 

Infraestructuras hiperconvergentes: ¿qué ofrecen para el centro de datos?

Gracias a la hiperconvergencia, se está poniendo fin a algunos de los tradicionales silos de los centros de datos. La infraestructura del centro de datos es, a menudo, compleja y costosa. Los sistemas hiperconvergentes están aportando una vía para ofrecer flexibilidad, escalabilidad además de tener facilidad de gestión de los sistemas on-premise. ¿Por qué?

La hiperconvergencia tiene su base en la adopción generalizada de la virtualización, y hasta cierto punto, se puede ver como un ejemplo, como parte de la evolución hacia una automatización mucho mayor de la operativa del centro de datos.

John Abott aporta una visión más amplia al explicar que “es una capa del centro de datos definida por software, en la que hay muchas más opciones por debajo de lo que aparenta su infraestructura, porque casi toda la inteligencia está integrada en el software. Su labor es desviar las cargas de trabajo a la infraestructura más adecuada”.

En pocas palabras, la hiperconvergencia es una aproximación a la infraestructura que combina las funciones de servidor, almacenamiento y red, que son administrados a través de una capa de software.

Infraestructura hiperconvergente: ¿qué significa?

La hiperconvergencia permite dar fin a silos de algunas partes de los centro de datos y, a diferencia de los sistemas de infraestructura convergente, depender de diferentes sistemas modulares de hardware básico. El almacenamiento definido por software es parte clave de esto, con appliances hiperconvergentes que utilizan almacenamiento local, en lugar de SAN dedicadas.

Además, también supone que los clientes tienen un único proveedor con el que tener que contactar si algo falla.

Como explica Jesse St Laurent, vicepresidente de estrategia de producto de SimpliVity, “el objetivo es simplificar la infraestructura de TI, cuya complejidad es muy elevada”. Y en paralelo con la simplificación de la infraestructura y las operaciones, ayudando a reducir costos.

“En un entorno tradicional hay entre diez o doce cosas diferentes que hay que gestionar”, entre dispositivos, paquetes de software, aplicaciones y cosas de este estilo, mientras que la infraestructura hiperconvergente se basa en una “es una única interfaz unificada que se integra en algo que una empresa ya utiliza (el toolkit de gestión del hipervisor) para gestionar todo el hardware.

Una de sus ventajas es se pueden añadir módulos hiperconvergentes individuales para ampliar los despliegues, con máquinas virtuales que están trabajando en 15 minutos, según algunos proveedores.

Éste es un segmento que está creciendo mucho y donde cada vez hay más proveedores. La consultora IDC estima que estos sistemas generarán unos ingresos de 2 000 millones de dólares este año, cifra que llegará a los 4 000 millones en 2019.

El primer proveedor en ofrecer este tipo de sistemas es Nutanix, y pronto se unieron SimpliVity y otras startups como Scale Computing, pero hay más proveedores entrando en este mercado, a menudo a través de acuerdos con estas jóvenes empresas.

Por ejemplo, VMware ha llegado a acuerdos con muchos proveedores de hardware para que trabajen con sus productos VSAN y EVO:RAIL, entre ellos con Fujitsu y Dell, mientras que HPE ha optado por ir sola con su sistema HC-250 StoreVirtual. Hitachi Data Systems tiene también un appliance centrado en Hadoop, y EMC dispone de VCE VxRack, VxRail y Scarle IO.

VCE, Cisco y HPE en los últimos meses han anunciado sus intenciones en este mercado, y Juniper y Lenovo también han llegado a un acuerdo al respecto.

Al  principio, los proyectos se han centrado en pequeñas y medianas empresas, con presupuestos más ajustados y equipos de TI más pequeños. No obstante, los fabricantes dicen que también están realizando inversiones las grandes empresas, para las que los costos y la necesidad de agilidad son más que un problema.

La adopción con frecuencia se produce en torno a la infraestructura de desktop virtual (VDI), aunque también son comunes en las áreas de recuperación ante desastres y de sucursales y oficinas.

Redacción PCWorld

 

La seguridad y el gobierno de datos, los grandes retos del “big data”

Datos del estudio ‘Transforming the Data Center’, elaborado por Cloudera e Intel, señala que los cambios en la tecnología de los últimos años han tenido consecuencias en la arquitectura del centro de datos, por lo que las empresas comienzan a modernizar su entorno.

con respecto a esta etapa de modernización, uno de los cambios más pronunciados es el aumento de software de código abierto. Desde la perspectiva de ambas compañías, señala que Apache Hadoop es una fuerte divergencia con respecto a las arquitecturas de bases de datos tradicionales, en lo que a su escalabilidad horizontal y el uso de hardware básico se refiere. La implementación de Hadoop requiere revisar los sistemas que se ejecutan hoy y una estrategia sobre cómo Hadoop puede completar, extender o reemplazar las soluciones tradicionales.

Teniendo en cuenta estas premisas, ambas firmas se enfocarán en investigar el estado de la implementación de plataformas cloud en las organizaciones, a tomar nota de los últimos retos asociados a la implementación de estos sistemas, y a la transformación del centro de datos. Cloudera e Intel han trabajado conjuntamente en el Unisphere Research, una división de Information Today. Inc., a raíz de la encuesta a los responsables de IT involucrados en las operaciones de centro de datos.

Respecto a las conclusiones destacadas por del estudio Transforming the Data Center apuntan a aspectos relacionados con la seguridad y gobierno de datos como los principales desafíos ante el crecimiento del volumen de datos. “En sus inicios, muchos usuarios utilizaban Hadoop como fuente de información  relacionada con el acceso a la web o los medios sociales. Los primeros esfuerzos fueron fáciles porque no necesitaban demasiado en torno a la gobernanza y la seguridad. Sin embargo, las capacidades de Hadoop han crecido con los años y las organizaciones han comenzado a construir arquitecturas a gran escala para albergar todos sus datos en Hadoop.

Es entonces cuando la gobernanza y la seguridad de los datos se han convertido en una necesidad que se ha hecho más preocupante cuando se empezaron a mezclar datos seguros con los no seguros”, señala el informe, al tiempo que puntualiza que, con el fin de convertir un centro de datos de la empresa en una realidad, hay que garantizar que se ha mejorado la visibilidad de lo que la gente está haciendo con los datos. Por tanto, no es sorprendente que el 60% de los encuestados afirme que la seguridad y el gobierno son las principales preocupaciones ante el crecimiento del big data.

hadoop-data

Por su parte Cloudera se ha enfocado en hacer frente a los problemas a los que se enfrenta la seguridad empresarial, una cuestión que según afirma “va más allá del cifrado de datos y el control de los accesos”.

Asimismo, el informe destaca que el acceso a los datos agrupados en silos es el elemento más difícil para la creación de un banco de datos para el análisis. Encapsular los datos y limitar el acceso a ellos es bueno para la seguridad; no hay otra forma segura de mantener los datos a salvo sin crear una separación física real. Pero esto tiene sus inconvenientes. Limitar el acceso a los datos significa limitar el conocimiento. ¿Cómo esperamos que nuestros analistas y científicos de datos construyan los mejores modelos de datos limitados? No solo es complejo para los analistas, también tiene complejidad operacional y un bajo ROI debido a la gestión de múltiples sistemas. Respecto a lo establecido, no sorprende que el 38% de los gestores de datos profesionales detecten los atascos en los silos de datos como un problema generalizado.

Otra conclusión que ofrece el estudio Transforming the Data Center tiene que ver con el hecho de que los usuarios quieren pasar de la descripción a la predicción en el análisis de datos. ¿Cómo puede una empresa moderna que necesita cambiar en cuestión de días o minutos en base  los datos ser obligado a consultar los datos de la semana pasada? Simplemente no es lo suficientemente potente como para hacer de los datos un activo estratégico. El big data ha tenido un papel determinante en el avance del estado de los nuevos modelos de análisis y visión de futuro. Este hecho viene dado porque muchas organizaciones ya están usando Hadoop para tener capacidades analíticas más predictivas. Mientras que el 36% de las compañías ya han incorporado análisis avanzados, el 60% todavía está operando con análisis predictivos.

Los objetivos planteados para el negocio es el factor clave para avanzar. Desde la perspectiva de Cloudera e Intel en su estudio, hay que entender la tecnología como un aspecto fundamental para el cambio integral en la arquitectura de la información, pero no es el único. Puedes asociarte con un proveedor, desarrollar un sistema integral o contratar las personas adecuadas para asegurar el éxito con la tecnología. Sin embargo, un reto mucho más complejo está cambiando la cultura de la organización. La consultora Gartner predijo que en 2017 solo el 50% de las organizaciones habrán hecho los ajustes culturales necesarios para obtener grandes volúmenes de datos. Esta es la razón por la que el mismo porcentaje de encuestados en el estudio indica la alineación con la estrategia de negocio específico como un factor determinante para considerar la modernización.

Marga Verdú

 

Cloudera y EMC crean una solución para Apache Hadoop

El DSSD D5 será la primera solución de una nueva categoría de almacenamiento, Rack Scale Flash. Orientada al Big Data, el cual está destinado en mejorar el rendimiento de las nuevas aplicaciones de análisis en Hadoop.

Cloudera colaborará en la creación de un plug-in para la API de EMC, DSSD D5, que permitirá innovaciones en almacenamiento de alto rendimiento en el ecosistema ApacheTM Hadoop. De esta forma, ambas compañías amplían su colaboración tecnológica.

“Cuando empezamos a trabajar con EMC en Isilon, y creció al incluir DSSD, fue porque creímos en la necesidad de una arquitectura de big data capaz de soportar tanto el almacenamiento local como el remoto”, explica Mike Olso, founder y chief strategy officer en Cloudera. “Ese trabajo está empezando a dar sus frutos y estamos entusiasmados por ver los nuevos casos que nuestros usuarios y colaboradores pueden llevar a cabo”.

“Nuestra relación con Cloudera está permitiendo que nuestros clientes comunes obtengan más valor de su ecosistema Hadoop con la plataforma flash de más alto rendimiento de todos los tiempos. Tiene el potencial de cambiar las reglas del juego”, explicó Jeremy Burton, presidente de productos y Marketing en EMC Corporation.

Hadoop aporta a las empresas la posibilidad de almacenar y analizar datos en tiempo real, elementos clave en la transformación digital de las empresas. El DSSD D5 en el que colaboran Cloudera y EMC supone una nueva plataforma de almacenamiento flash capaz de hacer frente a los grandes volúmenes de trabajo en Apache Hadoop. Gestionado con Cloudera Enterprise proporciona un mayor rendimiento para estos volúmenes de trabajo. En alabras de los desarrolladores, esta solución alcanza un rendimiento diez veces mayor para aplicaciones del día a día como la detección de fraudes, de autorización de tarjetas de crédito o de analítica avanzada.

Este dispositivo está orientado a sectores como el internet industrial, vehículos conectados o sistemas financieros que necesitan llevar a cabo análisis de datos en tiempo real. El sistema ofrece acceso directo a la memoria (DMA) dirigido en HDFS y con una conectividad de baja latencia. El uso más eficiente de flash supone también reducir el número de copias requeridas sin dejar de ofrecer la disponibilidad de datos en clave empresarial. “Las capacidades analíticas son absolutamente imprescindibles para mejorar la experiencia del cliente, generar ingresos y adelantarse a la competencia”, aseguró Burton.

Toñi Herrero Alcántara

 

Cloudera y Argile Data van contra el fraude de proveedores de servicios de comunicación

La plataforma de analítica de fraude en tiempo real, la cual está basada en Hadoop ofrece un descubrimiento de fraude por encima de 350 por ciento.

Cloudera y Argyle Data han presentado su nueva plataforma dirigida especialmente a los proveedores de servicios de comunicación (CSP). Esta nueva solución, construida sobre Apache Hadoop, está enfocada a reducir los problemas derivados del aumento creciente del fraude móvil  con la consiguiente pérdida de ingresos que conlleva para las empresas CSP.

Según la Encuesta de Pérdida Global por Fraude 2015 publicada por Communicatios Fraud Control Association, los dispositivos móviles y operadores de líneas fijas pierden unos 38 000 millones de dólares anuales a causa del fraude. Los métodos utilizados cada vez son más rápidos y eficaces y en algunos casos ni siquiera se detectan a tiempo manteniéndose en los sistemas durante mucho tiempo.

Respecto a la información anterior, Argyle Data y Cloudera han desarrollado una plataforma de análisis más eficaz para los sistemas tradicionales. Según sus creadores, esta plataforma puede descubrir hasta un 350% más fraudes que otras que basan su trabajo en las normas, mediciones de laboratorios de prueba o entornos de operador vivo. La solución de Cloudera y Argyle Data permite a los CSP anticiparse a posibles amenazas para los ingresos y reducir el fraude en las telecomunicaciones a nivel global.

La plataforma está basada en Hadoop y combina ingesta de datos, con análisis de ingresos y aprendizaje automático con la que se consigue analizar a tiempo real una mayor cantidad de datos a través de centros empresariales (EDH). Sus desarrolladores confían en que esta combinación suponga no sólo un ahorra económico a los operadores en materia de fraude sino también un reducción en la pérdida de datos y una mayor prevención de posibles daños que puedan dañar a las marcas.

-Toñi Herrero Alcántara