Día: 18 noviembre, 2015

¿Cómo Cisco mantiene fuera a los espías de la NSA?

Gran parte de los proveedores de la compañía tienen fuertes cláusulas de seguridad, pronto los clientes podrán inspeccionar los productos antes de comprar.

Cerca de dos años después de la salida a la luz del espionaje de la NSA, Cisco está trabajando en construir la confianza de sus potenciales clientes. Por ello la firma está poniendo cada vez mayores y rigurosos requerimientos de seguridad a sus proveedores y va a lanzar un programa beta que permita a los clientes analizar sus productos en un entorno de gran seguridad antes de antes de la compra.

Están dirigidos los esfuerzos para introducir mayor transparencia y así disipar las crecientes preocupaciones de como las cadenas de proveedores pueden ser utilizadas de manera oportunista por los espías y cibercriminales.

“Estamos preocupados por la soluciones contaminadas, falsificadas y el mal uso de la propiedad intelectual”, ha destacado Edna Conway, CSO de Cisco.

Cisco negó haber colaborado con la NSA, así como muchas otras compañías tecnológicas americanas. Pese a ello su mercado cayó de gran manera en China, donde el incidente sirvió para que se promoviera el consumo de equipamiento local.

Cisco no tiene ninguna fábrica pese a ser uno de los mayores vendedores de routers y equipos de red,  tiene 25 000 proveedores. La compañía ha desarrollado un plan específico de seguridad para ellos que contiene 184 requerimientos y cubre áreas como fabricación, gobierno y gestión de activos. Los requerimientos que se demanden dependerán de lo que el proveedor proporcione a la compañía. También giran en torno a las seguridad y el personal, en cómo se entrena a los empleados o los procedimientos usados cuando estos cambian de puesto de trabajo.

Además la compañía va a permitir a sus clientes inspeccionar el código fuente en un entorno seguro, este tipo de estrategias las hemos visto con empresas como Microsoft y Huawei.

-Jeremy Kirk, IDG News Service

Los retos que representa Big Data para las empresas

Según las últimas perspectivas de IDC, el mercado mundial de Tecnología y Servicios que engloban Big Data alcanzará los 48.600 millones de dólares para 2019, con una Tasa de Crecimiento Anual Compuesta (CAGR) del 23.1% tomando en cuenta el período 2014-2019, impulsado por una adopción generalizada en todos los sectores/industrias.

El mercado de Big Data considera en su evolución a tres segmentos clave: Software, Infraestructura y Servicios, para los cuales IDC calcula un CAGR para los próximos cinco años de un 26.2%, un 21,7% y un 22,7%, respectivamente. Igualmente, estima que las mayores inversiones en Big Data provendrán de mercados verticales, como el de Fabricación Discreta (2.100 millones dólares en 2014); Banca (1.800 millones de dólares en 2014); y Fabricación de Procesos (1.500 millones de dólares en 2014).

En su informe, IDC aprecia que la capacidad para aprovechar Big Data y la analítica para desarrollar una visión integrada de las actividades de los clientes y las operaciones de negocio proporcionará una diferenciación competitiva a las empresas en todos los sectores. Sin embargo, también evidencia que, su adopción, puede verse frenada por riesgos relacionados con la seguridad y privacidad; la recogida, uso y manejo de los datos personales; y un entorno normativo cambiante.

“Es realmente gratificante comprobar cómo se está produciendo una mayor maduración de la tecnología de Big Data y de su conocimiento. La información es actualmente el centro de muchas decisiones corporativas y las empresas están adoptando las nuevas posibilidades de procesamiento de grandes volúmenes de datos para acercarse más a los gustos y necesidades del cliente o para explorar nuevas oportunidades del mercado”, afirma José Trinidad Hernández, consultor experto de DEYDE Data Quality México. “En América Latina, el mercado de soluciones de Big Data y Analítica representó 661 millones de dólares en 2014, un 20% más que el año anterior. Sin embargo, y tal y como se afirma desde IDC, aún quedan por solucionar algunos obstáculos para que los procesos Big Data supongan una ventaja competitiva e impacten de manera directa en la rentabilidad de la empresa”.

  

Venciendo los obstáculos en Big Data, la propuesta de Deyde

Un reto importante en el proceso de gobernar grandes volúmenes de datos es la categorización, el modelado, la captura y el almacenamiento de toda esta información, especialmente debido a la naturaleza no estructurada de la gran mayoría de información. Para lidiar con esta problemática se hace necesario establecer unas adecuadas políticas de Gobierno TI que aseguren el correcto alineamiento entre datos, aplicaciones, infraestructura y seguridad.

Así, y en lo referente a los datos,  y además de establecer una filosofía de dato abierto y compartido a fin de aprovechar el potencial de la información en beneficio de la empresa; es importante diseñar unas correctas políticas de uso y establecer unos controles para asegurar que la información sigue siendo precisa, coherente y accesible.

Tomando como base las recientes previsiones de IDC, Deyde desarrolló nuevos productos MyDataQ de Calidad de Datos para su uso en procesos y entornos Big Data como Hadoop, con las que apuesta por la innovación.

Una buena forma de hacerlo es a través de un sistema de calidad de datos capaz de maximizar el poder del procesamiento masivo de los grandes volúmenes de datos que integra esta tecnología. Estableciendo un adecuado sistema de calidad de datos que realice la limpieza y estandarización necesaria, se garantizarán unos resultados mucho más óptimos en sucesivos análisis.

Los nuevos productos de DEYDE de Big Data Quality ofrece afrontar estos retos, permitiendo su utilización de forma completamente nativa en ecosistemas Big Data como Hadoop. De esta forma se permite aprovechar los óptimos resultados de limpieza, estandarización y enriquecimiento que ofrecen los productos de DEYDE sin romper la lógica de ejecución de estos procesos.

big-data-gestion-de-informacion

 

La Seguridad de la Información como prioridad

Otro de los principales retos en este ambiente de Big data es la seguridad de la información. Sabemos que el procesamiento de Big Data puede conducir a la creación o al descubrimiento de información confidencial o desconocida hasta ese momento. Por ello resulta fundamental disponer de un sólido código ético que presida y gobierne adecuadamente el uso que se haga de dichos datos y verificar la exactitud de los datos procesados. Con tamaños tan grandes de volúmenes de datos, es importante crear filtros que pueden descifrar automáticamente la diferencia entre datos de alta calidad y los datos obsoletos de mala calidad. Por ello, para cumplir adecuadamente con los requisitos de seguridad, la calidad de los datos tiene que ser manejada teniendo en cuenta los siguientes parámetros: procesar datos adecuados al objetivo final, que el formato sea el adecuado para ser útil y que su acceso y uso estén controlados adecuadamente.

Los productos de DEYDE ofrecen ayudar a cumplir con estas premisas, ayudando a que la información sea lo más veraz y precisa posible. De este modo, los controles de seguridad y los mecanismos para el cumplimiento de las Leyes de protección de Datos resultarán más sencillos de realizar para las empresas  en sus proyectos de Big Data.

 

-Comunicado de Prensa.

Teradata ofrece mejorar la analítica de datos en Internet de las Cosas

Teradata anunció dos nuevas capacidades disruptivas de software que otorgan mayor poder a los usuarios corporativos para descubrir y volver operativos los insights ocultos dentro de la información de la Internet de las Cosas (Internet of Things, IoT. Se trata del nuevo Teradata Listener y Teradata Aster Analytics de Hadoop, quienes ofrecen monitorizar en tiempo real, además de con inteligencia de negocio y analíticas, con la finalidad de descubrir los patrones distintivos que existen en grandes volúmenes de datos IoT.

Cada día se conectan más dispositivos, equipos y cosas a la red, mismos que generan de una forma constante y masiva una gran cantidad de datos. En los últimos años se han llevado a cabo avances con la instrumentación de dispositivos y sus conexiones generalizados, sin embargo, el foco no ha sido aprende a usar y aumentar el valor de los datos con algoritmos de aprendizaje automático. Incluso las empresas más expertas en tecnología reconocen que extraer valor de los datos generados por IoT es un proceso difícil y especializado, aunque más difícil aún es integrar los datos de IoT con procedimientos empresariales y datos del comportamiento humano.

Para responder a estos desafíos, y aprovechar el potencial de IoT, Teradata ofrece eliminar la complejidad y latencia a la vez que proporcionan a las compañías nuevas capacidades para sacar ventaja de los datos. Teradata Listener es un software inteligente de autoservicio que permite escuchar en tiempo real y seguir las transmisiones de sensores y datos de IoT que tengan lugar en cualquier lugar, posteriormente permite reproducir esos datos en múltiples plataformas en un ecosistema analítico. Los datos reproducidos en la recientemente lanzada Teradata Integrated Big Data Platform 1800 proporcionan acceso a grandes volúmenes de datos con el soporte nativo de los datos de JSON (Java Script Object Notation). Los datos reproducidos en Hadoop pueden ser analizados a escala con Teradata Aster Analytics en Hadoop.

“Los clientes ya pueden aprovechar los datos de IoT generados por un número y tipo ilimitado de dispositivos. Además, Teradata permite a los clientes combinar datos de IoT con operaciones empresariales y datos de factores humanos para maximizar el valor analítico”, afirmó Hermann Wimmer, co-president de Teradata. “Teradata Listener y Aster Analytics en Hadoop son tecnologías IoT muy avanzadas que aumentan las ventajas analíticas y hacen posible las Analíticas del Todo.”

Un buen ejemplo de uso lo presenta uno de los principales fabricantes de resonancias magnéticas (RMN), radiografías y equipos de imagen por ultrasonido, cliente de Teradata. Estos dispositivos médicos se han convertido en esenciales en la salud global, ya que ahora se realizan miles de exámenes a los pacientes cada día. Las anotaciones describiendo el comportamiento de los pacientes y los datos de sensores se transmiten 24/7 del equipo al data lake Hadoop del fabricante. Teradata analiza dichos textos escondidos en los datos para descubrir conocimientos que ayuden a todos los usuarios globales a mejorar la eficacia de las máquinas. Simultáneamente, los datos del equipo utilizado en el proceso de fabricación se comparten a Teradata Appliance donde analíticas avanzadas ofrecen conocimientos que permiten mejorar la calidad y la eficacia de la fabricación y que ayudan a asegurar que los problemas se solucionan y no estarán presentes en la próxima generación de productos.

“Cada día recopilamos millones de observaciones de sensores de nuestros equipos así como de nuestros ingenieros, que nos envían miles de informes escritos que son digitalizados. Sometemos los datos a una gran variedad de análisis para descubrir patrones ocultos con el fin de garantizar un rendimiento óptimo del equipo. Nuestra colaboración con Teradata nos ha ayudado a predecir los principales indicadores de averías en los equipos de nuestros trenes”, asegura Gerhard Kress, director de Analytical Services en Siemens Mobility Division. “La recolección y análisis de los datos de sensores y de IoT ha sido fundamental para mejorar la eficacia del sector ferroviario”.

Teradata Listener – Teradata Listener es un software inteligente de autoservicio para recopilar y distribuir transmisiones rápidas de datos, ya sean individuales o múltiples, de una sola vez. Permite a los clientes enviar datos a Hadoop, Teradata Aster Analytics, Teradata Database y otras plataformas. También permite a los científicos de datos, analistas de negocio y desarrolladores analizar las nuevas transmisiones de datos rápida y fácilmente para así ofrecer respuestas más rápidas a preguntas empresariales. Sin necesidad de depender del departamento informático los usuarios pueden analizar los datos de múltiples fuentes tales como sensores, telemáticos, eventos móviles, flujo de clicks, redes sociales y servidores de logs.

Teradata Aster Analytics en Hadoop – El mejorado Aster Analytics en Hadoop es una solución analítica integrada de Teradata que ya cuenta con más de 100 técnicas analíticas empresariales diferentes y siete aplicaciones verticales para la industria que permiten operar directamente en Hadoop. Esto permite a las empresas abordar fácilmente los problemas empresariales con una solución analítica integrada.

La flexibilidad y sencillez de estas capacidades permite a los analistas de negocio actuar como data scientists abordando los problemas más difíciles de la empresa. Teradata Aster Analytics en Hadoop permite a los usuarios combinar diferentes aprendizajes automáticos de texto, patrones, gráficos y estadísticas dentro de un único flujo de trabajo. Teradata ofrece implementaciones flexibles de Aster Analytics que incluyen Teradata Big Analytics Appliance, Hadoop, en la versión de sólo software o en la nube de Teradata.

Teradata Integrated Big Data Platform 1800 – El pasado lunes 19 de octubre se ha lanzado Teradata Integrated Big Data Platform 1800, la mejor plataforma para apoyar las nuevas capacidades de IoT. Permite a los clientes realizar analíticas complejas a escala y está disponible a un precio económico, aproximadamente $1,000 por terabite de datos comprimidos. Teradata Database, que funciona en la Plataforma Teradata Integrated Big Data, proporciona acceso a los datos en numerosos formatos incluyendo XML, name-value pair, BSON (Binary JSON) y JSON provenientes de los dispositivos conectados a aplicaciones web, sensores e Internet of Things.

Teradata Listener ya está disponible en su versión beta y estará disponible globalmente el primer trimestre de 2016. Teradata Aster Analytics en Hadoop se lanzará globalmente el segundo trimestre de 2016. Teradata Integrated Big Data Platform 1800 ya está disponible en todo el mundo.

 

-Comunicado de Prensa.

Conozca las novedades de Microsoft Dynamics CRM 2016

Microsoft Dynamics CRM 2016 está pronto a salir, por ello el jueves pasado la compañía reveló nuevos detalles acerca de lo que incluirá desde una perspectiva de servicio al cliente.

Dos meses previos, Microsoft dio a conocer nuevos aspectos del software de gestión de las relaciones con los clientes en cuanto a la productividad. Ahora se está introduciendo mejoras para ayudar a los agentes ofrecer un mejor servicio al cliente.

La actualización de Dynamics CRM incluirá nuevas capacidades en tres áreas principales: la experiencia del agente, inteligencia de aprendizaje de máquina y compromiso social.

“A medida que las organizaciones luchan con la competencia en precios y productos, una de las cosas que están viendo como una oportunidad para la diferenciación es la experiencia del cliente”, señaló Bill Patterson, gerente general de Microsoft Dynamics.

Al mismo tiempo, muchas organizaciones no están equipadas para los tipos de interacción digital que los consumidores cada vez más esperan, agregó Patterson.

“Es una enorme brecha para el equipo de servicio al cliente”. Además agregó “están bajo una enorme presión, pero las herramientas que están utilizando no fueron construidas para esta generación de clientes”.

El nuevo centro de servicio interactivo de Dynamics CRM 2016 pretende abordar al menos algunas de esas deficiencias. Los cuadros de mando en tiempo real proporcionan una visión única de la carga de trabajo de un agente, con la flexibilidad de elegir el orden de resolución de casos. Los gráficos interactivos muestran los elementos de trabajo y permiten a los agentes desagregar los datos sobre esos temas.

Dynamics-crm-2016

Además los agentes tendrán acceso a Skype y Yammer, para que puedan conversar con los clientes y sus pares para la resolución del servicio y la colaboración.

El nuevo Dynamics CRM también aprovechará Azure Machine Learning con la puntería puesta en la captura de la experiencia de los agentes y construir en base a ese conocimiento cada vez que se utiliza la herramienta.

Los equipos de servicio al cliente se enfrentan a una tasa de rotación promedio de 27% cada año, indicó Patterson, por lo que “se pierde experiencia con el tiempo”. Eso, a su vez, afecta a la calidad de servicio al cliente, añadió.

Mediante el uso del aprendizaje de máquina, Dynamics CRM ayudará a preservar ese conocimiento y calcular las respuestas de los agentes en tiempo real, y luego mejorar con el tiempo. Para los agentes, eso puede significar importantes aumentos de la productividad, anotó.

Finalmente, el nuevo software de CRM ayudará a las empresas a capturar y aprovechar los comentarios de los clientes a través de encuestas para dar forma a los compromisos de los clientes, con herramientas móviles y táctiles.

Los agentes de servicio al cliente pueden analizar la opinión de un cliente específico para responder a ella de forma individual, mientras que la empresa también puede mirar los comentarios de forma agregada para lograr una mejor comprensión global del sentimiento del cliente.

El software también aprovecha los canales sociales. Como Azure Machine Learning, el cual de forma instantánea puede, rastrear y analizar el sentimiento relevante a través de Microsoft Social Engagement de tal forma que los agentes puedan interactuar directamente con los clientes en los canales sociales como Twitter y Facebook, convirtiendo los problemas en casos, cuando sea necesario.

La reciente adquisición de Adxstudio por parte de Microsoft ayudará a promover algunas de esas capacidades.

En Redmond tiene programada la salida de Dynamics CRM 2016 para final de año. Microsoft ofrecerá una nueva licencia programática para la tecnología como add-on para Office 365. Los precios serán de 50 dólares por usuario al mes, para las licencias Office 365 Plan E3, E5 y Business Premium.

-Katherine Noyes, IDG News Service

Inversiones en movilidad impactarán en infraestructura, aplicaciones y procesos

VMware dio a conocer el informe VMware 2015 State of Business Mobility Report, una encuesta mundial donde los responsables de las decisiones empresariales y profesionales de TI que examina el progreso mundial en la transición de la era cliente-servidor a la era de movilidad y nube. Entre los resultados más sobresalientes se encontraba que las compañías están comenzando la transformación hacia la movilidad empresarial, y han cambiado por lo menos un proceso esencial de la empresa al paradigma móvil. Para apoyar este cambio, las organizaciones encuestadas dijeron que están mejorando la infraestructura, introduciendo aplicaciones móviles de cara al cliente y re-procesando las aplicaciones que son cruciales para los empleados móviles.

La movilidad y el cambio a la era móvil-nube se encuentran entre las mayores tendencias de transformación en los negocios de hoy. Con el potencial de afectar las interacciones de una gran cantidad de empleados, clientes y negocios, la movilidad puede hacer que las organizaciones sean más competitivas y exitosas. Aunque los CIOs consideran que la movilidad es una de sus principales prioridades, las empresas actuales están en distintas etapas de madurez en lo que respecta a la movilidad, según el VMware 2015 State of Business Mobility Report.

El informe encontró una clara separación entre las organizaciones que han puesto en marcha iniciativas de movilidad empresarial y aquellas que aún no han trasladado los procesos empresariales a una estructura móvil. De los 1.182 encuestados en todo el mundo, sólo el 20% de las organización comentaron estar adoptando iniciativas de movilidad empresarial, al transformar al menos un proceso esencial de la empresa al modelo móvil. Estas organizaciones dijeron además que han actualizado la infraestructura, invertido en dispositivos móviles y reconstruidos o rediseñado aplicaciones que utilizan la movilidad para hacer más competitiva la empresa.

Aunque un gran número de las compañías aún no han adoptado ningún modelo móvil, las cifras mostraron que muchas organizaciones están trabajando a marchas forzadas para lograr la movilidad empresarial en los próximos meses; en concreto casi dos tercios (63%) de los encuestados han finalizado o están rediseñando activamente un proceso esencial de la empresa para basarlo en un modelo móvil dentro de los próximos 12 meses.

Para alcanzar estos objetivos estratégicos, las organizaciones dijeron que están haciendo inversiones clave en infraestructura, aplicaciones y alineación de los procesos, para poder así implementar con éxito el proyecto móvil. Más específicamente, estas organizaciones dijeron que están mejorando la infraestructura para apoyar un modelo de negocio móvil (77%), introduciendo nuevas aplicaciones móviles de cara al cliente (70%) y reconstruyendo o rediseñando aplicaciones que son cruciales para los empleados móviles (69%) hoy o dentro de los próximos 12 meses.

Las iniciativas de movilidad empresarial están impulsando una serie de resultados estratégicos para las organizaciones globales. Al cambiar las empresas las aplicaciones y los datos a una plataforma móvil, el aumento de la seguridad sigue siendo la prioridad más importante (55%), junto con la recuperación después de desastres para proteger la propiedad intelectual (32%). Al mismo tiempo, mejorar la eficiencia de la fuerza de trabajo –más allá de una simple productividad de los empleados – es esencial (34%), así como crear una mejor experiencia de usuario que se mantenga al ritmo del entorno que los usuarios experimentan en sus vidas como consumidores (31%).

La inversión en software de movilidad empresarial puede dar resultado, y el informe encontró promedios de 150% en el ROI. Estas empresas ven mayores beneficios en comparación con aquellas que no han implementado la movilidad empresarial, incluso la posibilidad de contar más rápidamente con nuevos ingresos en línea (51% contra 16%), el costo por pérdida de oportunidades de negocio (-44% contra -22%) y el acceso de los usuarios a las aplicaciones cruciales (47% contra 32%).

 

– VMWare. 

El IoT y la empresa basada en datos

Bucear ante un gran flujo de datos, esta es la sensación que tendrá en el mundo de la Internet de las cosas (IoT) donde todo, desde los sistemas de calefacción, la fabricación de sistemas de control, las etiquetas RFID, los cuales recogen datos; y si está en una empresa los datos están por llegar, si es que ya no están allí.

La implementación de estas nuevas estrategias pueden ser buenas y malas. Bueno porque en esos datos está encerrada información que puede mejorar la eficiencia de su empresa, hacer que trabaje de una forma más inteligente, encontrar nuevas fuentes de ingresos y más. Y es malo porque pocas empresas se preparan para la inundación de datos entrantes.

Para ayudarle a manejar y diseñar la mejor estrategia, hemos buscado el asesoramiento de profesionales de IoT, de primera instancia Intel, que está metida de lleno en el IoT; y varias empresas que se especializan en ayudar a que las empresas hagan frente a los problemas de big data generados por la IoT.

Este artículo ofrece una mirada en profundidad al problema y posibles soluciones además encontrará:

Una mirada al problema

Antes de llegar al asesoramiento de los profesionales, vamos a revisar brevemente el problema. Datameer, que vende una plataforma de análisis de big data, dice que para el 2019 habrá 35 millones de dispositivos conectados a Internet. Unos 40 mil exabytes de datos serán generados por sensores que se construirán en los dispositivos conectados a Internet.

¿De qué tipos de datos estamos hablando? Podría ser cualquier cosa. Por ejemplo, las empresas encargadas de la fabricación utilizan sensores para comprobar sus equipos, para asegurarse de que todo funciona sin problemas, y mejorar el proceso de fabricación. Los minoristas pueden utilizarlos para mejorar el seguimiento de las ventas y unir información para la cadena de suministro. Los aparatos cotidianos también recogerán datos.

Así que no es sorprendente que una encuesta conjunta de Accenture y GE, haya encontrado que big data es la principal preocupación para las empresas. Dado a que el 88% de los ejecutivos encuestados dijeron que era una de sus tres principales prioridades, y el 82% dijo que construirían o añadirían a su plataforma de big data existente o sus capacidades de análisis en los próximos tres años.

La visión a largo plazo de GE

GE es una de las pioneras en IoT y big data, tanto en el uso de la tecnología en sus propios negocios, como en la prestación de servicios para las empresas que quieren aprovechar los datos de la IoT. GE está en muchas empresas, desde la aviación a la gestión de energía, salud, petróleo y gas, transporte y mucho más, con fábricas repartidas por todo el mundo, por lo que ha tenido que enfrentar la avalancha de datos IoT antes de todas las demás empresas. Sobre la base de sus experiencias, vende productos y servicios para la IoT y datos, sobre todo en su división Intelligent Platform.

Rich Carpenter, arquitecto ejecutivo principal de software de GE Intelligent Platforms Software dice que el primer reto para la mayoría de las empresas que quieren hacer uso de la inundación de datos IoT es reunir los datos, donde señala que es una tarea más difícil de lo que se piensa.

“En nuestro propio negocio nos enfrentamos mucho a este problema”, señala. “Tenemos 400 fábricas a nivel mundial y una cantidad sorprendentemente grande de ese equipo no está conectado, ya que se instaló antes de que Internet se hiciera popular”.

Él anota que GE divide sus equipos en tres categorías: equipos completamente desconectados; equipos que se pueden conectar, pero necesitan trabajo para completar la conexión; y equipos que ya están conectados o que se pueden conectar fácilmente. GE luego diseña estrategias de recopilación de datos para cada tipo.

Pero recopilar datos de los dispositivos IoT no es suficiente. Los datos IoT pueden venir en muchos formatos diferentes, que podrían no ser compatibles entre sí o con el software de análisis de datos.

En los entornos industriales, GE instala aparatos de recolección de datos que se llaman agentes de campo, que tienen conexiones autenticadas seguras a una nube pública o privada para que almacenen datos. No solo los dispositivos envían los datos de forma segura, sino que también determinan qué tipos de datos recogerán, qué protocolos utilizarán para hacerlo, y cómo deben almacenarlos.

Una vez recolectados los datos, las empresas tienen que darle sentido y analizarla para encontrar información útil. Eso es bastante difícil. Aún más difícil es tomar esa información y luego usarla para hacer cambios en la forma en que una empresa trabaja, como hacer que una planta de fabricación sea más eficiente.

Carpenter advierte que muchas empresas se atascan en esta fase. Él tiene algunos consejos de cómo solucionar eso.

“Algunas empresas empiezan por escoger una planta de fabricación, y tratar de hacer que la recolección de datos y el análisis sean perfectos antes de continuar. Pero resolver todos los problemas, incluso en una misma planta, puede tardar una eternidad. Hemos aprendido que la solución más prescrita funciona. Consiga 70% del camino en una planta, y luego escale ese valor en toda su empresa. Eso le trae mucho más valor, mucho más rápido”.

Carpenter también dice que prácticamente todo tipo de empresa eventualmente tendrá que tomar en cuenta los datos de IoT y convertirse en una empresa basada en datos.

“Esto no es solo para los fabricantes o empresas que ya saben que necesitan para entrar en la IoT”, comenta el ejecutivo. “Todas las empresas lo necesitan, ya sea para el mantenimiento de la gestión de activos, ERP, cadena de suministro, o ayudar a que una fuerza de trabajo móvil sea más eficiente”.

Intel aconseja: Primero fíjese en los objetivos del negocio

Vin Sharma, director de la estrategia de Intel para Big Data Analytics, Data Center Group, está de acuerdo con Carpenter en que casi cualquier empresa tendrá que hacer uso de los datos de la IoT.

“Agricultura, manufactura, asistencia sanitaria, hay razones obvias por las que todos esos sectores quieren y necesitan los datos de la IoT”, señala. “Pero nuestra expectativa indica que cada organización tendrá que hacer uso de todos los datos disponibles, lo que significa datos de la IoT. Estoy luchando por imaginar una industria que no necesite este tipo de información. Los minoristas, por ejemplo, pueden obtener una gran cantidad de valor mediante el control de su inventario de bienes con etiquetas RFID y balizas. En última instancia, el objetivo para muchas empresas será obtener una vista de 360 grados de sus clientes, ya sea un paciente en la industria de la salud, un agricultor en la industria agrícola, o un consumidor en la industria minorista”.

Sharma añade que tal vez el error más grande que las empresas cometen con los datos de la IoT no tiene nada que ver con la tecnología, sino con la comprensión de sus propios objetivos de negocio.

“Un problema común es que las empresas no tienen una definición muy clara de sus objetivos de negocio antes de comenzar, ni del problema de análisis que quieren resolver”, comenta. “Hay una nebulosidad, y eso se traduce en largas demoras para el despliegue. Pero con las empresas que tienen una idea muy nítida y clara de lo que quieren lograr, las cosas tienden a moverse muy rápidamente”.

Sharma destaca el uso de la industria del vestido como un ejemplo de la importancia de definir claramente el problema de la empresa, antes de embarcarse en cualquier proyecto de IoT.

“Digamos que la exactitud del inventario en mis tiendas no está donde yo quiero que esté”, señala. “Eso me obliga a hacer liquidaciones de ropa, lo cual genera gasto y reduce el margen. Y esto se refleja en la cadena de suministro. Así que sé que esa mejora de la exactitud de mi inventario en la tienda va a mejorar mi rentabilidad. Eso me da una definición muy clara del problema que quiero resolver”.

Con ese objetivo en mente, la empresa puede diseñar un sistema para obtener datos más granulares y precisos sobre su inventario de bienes en las tiendas; por ejemplo, mediante el uso de redes de sensores RFID.

La segunda cuestión importante, agrega, es que el alcance de los proyectos de IoT con el que se comprometen las empresas, por mencionar un ejemplo, son demasiado grandes y se vuelven difíciles de manejar y muy difíciles de implementar y administrar.

Vemos que muchas empresas tienen éxito cuando se forjan un ámbito medido muy específico por primera vez como una prueba de concepto, y luego como un pequeño piloto. Después de eso, pueden escalarlo tanto horizontal como verticalmente a través de sus negocios”.

Señala nuevamente el ejemplo de la ropa sobre la necesidad de tener una visión más precisa del inventario. Él sugiere hacer primero un piloto en una sola tienda, en un solo lugar; y trabajar todos los temas ahí. Después de eso, añade, pueden extenderlo a la totalidad de sus 300 tiendas y, a continuación, añadir tipos adicionales de recopilación de datos para la implementación.

El uso de plataformas de Hadoop basados en la nube

Incluso las empresas que tienen una definición clara acerca de los problemas del negocio que quieren resolver no podrán hacer uso de los datos de la IoT a menos que tengan la plataforma de análisis para manejarlos. Cada vez más, Apache Hadoop, está siendo reconocida como una plataforma de primer nivel para eso. La razón: ofrece almacenamiento y procesamiento distribuido de grandes conjuntos de datos mediante el uso de clusters de computadoras que se pueden construir a partir de hardware de bajo costo.

Tenga en cuenta que Hadoop no es fácil de implementar, y está más allá de los conocimientos técnicos de muchas empresas. Además, muchas empresas no quieren construir las plataformas masivas que el flujo de datos de la IoT puede requerir. Así que han surgido una serie de empresas que ofrecen plataformas Hadoop end to end basadas en la nube, construidas para el manejo de grandes volúmenes de datos, incluidos los datos de la IoT. De esta manera, las empresas pueden centrarse en el análisis de datos, en lugar de discutir sobre la construcción, implementación y administración de una plataforma completa.

Datameer ofrece una de esas plataformas. Datameer primero construyó su plataforma en el 2009, y Andrew Brust, director senior de marketing de producto técnico y evangelización de la compañía, advierte a las empresas de que no se queden atrapadas en la corriente de popularidad de IoT.

“En este momento, la IoT se encuentra en el mejor momento de su ciclo de popularidad, por lo que los problemas de datos a los que se enfrentan las empresas suenan como algo totalmente nuevo. Pero en el fondo, no es realmente un borrón y cuenta nueva. De lo que estamos hablando en general, es de la transmisión de datos y análisis. La principal diferencia es que ahora hay muchas más cosas de las que podemos recopilar datos, y una mayor frecuencia en su recolección”.

Uno de los mayores problemas con los datos de la IoT, señala, es que se trata de muchos dispositivos diferentes utilizando diversos protocolos y estándares de datos que no son necesariamente compatibles entre sí. En algunos casos los datos están altamente estructurados, y en otros casos, no.

“El mayor consejo que puedo dar a la gente es que busque tecnología y herramientas que les permitan crear una capa de abstracción en la cima de todos los datos de la IoT. De esa manera, cuando llegue a diferentes tipos de datos, todavía será capaz de manejar la situación, debido a que la plataforma será capaz de manejar las nuevas normas a medida que ingresan. Y busque un producto que pueda integrar los datos de tantas fuentes diferentes como sea posible”.

Por su parte Brust también señala que es importante contratar a las personas adecuadas con las habilidades analíticas adecuadas. Los científicos de datos son escasos, reconoce, pero él cree que no es necesario contratar a personas con ese título de trabajo.

“La idea del científico de datos tiene mucho de mística a su alrededor, así que no debería pensar que necesita contratar a alguien con esas habilidades”, añade. “Si tiene buenos técnicos que son expertos en el almacenamiento de datos y el trabajo de TI, puede proporcionarles la formación y la experiencia que necesitan para hacer el trabajo. No solo tendrá los recursos adecuados, sino que al ofrecer esa oportunidad para el personal de su empresa, tendrá mucha mejor retención”.

Altiscale también ofrece una plataforma basada en la nube Hadoop. Mike Maciag, director de operaciones de Altiscale, cree que trabajar con datos IoT es significativamente diferente que trabajar con big data en el pasado.

“En muchos casos, los datos de la IoT es la suma de muchas piezas de pequeños datos hasta volverse datos gigantescos”, señala. “Hay una corriente constante que se convierte en cientos de terabytes y luego petabytes. Además, a menudo son datos no estructurados, por lo que pueden necesitar mucha manipulación antes de ser útiles. Lo que también es único es que gran parte de los datos nacen en la nube y vienen desde ella hacia usted”.

Él anota que esto, de alguna manera cambia la forma en que las empresas tienen que pensar acerca de los datos. En el pasado, señala, las empresas solían extraer los datos, transformarlos y, a continuación, los cargaban en una base de datos. Con la IoT, continúa, “Eso ha cambiado a extraerlos, cargarlos, y luego transformarlos”.

Debido a eso, él recomienda, “asegúrese de almacenar todos los datos entrantes, y no los tire a la basura, incluso si no sabe aún qué hacer con ellos. Pueden llegar a ser valiosos algún día, cuando su empresa tenga nuevas estrategias y formas de hacer negocios”.

Y eso -nuevas estrategias y nuevas formas de hacer negocios- es la esencia de por qué las empresas necesitan comenzar a desarrollar una estrategia de big data IoT ahora; o bien mejorar la ya existente. Como dice Carpenter de GE, “Es cuestión de competencia. Necesita hacer funcionar su negocio basado en datos reales. Sus competidores lo estarán haciendo. Si no lo hace, quedará rezagado”.

Preston Gralla, ITworld

EMC Isilon, nuevas soluciones definidas por software

EMC dio a conocer una gran variedad de innovaciones para la estrategia Data Lake 2.0, basadas en la nueva generación de soluciones de almacenamiento. Están compuestas por nuevos productos, funcionalidades y capacidades “que permiten a las empresas escalar e integrar fácilmente tanto las sedes remotas o delegaciones, como las nubes públicas”, afirmo la compañía.  Se trata de los nuevos productos Isilon SD Edge, la próxima generación de Isilon OneFS e Isilon Cloud Pools, que perfeccionan el Data Lake y permiten que los datos no estructurados estén disponibles no solo en el Centro de Datos, sino en ubicaciones remotas, tales como oficinas y nube.

 

EMC orienta estas soluciones hacia tres tendencias que están transformando la actualidad. Dos tercios de las empresas que utilizan big data, están redefinendo su forma de hacer negocio, obteniendo además una mejor satisfacción del cliente y ventaja competitiva. Además, según datos proporcionados por la compañía, el volumen de datos no estructurados se duplica cada dos años, y muchos de estos datos no contabilizados pueden aportar información de gran valor. Es por ello que surge la necesidad de gestionar los datos de una manera más eficiente. Por último, la empresa asegura que la nube híbrida se ha convertido en la opción por excelencia para los clientes, como un método para eficientizar parte de las cargas de trabajo alojados en los Centros de Datos.

Las primeras estrategias de Data Lake se limitaban a integrar fuentes de datos disponibles dentro del núcleo del Data Center. Sin embargo, en esta ocasión EMC se enfocó en la necesidad de ampliación y de gestionar datos no estructurados de un modo simplificado, no sólo los almacenados en el data center, sino en delegaciones y cloud.

 

Los nuevos productos

El primer producto es IsilonSD Edge, una solución definida por software que ofrece simplificar la gestión de datos en oficinas remotas. Este producto se encontrará disponible de manera gratuita para uso no productivo, y con licencia por clúster para su uso en producción. Esta solución es capaz de integrarse en hardware.

EMC cuenta además con una nueva versión del sistema operativo Isilion OneFS que ofrece mejoras en la elasticidad del lago de datos, mejor conocido como data lake y lograr así un lago de datos más resistente que contribuya a evitar tiempos de inactividad para usuarios y para cargas de trabajo de aplicaciones durante las actualizaciones más importantes.

Por último, la empresa está ofreciendo EMC CLoudPools, una nueva aplicación de software que permitirá a Isilon llegar a nubes tanto públicas como privadas. Se trata de un sistema capaz de interrelacionarse con las distintas nubes y tener el control de los datos.

Estos productos estarán disponibles a partir del próximo año.

Intel finaliza su chip de 72 núcleos para estaciones de trabajo

El chip de 72 núcleos de Intel que se podrá implementar en las futuras Workstation, pensadas para entornos de supercómputo y cálculo avanzado. Con nombre en código Knights Landing, Xeon Phi es la segunda generación y podría ver la luz durante el primer semestre del próximo año.

Lo que Intel quiere, es seguir incrementando el potencial de las estaciones de trabajo de cualquier tipo, esas que son utilizadas por pequeños profesionales para desempeñar tareas avanzadas en lo que entendemos como informática de escritorio. De esta forma, la firma prepara la integración de uno de sus chips con 72 núcleos de procesamiento para albergarlo en la configuración de un equipo con formato de estación de trabajo. El chip Xeon Phi está basado en la arquitectura con nombre en código Knights Landing, actualmente considerada por Intel como la más potente de la compañía creada hasta la fecha.

En base a este desarrollo, diversos fabricantes y partners de Intel podrían anunciar nuevas Workstation a lo largo del primer semestre del próximo año. Así lo ha destacado Charles Wischpard, gerente general del Grupo de Plataformas de HPC de Intel. Destacó que estos equipos, por su modalidad, suelen presentar un tamaño superior a los equipos de escritorio convencionales, además de contar con componentes más avanzados en cuanto a suministro de energía, posibilidad de intercambio de componentes en caliente, integración de soluciones gráficas avanzadas, así como gran cantidad de memoria RAM para poder mover con soltura las aplicaciones de ingeniería. Las actuales suelen estar basadas en la familia de procesadores Intel Xeon.

intel-xeon-phi

Las estaciones de trabajo para supercomputadoras que Intel tradicionalmente ha puesto en manos de investigadores y departamentos de ingeniería avanzada, han permitido llevar a cabo cálculos científicos complejos para los que en condiciones normales sería necesario mucho más tiempo de procesamiento, utilizando otras tecnologías más tradicionales. De este modo, los investigadores son capaces de escribir y probar código en el propio equipo antes de su implementación. La solución que ahora propone Intel con 72 núcleos de procesamiento es una solución pensada para cambiar el formato de equipo de escritorio tradicional a la hora de implementar la supercómputo en estos equipos.

El uso de coprocesadores de otras compañías, como Quadro de Nvidia, ya son utilizadas junto a las CPU de Intel en las estaciones de trabajo actuales, con el fin de poder incrementar el rendimiento ejecutando aplicaciones. No obstante, la estación de trabajo basada en el nuevo chip Knights Landing cargará el sistema operativo e incrementará el rendimiento de las aplicaciones.

El chip Xeon Phi es la segunda generación de Knights Landing y puede desarrollar más de 3 Teraflops, un rendimiento que viene a ser el rango de algunos chips de gráficos de alto rendimiento utilizados en las supercomputadoras más rápidas del mundo, con función dedicada.

Dicha arquitectura está diseñada para ejecutar tareas de computación paralela y varía con respecto al diseño tradicional de chipset x86 convencionales. De hecho, se mezclan CPUs x86 convencionales, con unidades de procesamiento especializadas para aligerar y balancear las cargas de trabajo más pesadas.

Knights Landing también podría acercar innovaciones a los equipos de escritorio más tradicionales. Incluye 16 GB de memoria de tipo MCDRAM, en el que los módulos se apilan y se conectan a través de un cable. La memoria ofrece cinco veces más ancho de banda que la memoria DDR4 que conocemos a día de hoy en los equipos tradicionales. Intel también destaca que la memoria apilada es hasta cinco veces más eficiente, energéticamente hablando, y hasta tres veces más rápida que la GDDR5 empleada en por las tarjetas gráficas. Otra ventaja es que junto al sistema operativo, también se cargan otra serie de herramientas de programación y programas de software en la estación de trabajo para acelerar su ejecución.

Anterior a esto, Intel tuvo planes similares con el chip de nombre en código Larrabee, pero se detuvo, esto ocurrió cerca del año 2010 por los problemas relacionados con el diseño para equipos de escritorio, de esta forma, el chip Phi es un subproducto de Larrabee.

-Alfonso Casas