Día: 3 junio, 2016

¿Dónde se encuentra el futuro de los Centros de Datos?

Estamos perdiendo rápidamente la capacidad de almacenar datos, y el reto será determinar qué datos guardamos y cuáles desechamos. La velocidad a la que podemos construir dispositivos de almacenamiento nunca será lo suficientemente rápida para ponernos al día con la velocidad a la cual generamos los datos. Sólo el clic de un iPhone puede crear un MB de datos en una milésima de segundo. Hoy sólo podemos almacenar alrededor de un tercio de los datos digitales. En cuatro años, en el 2020, solamente seremos capaces de almacenar el 15%, y el resto caerán por la borda.

El otro día estaba discutiendo este tema con Suresh Nair, nuestro Director General en Indonesia, y él especulaban sobre lo que podría ser posible si tuviéramos tecnologías que conformen un “sistema de memoria de hipocampo” (el hipocampo es el área de nuestro cerebro que guarda la memoria).

Nuestros cerebros parecen ser capaces de almacenar una cantidad ilimitada de información. Recibimos el aporte de nuestros cinco sentidos, información que se almacena de forma selectiva en la memoria a corto o largo plazo, dependiendo de varios factores, que son conscientes o inconscientemente importantes para el individuo. Los cinco sentidos actúan también para la recuperación de datos. Un olor o sonido pueden desencadenar la recuperación de la memoria. Los recuerdos son capaces de provocar también reacciones automáticas, como batear una pelota o andar en bicicleta. Además, podemos comunicar y construir sobre los recuerdos que compartimos con los demás.

El centro de datos del futuro podría convertirse en un cerebro de auto-análisis, construido sobre una plataforma de infraestructura abierta que proporciona servicios, los cuales pueden crecer y escalar para optimizar el negocio con mayor eficiencia y menores costos. Habrá motores analíticos que obtendrán información de los datos antes de que se pierdan. Y tal vez será posible recrear los datos, con base en fragmentos de información. El centro de datos será una nube distribuida, cada vez más definida por software, de código abierto, ubicua, sin límites, escalable y con la capacidad de “autocurarse”. Se utilizará la telemetría para detectar la información y la telemática para controlar dispositivos remotos. Las tecnologías como: block chain o distributed ledgers, podrían ser utilizadas para mantener la coherencia y la transparencia global.

En el futuro, la atención se centrará en el almacenamiento de la información y no en los datos; no en individuos, sino en colectivos. En lugar de los centros de datos tendremos una nube de información autónoma.

hu_yoshida

Por: Hu Yoshida,

CTO Hitachi Data Systems.

Pig.gi, publicidad para Millennials

Piggi, la aplicación que permite a usuarios ganar tiempo aire a cambio de ver anuncios, dio a conocer la liberación de su versión 2.0.

Según datos de la ONU, en México solo el 37.5% de la población tiene una conexión de Internet móvil; el porcentaje restante, 62.5% son personas que se conectan únicamente por Wi-Fi y no tienen una conectividad consistente.

Piggi es un nuevo modelo de negocio que donde el usuario, enfocado principalmente en los millennials que cuentan con sistema de prepago, puedan ver anuncios en su pantalla bloqueada. Con cada visualización obtienen monedas electrónicas que, a final de mes, pueden ser cambiadas por saldo para su Smartphone, sin importar el operador telefónico.

Pig.gi ofrece un nuevo concepto de publicidad móvil al mercado mexicano que, a diferencia de los esquemas tradicionales, se ocupa toda la pantalla del teléfono en reposo, una pantalla que los usuarios acceden todo el tiempo, incluso para ver la hora. Cuando el usuario se interesa en algún contenido desplazado, obtiene monedas extra, sin embargo, aunque solo la vea en su pantalla bloqueada, se obtiene un beneficio.

La plataforma, según los ejecutivos, está creada con basado en el mismo modelo de publicidad de radio y televisión (gratis para el usuario final), pero adaptado a la tecnología móvil, sobre todo para los usuarios más jóvenes que cada vez son más digitales.

El modelo que plantea Pig.gi es vender paquetes de publicidad a marcas y agencias para que ellos puedan montar campañas. Se puede desplegar en la pantalla de los usuarios todo tipo de contenido publicitario, desde un producto o servicio, hasta eventos o notas de prensa, incluso se pueden mandar encuestas y sondeos para obtener resultados de manera más ágil y puntualizados.

La aplicación obtuvo más de 125 mil descargas de la Google Play en su primer año de existencia, donde logró trabajar con más de 50 marcas locales.

Por el momento la aplicación sólo está disponible de manera gratuita para los usuarios Android, puesto que este nicho ocupa el 82% de los usuarios de prepago en América Latina, según datos proporcionados por la compañía, y aunque aún no están en planes de la compañía.

 

Karina Rodríguez, Computerworld México.

Disminuyen los ingresos en el mercado de servidores a nivel mundial

IDC y Gartner señala que el primer trimestre de 2016 mostró bajas en los datos de facturación, entre esa información HPE se mantiene en el primer puesto del Top5 de fabricantes tanto en ingresos como en cuota de mercado.

El buen momento que vivieron los servidores durante el año 2015 parece haber llegado a su fin en el primer trimestre de este año, empiezan a registrarse las primeras caídas en los ingresos. Dos de las grandes consultoras, Gartner e IDC, han presentado sus datos trimestrales sobre el mercado de los servidores con números a la baja para el sector.

Los datos de Gartner hablan de una caída de la facturación mundial de servidores de un 2.3% en el primer trimestre de 2016, mientras que las ventas aumentaron un 1.7% respecto al primer trimestre de 2015. “A pesar de que los ingresos se reducen el primer trimestre de 2016 continuó con una tendencia de crecimiento de los envíos de bajo nivel a nivel mundial con una variación en los resultados por región, ” comentó Jeffrey Hewitt , vicepresidente de investigación de Gartner. “La caída de los ingresos a la luz del incremento de envíos demuestra que los servidores que se entregan durante el período tenían precios de venta promedio más bajos que los que se enviaron en el mismo período de tiempo del año pasado”. Todas las regiones mostraron una caída en ingresos tanto en ventas como en fabricantes excepto la zona Asia/Pacífico, que marcó un 9.7% en crecimiento de ingresos y un 8.4% en crecimiento de envíos durante este periodo. Europa oriental registró un aumento del 1.4% en ventas y un 1.5% en facturación. Por su parte, Norteamérica marcó un incremento del 1% en envíos pero cayó un 5.9% año tras año en ingresos.

“El verdadero motor del crecimiento global sigue siendo el segmento de centros de datos hiperescala. El sector de la empresa y la pequeña o mediana empresa siguen siendo relativamente planos en cuanto a crecimiento, acomodados sus requerimientos de crecimiento de aplicaciones a la virtualización y considerando alternativas en la nube”, añadió Hewitt.  Según los datos de Gartner, HPE continúa liderando el mercado mundial de servidores, teniendo en cuenta los ingresos, con un 25.2% de la cuota de mercado. HPE fue el único fabricante del Top5 que experimentó un crecimiento en el primer trimestre de 2016. Dell mantuvo el segundo puesto a pesar del descenso del 1.4% y consiguió un 17.3% de la cuota de mercado. IBM aseguró la tercera posición con un 9.7% de la cuota de mercado, pero experimentó la mayor caída entre los fabricantes del Top 5. En los envíos de servidores, HPE mantiene su liderazgo en el primer trimestre de 2016, incluso aunque sus ventas interanuales cayeron un 1.6%.  La cuota de envíos de servidores a nivel mundial de HPE fue del 19.4%, lo que representa una caída de la cuota del 0.6% respecto al mismo periodo en 2015. Del Top 5 de proveedores en ventas de servidores  a nivel mundial, sólo Huawei e Inspurt registraron aumentos en ventas.

Hewlett Packard Enterprise installs new signage on the exterior of its Palo Alto, CA headquarters. CREDIT: Hewlett Packard Enterprise

Índices de IDC

Por su parte IDC remarca que los ingresos de los proveedores del mercado de los servidores descendieron un 3.6% año tras año con 12.4 millones de dólares en el primer trimestre de 2016. Esta cifra pone fin a siete trimestres consecutivos de crecimiento ya que la demanda de mercado de servidores se desaceleró debido a una pausa en las implementaciones de servidores hiperescala así como un final claro del ciclo de actualización de las empresas. Los envíos mundiales de servidores descendieron un 3%, con 2.2 millones de unidades en el primer trimestre de 2016, comparado con el mismo periodo del año anterior. Sobre una base interanual,  el volumen de ingresos aumentó un 1.8% y la demanda de sistemas de gama media aumentaron un 8.3% en el primer trimestre de 2016, con 9 800 millones de dólares y 1 100 millones de dólares, respectivamente. En el crecimiento de los sistemas de gama media ayudó la inversión de las empresas en sistemas escalables para la virtualización y la consolidación, así como el crecimiento en sistemas de misión crítica basados en x86. Mientras tanto, la demanda de sistemas de gama alta experimentó una caída año a año de los ingresos del 33.4%, con 1 400 millones de dólares, en una difícil comparación con el año anterior, cuando una gran actualización del sistema z de IBM condujo a un pico en la renovación de los sistemas de servidores.

“Como se esperaba, el crecimiento en servidores se ralentizó en el primer trimestre, poniendo fin a la actualización liderada por Intel, una pausa en la expansión de la nube hiperescala y una difícil comparación año tras año en el mercado de la gama alta, liderado por la actualización del sistema de servidores de IBM de hace un año”, explicó Kuba Stolarski, director de investigación de plataformas de Computación de IDC. “Ahora que el ciclo de actualización ha llegado a su fin, el enfoque de mercado se está desplazando hacia la infraestructura definida por software, el entorno híbrido de gestión y la próxima generación de dominios de TI, como el  Internet of Things, la robótica o la analítica cognitiva.

A corto plazo, IDC espera que en la segunda mitad de 2016 se revigorice la expansión de las infraestructuras de nube hiperescala, con los centros de datos existentes completos y los nuevos centros de datos cloud que se están levantando en todo el mundo”. En cuanto a los datos de fabricantes, IDC subraya que HPE mantiene la primera posición en el mercado de servidores con un 26.7% de la cuota de mercado en ingresos de fabricantes durante el primer trimestre de 2016, y la facturación creció un 3.5% año tras año a los 3 300 millones de dólares.  Del se mantiene en la segunda posición del mercado mundial de servidores aunque sus ventas cayeron un 1.8% año tras año, a 2 300 millones de dólares, aunque mantuvo el 18.3% de la cuota de mercado en este trimestre. IBM experimentó un difícil comparación con el gran crecimiento experimentado hace un año en el que marcó un aumento de tres cifras por sus sistemas de servidores z. Lenovo y Cisco luchan por la cuarta posición con un 7% y un 6.9% de la cuota de mercado respectivamente. Lenovo alcanzó los 871 millones de dólares de beneficios tras un descenso del 8.6%, mientras que los ingresos de Cisco cayeron un 4.5% año a año a los 850 millones de dólares.

Redacción

Microsoft agrega seguridad a los documentos de Office 365

Micrrofot con ayuda de la nueva herramienta Advanced Security Management, las organizaciones que utilizan Office 365 van a poder controlar mejor el uso de sus documentos, donde se encuentran, así como detectar raros comportamientos relacionados con ellos.

El uso de servicios alojados en la nube plantea nuevos retos a las organizaciones en el apartado de seguridad, por lo que las grandes compañías que ofertan soluciones de este tipo, deben reforzar ésta área. Con esta premisa, Microsoft acaba de anunciar Office 365 Advanced Security Management, un nuevo conjunto de herramientas pensadas para potenciar la seguridad de sus aplicaciones basadas en la nube, como es el caso de Office 365. De este modo, la compañía pretende dotar a las organizaciones, de un mayor control y visibilidad de los documentos que manejan.

Ron Markezich, vicepresidente corporativo de Office 365 y CIO de Microsoft ha afirmado que “esta nueva herramienta cumple con la demanda de muchas organizaciones que desean poder supervisar a dónde van sus datos y ver qué aplicaciones están siendo utilizadas en su entorno”. De este modo, Markezich destaca que Advanced Security Management está formado por tres puntos importantes:

Detección de amenazas: se trata de una funcionalidad con la que es posible identificar un uso anormal del servicio y posibles incidentes de seguridad. Se trata de poder identificar los altos riesgos y el comportamiento anormal de los documentos. Por ejemplo, explica Markezich, situaciones en las que alguien está tratando de descargarse una gran cantidad de información a un servicio de nube externo a la organización; o si existe una cuenta inactiva que de repente se vuelve muy activa. La herramienta detecta estas situaciones atípicas y las estudia detenidamente.

Control avanzado: Office 365 va a contar con controles granulares en el apartado de seguridad, así como la posibilidad de aplicar políticas específicas de seguridad. Si un usuario lleva a cabo múltiples intentos fallidos de inicio de sesión desde una nueva dirección IP, es posible buscar la ubicación o el tipo de dispositivo empleado. Es posible crear alertas adicionales de cualquier tipo, con el fin de evitar que un usuario pueda llevar a cabo alguna acción no permitida o sospechosa. Es así como el administrador puede incluso suspender inmediatamente dicha cuenta asociada.

Visibilidad: gracias a esta característica, es posible tener una visibilidad avanzada del uso de Office 365 y el shadow IT, sin necesidad de instalar un agente end-point. Los clientes pueden ver qué aplicaciones Cloud se encuentran integradas con Office 365 y la repercusión que pueda tener en el servicio. Aquí se incluye un panel de control para permitir una gestión avanzada, con el fin de poder descubrir aplicaciones profesionales categorizadas (más de 1000 según Microsoft), como puedan ser de colaboración, almacenamiento en la nube, de correo electrónico u otras. Así la organización puede observar detenidamente lo que puede estar ocurriendo por detrás. Markezich matiza que la herramienta permite ver la cantidad de datos de la organización que pueden estar siendo enviados a OneNote, Dropbox u otro servicio de almacenamiento.

office-365-asm

Desde Redmond señalan que Advanced Security Management está incluido en Office 365 versión E5, y también está disponible como un complemento a otros planes empresariales de Office 365 por un precio aproximado de 3 dólares al mes. Su despliegue se está realizando de manera automática a todos los clientes a nivel mundial. Algunas capacidades como la de ver los permisos de una aplicación dentro de Office 365, y el panel de detección de aplicaciones, estarán disponibles a finales del tercer trimestre del presenta año, señala el blog de Microsoft.

Alfonso Casas

 

Primera demo de servicios VR en tiempo real y sobre 5G

ZTE realizó la primera demostración a nivel mundial del uso de servicios VR basados en tecnología 5G inalámbrica en tiempo real. Ésta se realizó durante una feria sobre innovación tecnológica que se está celebrando en China, con un smartphone Axon 7 y su solución MIMO Pre5G.
ZTE proporcionó a los asistentes al evento unos lentes de realidad virtual sin cable de datos conectado, puesto que podían conectarse a la red inalámbrica con Pre5G a través de sus smartphones. Este sistema garantiza un alto ancho de banda, un retardo bajo y la alta movilidad de los servicios de VR, con lo que la compañía china se adelanta a futuros desarrollos en este campo.
Los servicios de VR necesitan grandes exigencias de ancho de banda. Para lograr una experiencia perfecta en VR, el tipo de terminal debe ser de al menos 60 Mbps y el retraso del servicio, inferior a 20 ms.

Según la propuesta de ZTE, los servicios de VR deben ser apoyados por una red ubicua con un tipo de banda ultra-ancha, sin tiempo de espera y con una excelente experiencia. La solución MIMO Pre5G que propone la compañía suma tecnologías 5G sobre las actuales redes comerciales 4G, maximizando los potenciales del ancho de banda, alcanzando una tasa máxima de 400 Mbps o superior en las redes comerciales, y mejorando la eficiencia del espectro red 4G de cuatro a seis veces. Además, esta solución es compatible con los smartphones existentes, de modo que los usuarios de 4G pueden disfrutar de la experiencia 5G sin cambiar su terminal.

Esta solución MIMO Massive Pre5G también es compatible con diversas tecnologías de última generación, como el llamado Internet de las Cosas.
ZTE ya ha firmado acuerdos de cooperación estratégicos y realizado pruebas con algunos de los principales operadores del mundo, como China Mobile, Softbank (Japón), Korea Telecom, uMobile (Malasia) y Hutchison Drei Austria.

 

Redacción NetworkWorld

Mark Zuckerberg podría perder el control de Facebook si deja la compañía

El CEO de Facebook tiene votos a favor como representante mayoritario de la compañía aunque podría perderlo si la junta aprueba la nueva normativa.

El CEO de Facebook, Mark Zuckerberg, podría perder la mayoría en la votación de la red social si deja su trabajo o termina sus servicios, según las nuevas normas propuestas por la junta. Las reglas, planteadas como parte de una reclasificación de las acciones de Facebook para ayudar a cumplir los planes de filantropía de Zuckerberg, serán votadas por los accionistas en una reunión anual el 20 de junio. El objetivo de estas normas para ir encaminado a facilitar a la compañía la contratación de un sucesor de Zuckerberg altamente cualificado, que no quede ensombrecido por el fundador o provenga de su familia.

Las medidas parecen ser más una precaución ya que Zuckerberg no ha dado muestras de querer dejar su trabajo. El ejecutivo de alto perfil cuenta actualmente con acciones de clase A y de clase B comunes que representan colectivamente el 53.8% del total de voto de la compañía. Bajo las normas actuales, si Zuckerberg dejara la compañía o finalizaran sus funciones por alguna razón, no se vería obligado a renunciar a su mayoría en la votación.  Zuckerberg también podría pasar sus acciones de Clase B comunes, y por lo tanto, su mayoría en el voto, a sus descendientes tras su muerte, dejando que el control del voto de la compañía pasara a través de múltiples generaciones, según un documento regulador de la compañía de la Comisión de Valores de Estados Unidos. Las acciones de clase A tienen un voto por acción, mientras que las de clase B tienen 10 votos por acción.

Un comité especial, formado en agosto para examinar la reclasificación de la estructura de capital o de voto de Facebook en vista de los planes a largo plazo de Zuckerberg para donar la mayor parte de sus acciones a la filantropía, ha recomendado nuevos términos que aseguren que Facebook  “no va a seguir siendo controlada por su fundador cuando deje de ser una compañía dirigida por su fundador”, según el documento indicado.

Sucesor cualificado

Por ello el comité y la junta directiva señalan que sería más difícil encontrar un sucesor cualificado si Zuckerberg mantiene la mayoría del control de voto de la compañía. Para evitar que tenga este control si deja su puesto, el comité ha propuesto nuevos desencadenantes automáticos, que con algunas excepciones, “requerirían la conversión de todas las acciones de clase B comunes en acciones de clase A si él deja de dirigir la compañía”.  Estos desencadenantes pueden “proporcionar un valor significativo a nuestra compañía al incentivar que Zuckerberg se mantenga en ella”, explica el documento.

Zuckerberg anunció en diciembre que iba a dar a la filantropía, a través de la Iniciativa Chan Zuckerberg, el 99% de sus acciones de la compañía. El CEO comentó que había informado al comité sobre sus planes de no vender o regalar más de 1 000 millones de dólares en capital de su compañía cada año durante los tres próximos años, y que su objetivo era mantener su posición de mayoría en un futuro próximo.

En un documento regulatorio de principios de año, Facebook comentó que aspiraba a crear una nueva clase de cotización pública, aunque sin derecho a voto de clase C, y de ser aprobada, emitir un dividendo único de dos acciones de esa nueva clase de capital social de cada clase A y clase B acción en circulación en manos de accionistas.

Las razones tenían que ver con que las acciones de clase C podían ser usadas para los objetivos filantrópicos iniciales de Zuckerberg, sin que perdiera el control de la compañía, ya que las acciones de clase C no tienen derecho a voto. “La emisión de acciones de Clase C de capital social podría prolongar la duración del control del voto de Zuckerberg, además de su capacidad para elegir a todos nuestros directores y para determinar el resultado de la mayoría de los asuntos sometidos al voto de nuestros accionistas”, apuntan en el documento. Es probable, que Zuckerberg también tenga la última palabra durante la votación de los accionistas del 20 de junio.

John Ribeiro

Siete mejoras de SQL Server 2016 que querrá probar

La oferta de SQL Server 2016 de Microsoft incluye servicios de soporte técnico para iniciar la migración de Oracle y acceso a cursos para que los administradores migran de forma fácil y rápida.

SQL Server 2016 es un sistema de administración de bases de datos operativas con análisis en tiempo real, visualizaciones en dispositivos móviles, análisis avanzados integrados, una nueva tecnología de seguridad y nuevos escenarios de nube híbrida.

Es por ello que la compañía nos ofrece siete razones para cambiar su base de datos a SQL Server 2016:

 

1. Seguridad.- Características de seguridad como la nueva tecnología Always Encrypted ayudan a proteger sus datos en cualquier circunstancia y una solución de recuperación ante desastres de alta disponibilidad agregando nuevas mejoras a la tecnología AlwaysOn.

 

2. Inteligencia de datos.- Generación de información más detallada con funcionalidades que van más allá de la inteligencia empresarial para realizar análisis avanzados desde su base de datos disponible en cualquier dispositivo, mediante aplicaciones nativas para Windows, iOS y Android.

 

3. La nube es su aliada.- Con los nuevos escenarios híbridos habilitados por la nueva tecnología Stretch Database se trasladan los datos transaccionales a Microsoft Azure de manera segura para tenerlos siempre disponibles, sin importar su tamaño.

 

4. Recuperación en caso de desastres.- Copias de seguridad híbridas más rápidas, alta disponibilidad y escenarios de recuperación ante desastres para efectuar copias de seguridad y restaurar sus bases de datos locales en Microsoft Azure y colocar sus elementos secundarios de SQL Server AlwaysOn en Azure.

 

5. Facilidad de migración.- SQL Server 2016 ofrece herramientas de migración simplificadas, para los administradores de bases de Oracle y despliegue de arranque de servicios que ayudan a liberarse de su plataforma actual.

 

6. Simplicidad.- Con un solo clic se puede migrar su plataforma de datos on-premise a Azure y cuenta con un asistente para hacer más simple la administración híbrido HA & DR con AlwaysOn

 

7. Desempeño.- El rendimiento en memoria permite transacciones hasta 30 veces más rápidas, consultas 100 veces más veloces que las consultas de bases de datos relacionales en bases de disco y análisis de

 

N. de P.

Aruba y Anixter realizan alianza para el mercado de redes en latinoamérica

Aruba Networks y Anixter anunciaron alianza enfocada a atacar los canales de Latinoamérica. Dentro del lanzamiento,  las compañías afirmaron estar decididas a ofrecer soluciones de infraestructura para el Internet de las Cosas (IoT), BYOD 2.0 y Big Data.

Roberto Ricossa, director de canal y marketing para Latinoamérica señaló, “este lanzamiento estratégico-comercial con Anister, está enfocado para toda Latinoamérica, a pesar de que Aruba está dentro de Hewlett Packard Enterprise (HPE), ahora el portafolio de redes de HPE lo maneja Aruba”.

Cabe destacar que durante la presentación, Aruba señaló que se sigue manejando independiente dentro de HPE, puesto que, mientras la división de Enterprise de HPE se dedica al mercado de servidores y almacenamiento, el encargado de las redes es Aruba, de ahí la necesidad de buscar la relación con Anixter, el que será su distribuidor en la región.

Anixter con 25 años de experiencia, cuenta con grandes acciones en Monterrey y Guadalajara, atacan el mercado Pyme en el apartado de infraestructura, el cableado ha bajado y lo que ahora va en aumento son las redes inalámbricas, es por ello que buscaron la alianza con Aruba.

Dentro del cuadrante mágico de Gartner, Aruba está presente, con ello expresan que se enfocarán a implementar de mejor manera las redes para que los socios ofrezcan una mejor experiencia de conectividad a sus clientes, ya sea en centros comerciales, estadios o aeropuertos, Ricossa señala que esperan duplicar su crecimiento y el tamaño de mercado al que ahora tienen, el cual crece 11% el mercado inalámbrico en México y a la par Aruba crece el triple, y un 4% de crecimiento alámbrico y en ese apartado están creciendo el doble.

Para HPE es una oportunidad importante para acercarse a nuevos canales a los cuales no llega, cuentan con 2 mil integradores, seguridad, infraestructura e híbridos. Se capacitará a los clientes  por medio de webinars y saldrán certificarlos Aruba además Anixter colaborará con la capacitación ya que tiene un centro de capacitación y lo ofrecerán dependiendo la estrategia de los clientes. La soluciones de HPE con Aruba y Anixter están ya disponibles.

Gerardo Esquivel, Computerworld México

Cinco mejores prácticas para extraer valor de negocio a sus datos

Diariamente las empresas producen una enorme cantidad de información, distribuida en distintos lugares, tanto dentro como fuera de ellas. Sin embargo, pocas son las que cuentan con una estrategia efectiva de gestión de datos (Data Management) que les permita reunir, organizar y analizar detalladamente esos datos.

¿Sabe cuáles son los datos que son relevantes para su negocio y dónde se encuentran? ¿Puede tener acceso a ellos cuando quiere y lo necesita? ¿Son precisos, están actualizados, limpios y completos? ¿Puede reunirlos sin importar en qué formato estén y con qué frecuencia cambian? Y quizá la pregunta más importante: ¿sus datos están listos para soportar una iniciativa de analítica de negocio (Business Analytics)? Lo que es cierto es que para lograr sacarle el máximo provecho a la analítica primero hay que poner orden en el principal insumo con la ayuda de la gestión de datos analítica (Analytical Data Management).

Existen incontables casos de empresas que han implementado la analítica sobre datos cuando aún no estaban preparados para ello. Por ejemplo, los datos podrían haber estado incompletos, o trabajaban con datos duplicados, corruptos u obsoletos, por lo que los resultados del uso de la analítica son menos que óptimos.

Preparar los datos requiere tiempo y esfuerzo. De hecho, los científicos de datos invierten entre 50 y 80 por ciento de su tiempo para desarrollar modelos solamente en la preparación de la información, que en el corto plazo se convierten en nuevos repositorios de datos locales que deben ser administrados lo que se convierte en más trabajo.

Con el fin de brindar una guía práctica para preparar sus datos para la analítica, a continuación se en listan las cinco mejores prácticas para la gestión de datos:

 

1. Facilitar el acceso a los datos tradicionales y emergentes. Cuantos más datos existan, mejores serán los análisis que se puedan hacer a partir de ellos, lo que permite que los científicos de datos puedan hacer un mejor trabajo. Con un acceso ágil a más datos, es más sencillo determinar rápidamente qué datos arrojarán los mejores resultados.

 

2. Fortalecer a los científicos de datos con técnicas de perfilamiento avanzadas. Por ejemplo, el análisis de frecuencias ayuda a identificar valores atípicos o faltantes que pueden distorsionar otras medidas como la media, el promedio y el valor medio. Por su parte, las estadísticas de resumen ayudan a los analistas a entender la distribución y variación, pues los datos no siempre están distribuidos de forma normal, como muchos métodos estadísticos suponen. Mientras que la correlación puede mostrar qué variables o combinación de variables serán más útiles de acuerdo con el objetivo de negocio que se pretende cubrir además del método analítico que se pretenda utilizar.

 

3. Limpiar los datos para agregar calidad a los procesos existentes. Hasta 40 por ciento de los procesos estratégicos fracasan debido a la pobreza de los datos. Con una plataforma de calidad de datos diseñada alrededor de las mejores prácticas y un repositorio centralizado de reglas de limpieza y validaciones de negocio, es posible incorporar la limpieza de datos en cualquier flujo de integración de éstos, utilizando de manera corporativa las mismas reglas de calidad en todos los procesos.

 

4. Dar forma a los datos mediante técnicas de manipulación flexibles. Preparar los datos para la analítica requiere de fusionar, transformar y englobar los datos de múltiples tablas en una sola que permita su manipulación de una manera más ágil, denominada tabla de base analítica (ABT), que se utiliza para construir modelos analíticos y calificar (predecir) el comportamiento futuro de una entidad (un cliente, por ejemplo), la construcción de estos ABT´s se puede lograr de una manera más eficiente por medio de una metodología de gestión de datos analítico (Analytical Data Management).

CIO innovacion estrategia big data analisis5. Compartir metadatos con los dominios de gestión de datos y de analítica. Una capa de metadatos común permite repetir consistentemente los procesos de preparación de datos. Promueve la colaboración, ofrece información de linaje al proceso de preparación de datos. Esto da paso a una mejor productividad, modelos más precisos, tiempos más cortos en los ciclos de construcción, mayor flexibilidad, seguridad además de datos auditables. Todo esto se resume en la implementación de modelos analíticos de una forma más sencilla.

 

En conclusión, la analítica actualmente continúa siendo una de las tendencias de TI más notables. Sin embargo, hay que recordar que se fundamenta en el acceso y la calidad de los datos. ¿Están listos sus datos para sustentar la analítica y proporcionar información para toma decisiones estratégicas?

 

Por: Iván López, experto en Data Management de SAS México.

 

HPE acelera los procesos DevOps con nuevo software

Acelerar los procesos DevOps de las organizaciones. Éste es el objetivo de Hewlett Packard Enterprise (HPE) con el lanzamiento de la nueva solución HPE ALM Octane. Se trata de un software encargada de la gestión del ciclo de vida de las aplicaciones (Application Lifecycle Management, ALM).

En la compañía aseguran que esta solución simplificada ofrece obtener el máximo provecho de los conjuntos de herramientas de desarrolladores utilizadas de forma generalizada, como Jenkins, y los GIT, para obtener una calidad constante a equipos centrados en entornos Lean, Agile y DevOps. En este sentido, según el comunicado de la compañía, “HPE ALM Octane ofrece conocimientos a desarrolladores y a testers, ayudándoles a proporcionar aplicaciones de forma fácil sin sacrificar la calidad o la experiencia del usuario final”.

 

Optimización del desarrollo de software

Esta solución se enmarca en la tendencia del mercado de optimizar los procesos internos para desarrollo de software. Como explican en HPE, las soluciones para gestión de suministro de aplicaciones que ofrecen una calidad y un gran alcance constantes a una mayor velocidad no han evolucionado lo suficientemente rápido como para ofrecer soporte a metodologías de desarrollo como Agile, Lean y DevOps.

“En el centro de los negocios de éxito actuales, encontramos aplicaciones ágiles, de alta calidad y gran rendimiento que proporcionan de forma constante unas experiencias del usuario intuitivas y atractivas”, indicó Raffi Margaliot, vicepresidente primero y director general de Application Delivery Management en Hewlett Packard Enterprise. “Sin embargo, para proporcionar con rapidez estas maravillosas aplicaciones, los equipos de TI necesitan ser igualmente ágiles y suministrar de forma permanente productos de alta calidad. HPE ALM Octane fuediseñado específicamente para equipos centrados en Agile y para DevOps, ofreciendo un punto de vista centrado en la nube que es accesible en cualquier lugar y momento, reforzado por análisis de tipo Big Data para ayudarles a proporcionar velocidad, calidad y alcance a todos los tipos de TI”.

 

Basada en código abierto

HPE ALM Octane está optimizado para su integración con herramientas de pruebas para desarrolladores ampliamente adoptadas (aprovechando las API REST documentadas con Swagger) y una arquitectura de plataforma abierta basada en una capa de fuente abierta. HPE ALM Octane configura y gestiona las pruebas automatizadas, dentro del contexto de unos planes de integración permanentes, facilitando a los desarrolladores la visualización automática de resultados y defectos dentro de contexto. Asimismo, con la arquitectura abierta de HPE ALM Octane, las organizaciones pueden obtener el máximo provecho de una amplia gama de marcos de pruebas, tanto de HPE como de terceras partes, gracias a la incorporación de herramientas de integración permanentes como las de Jenkins y Team City.

La solución aún no está disponible pero HPE asegura que lo estará a lo largo de este año.

 

-Redacción.