Etiqueta: analítica de datos

Tres estrategias para el liderazgo en Analítica de datos en 2017, según Gartner

Los datos son clave para la transformación del negocio digital. Aunque la mayor parte del tiempo parece que hay una abundancia de datos, la consultora Gartner dice que los líderes tienen una falta de confianza en los datos y su respectivo valor.

Joao Tapadinhas, director de investigación de Gartner, recomienda a los líderes de análisis e información de las empresas que, para superar estas limitaciones, deberían centrarse en la construcción de una organización centrada en los datos, Aprovechar las tendencias clave y las tecnologías emergentes, e impulsar los resultados que lideran modelos de negocios transformacionales.

“No es difícil imaginar un mundo en el que las aplicaciones de analítica de datos sean usadas en cada proceso de negocio y en cada decisión que tomemos”, dijo Tapadinhas. “Pero para que esto sea una realidad, necesitamos ayudar a nuestros colegas a sentirse cómodos trabajando con datos en sus trabajos”, añadió la analista.

Gartner, estableció un plan de tres pasos para alcanzar la plenitud en su área de analítica de datos:

Paso 1: Repensar el liderazgo

Las organizaciones deben comenzar considerando la creación de una oficina de datos y el nombramiento de un Chief Data Officer (CDO). Una encuesta reciente de Gartner sobre los funcionarios de datos mostró que las principales responsabilidades de los CDOs en toda la compañía son la supervisión de las iniciativas analíticas y la administración de los datos, seguido de las responsabilidades de definir la estrategia analítica de la organización y garantizar la fiabilidad y el valor de la información.

Paso 2: Modernizar la tecnología

Después del liderazgo, una gran parte del logro de la plenitud del área de analítica es el manejo de la escala y variedad de los datos disponibles. Los enfoques tradicionales de infraestructura de gestión de datos, como los almacenes de datos, los flujos de datos por lotes y las bases de datos, comienzan a descomponerse frente a los requisitos que exige el negocio digital actual. Las organizaciones deben adoptar rápidamente arquitecturas y tecnologías, como la virtualización de datos, que permitan la integración de datos en tiempo real.

“Para 2018, Gartner predice que las organizaciones con capacidad de virtualización de datos gastarán 40 por ciento menos en la construcción y gestión de procesos de integración de datos para conectar con sus activos”, señaló Tapadinhas.

Paso 3: Maximice la contribución de su empresa

Una de las claves para maximizar la contribución de los negocios y aprovechar esta abundancia de poder y experiencia analítica es transformar la administración de datos en un facilitador de negocios. La organización de datos necesita cambiar de centralizada a localizada, colaborativa, ágil, flexible e impulsada por los negocios. Al mismo tiempo, los líderes del área de datos y analítica deben lograr opiniones confiables, compartidas y consistentes a través de la gestión de datos maestros (MDM) y las iniciativas que garantizan la calidad de los datos.

En conjunto, los datos y el análisis están siendo el centro de atención como el único y más poderoso catalizador para lograr un cambio en la empresa. Esto aplica sobre todo dentro de la empresa digital, la cual tiene que manejar nuevos tipos de datos que emergen digitalmente, crecientes volúmenes de datos, y demandas sumamente exigentes por parte del usuario.

Las empresas requerirán adoptar un enfoque más agresivo sobre la gobernabilidad de los datos, la creación de estrategias analíticas, preparación para las nuevas tendencias (p. ej., IoT, Hadoop, y blockchain), así como maximizar el ROI proveniente de todas las iniciativas de los datos.

Es fundamental encontrar formas de crear a corto plazo los cimientos de los datos correctos, y la táctica de convertir a largo plazo los datos en información que será utilizada entre los líderes de la industria.

N de P. Gartner

CA Technologies ayuda a simplificar la identidad y gobernabilidad de acceso

CA Technologies anunció la nueva solución CA Identity Suite, especializada en identidad y gobernabilidad de acceso, que incluye analítica de datos en tiempo real para fortalecer la eficiencia operacional. También provee de nuevas capacidades de personalización y movilidad, además de escenarios de despliegue pre cargados que simplifican la experiencia del usuario, conllevan a una implementación más rápida.

“Las funciones de identidad y gobernabilidad de acceso que son críticas para las operaciones de seguridad y de negocios de una organización, ya no son responsabilidad de un grupo centralizado de TI; ese trabajo, está ahora en manos de los usuarios de negocio que necesitan una forma más ágil y simple de procesar tareas y flujos de trabajo relacionados con la identidad” aseveró Mordecai Rosen, gerente general para el negocio de seguridad de CA Technologies.

Al agregar analítica de datos al Suite de CA, los clientes tienen perspectivas en tiempo real de cómo los procesos principales de sus negocios están operando dentro de la gestión de identidad del flujo de trabajo. Una visualización más profunda de cada proceso y su estatus ayuda a los gerentes responsables de la certificación de acceso a identificar y llegar al punto exacto de cualquier “cuello de botella” para una solución rápida y oportuna. Esto no solo mejora la eficiencia y productividad, pero también reduce el riesgo de infracciones al asegurar que el acceso es removido rápidamente cuando el cargo o estatus del usuario es modificado.

Adicional a mejorar operaciones, el CA Identity Suite mejora la productividad y experiencia de aquellos individuos responsables de la certificación del acceso. Con nuevas opciones de personalización, los usuarios controlan cómo se muestra la información y tienen, también, la opción de tomar la carga de trabajo offline para una revisión conveniente y oportuna toma de decisiones. El soporte móvil permite hacer, desde su dispositivo móvil, la misma tarea que en el escritorio, incluyendo la realización de solicitudes de acceso y gestión del ciclo de vida del usuario.

Identity-Suite-CA-Technologies

El CA Identity Suite, también tiene pre-configurados los escenarios de identidad y gobernabilidad de acceso de usuarios de negocios más comunes. Estas configuraciones listas para usarse, les dan a los clientes un arranque inicial para ayudarles a acelerar el despliegue, ya sea de gestión de ciclo de vida del contratista (incorporación, terminación), ciclo de vida del empleado (modificación, conversión de tipo de usuario) o usuario de auto-servicio. En vez de recrear esos escenarios comunes, los clientes simplemente hacen una personalización mínima a alguno de los escenarios precargados para concordar con sus propias necesidades específicas, haciendo en unos días lo que solían llevar semanas configurando.

 

Nota de Prensa.

La analítica avanzada cambiará el curso de muchos sectores: Gartner

Las soluciones de analítica avanzada sigue siendo el segmento que va en aumento dentro del rubro Business Intelligence, obteniendo una facturación de 1 500 millones de dólares, un 14% más que el año pasado. Gartner las identifica como soluciones que modificarán la competencia en muchos sectores.

En su análisis, destaca la consultora que, para 2018, más de la mitad de las grandes organizaciones a nivel mundial competirán con la ayuda de estas herramientas de analítica avanzada y algoritmos propietarios, lo que supondrá un cambio brusco en sectores enteros.

Según explica Jim Hare, director de investigación de Gartner, “la analítica avanzada ya ha transformado industrias enteras en la última década, y es un factor clave para los nuevos competidores que han irrumpido en mercados ya establecidos, como la venta de libros, renta de películas o préstamos de dinero”.

El experto señala que, hoy en día, con menos monopolios regulados e Internet eliminando las fronteras geográficas, cada vez son más las compañías están comenzando a utilizar el análisis estadístico, modelos predictivos y la optimización de decisiones para competir, en lugar de utilizar los métodos tradicionales”.

Gartner indica que para sobrevivir en la nueva economía digital, las empresas necesitan cambiar con celeridad el enfoque de su inversión, con la finalidad de pasar de herramientas de medida a soluciones que les permitan realizar análisis avanzados. Además, la firma dice que las organizaciones líderes ya están desarrollando algoritmos propietarios para acelerar esta evolución y realizar análisis más profundos para tomar decisiones bien fundamentadas.

-IDG.es

 

 

El mercado global de BI y analítica alcanzará los 16 900 MDD en 2016

Gartner afirma que el sector está dando sus últimos movimientos como sistemas de “reporting”, los cuales realizan informes basados en registros para el negocio, para pasar a convertirse en servicios basados en procesos de analítica de información corporativa en modo autoservicio.

De acuerdo con un informe publicado hoy por Gartner, las ventas globales que registrarán los mercados de Business Intelligence y analítica de datos alcanzarán los 16 900 millones de dólares a finales de este año, lo que supondría un incremento de 5.2% con respecto a 2015. Según revela este analista, el mercado actual de BI y analítica en su conjunto (BI&A) ha emergido para satisfacer las necesidades de las organizaciones en aspectos relacionados con la accesibilidad, una mayor agilidad y unos niveles de analítica más profundos.

“El cambio que está teniendo lugar hacia la moderna plataforma de BI&A ha llegado a un momento crítico en el que ha mostrar a las organizaciones el camino que les ha de llevar hacia las modernas, ágiles y rápidas plataformas de inteligencia de negocio, que les van a proporcionar valor competitivo a partir de procesos de analítica que bucean con más profundidad en el interior de datos procedentes de todo tipo de fuentes”, ha señalado Ian Bertram, vicepresidente ejecutivo de Gartner.

La democratización del análisis

La consultora señala que los procesos de analítica de datos se están convirtiendo en estratégicos para muchas organizaciones, y centralizan gran cantidad de roles presentes en muchos negocios. Cada proceso empresarial es un procedimiento de analítica, en tanto que cada persona integrada en el proceso es un usuario de analítica.

“No basta con que el CMO sea un profundo conocedor de las estrategias comerciales más vanguardistas, estos profesionales deben ser también expertos en analítica da datos que les permitan realizar predicciones de tendencias, cambios y gustos de los consumidores”, afirma Bertram, en tanto que traslada el mismo principio a otros profesionales de las organizaciones como los responsables de Recursos Humanos, de la cadena de suministro y el sector financiero, así como a multitud de industrias.

Finalmente Bertram señala, que con el propósito de dar respuestas a las necesidades de rapidez en el aprovisionamiento de servicios y aplicaciones a un colectivo empresarial altamente competitivo, muchas organizaciones optan por democratizar las capacidades de analítica mediante el autoservicio.

-Redacción

 

Hitachi presenta su nuevo portafolio Flash

Como resultado de la digitalización de los negocios y la demanda de acceso inmediato a la información, los departamentos de tecnología se ven obligados a centrarse en la modernización de las infraestructuras básicas de TI. Como resultado, las empresas, sin importar si son grandes o pequeñas, están adoptando cada vez más las tecnologías basadas en flash para crear entornos de TI más rápidos y con un mayor grado de respuesta.

A medida que emprenden su viaje hacia una infraestructura all-flash, muchas compañías se esfuerzan por entender cómo adoptarla sin ocupar mucho de su presupuestos de TI. Con el propósito de ayudar a los clientes a superar estos retos, Hitachi Data Systems (HDS) anunció la primera serie de soluciones de su cartera flash ampliada, la cual ofrece un mejor desempeño, automatización y resistencia, en comparación con el  modelo tradicional basada en disco.

La cartera flash de Hitachi incluye una nueva gama ampliada de matrices all-flash y flash híbridas, software de optimización del desempeño y capacidades analíticas de datos, entre las cuales se encuentran: la nueva serie F de la plataforma all-flash de almacenamiento virtual de Hitachi (VSP, por sus siglas en inglés), modelos mejorados de las ofertas de la serie G de VSP de Hitachi, módulos flash de Hitachi de nueva generación con compresión de datos alineados (FMD DC2) y director de automatización Hitachi mejorado y herramientas analíticas de centro de datos, a fin de obtener mejores tiempos de respuesta y mayor capacidad efectiva.

 

Serie F de la plataforma de almacenamiento virtual de Hitachi

Las nuevas adiciones a la familia VSP líder de la industria,m–el VSP F400, F600 y F800– reúnen el almacenamiento all-flash y la simplicidad del software de automatización incorporado con la comprobada resistencia y desempeño de la tecnología VSP de Hitachi. La serie F de VSP ofrece 1,4M IPOS para satisfacer los requisitos más exigentes relativos a aplicaciones y potencia nuevos FMD DC2 (módulos flash), para proporcionar compresión alineada, sin penalizaciones, ofreciendo aumentar la capacidad efectiva que mantiene la latencia < 1ms, incluso en una escala máxima.

La serie F de VSP es la matriz all-flash más resistente de la industria y ofrece la única garantía con 100% de disponibilidad de datos. La serie F incluye una gestión de replicación de fácil manejo, con replicación opcional síncrona y asíncrona disponible para proteger los datos. La capacidad de almacenamiento efectivo de la serie F va de 12,8TB a 448TB, y proporciona a los clientes una solución all-flash que funciona con otros productos de infraestructura Hitachi a través de un software de gestión común y herramientas de automatización enriquecidas no disponibles con productos de nicho.

La serie G de VSP de Hitachi también se ha mejorado mediante el potenciamiento del FMD DC2, ofreciendo unos mejores tiempos de respuesta, capacidad efectiva y retorno a la inversión.

 

Unidad del modulo flash de segunda generación con compresión de datos (FMD DC2)

Potenciando las nuevas unidades de FMC DC2, que son la base de la serie F de VSP, la serie G de VSP mejorada ofrece mejores tiempos de respuesta, capacidad flash y un pronto retorno a la inversión. El diseño patentado de FMD DC2 de Hitachi potencia una arquitectura de alta velocidad paralelizada que entrega hasta cinco veces más IOPS de escritura y hasta tres veces más IOPS de lectura que las unidades de estado sólido estándares (SSD). También incluye sólida tecnología multicolas, la cual permite la priorización de E/S sobre operaciones en segundo plano para obtener una latencia baja mejor, aun en situaciones de alta carga.

El FMD DC2 ahora está disponible en capacidades de hasta 6,4TB y viene con compresión alineada, sin penalizaciones.

 

Software mejorado del director de automatización Hitachi

Mediante plantillas de servicio predefinidas y flujos de trabajo de gestión automatizado, el director de automatización de Hitachi les ofrece a los usuarios finales aprovisionamiento autogestionado de almacenamiento flash para acelerar, simplificar y optimizar la implementación de nuevas aplicaciones y recursos más rápidos.

 

Nuevo análisis de centro de datos Hitachi

Para reducir los costos, la complejidad y aumentar la velocidad de la implementación de la aplicación, el análisis de centro de datos Hitachi es el software analítico más eficiente y escalable de la industria. Les brinda a los clientes las herramientas para que puedan posicionar estratégicamente sus inversiones en flash en varios entornos de hardware de múltiples proveedores, con monitoreo de desempeño granular y análisis a escala. El análisis de centro de datos Hitachi monitorea el almacenamiento de Hitachi y de terceros para identificar y resolver problemas de desempeño del ecosistema y permitir una planificación de la capacidad más efectiva.

 

-Comunicado de Prensa.

Tres predicciones para 2016 en torno al análisis de la información

Se acercan unas fechas señaladas en las que, al margen de hacer balance del año que acaba, es momento de practicar uno de los deportes favoritos de la industria: realizar predicciones. Los próximos doce meses traerán consigo, indudablemente, avances en el campo del Big Data, conforme la analítica y las aplicaciones operacionales prosiguen su proceso de maduración.

Además, la nube continuará consagrándose a medida que surgen herramientas más cualificadas en derredor. Más allá de estas máximas más o menos previsibles, Information Builders considera que 2016 estará marcado por 3 tendencias en lo que respecta al universo de los datos:

 

1 El surgimiento del PDF 2.0

El PDF es un tipo de archivo afianzado y ubicuo, y al igual que la Web 2.0 supuso una revolución en el uso de Internet, el PDF 2.0 representará un antes y un después en lo relativo al empleo y tratamiento de los documentos digitales. La próxima generación del PDF traerá consigo un nuevo abanico de posibilidades en lo concerniente a la analítica interactiva, que permitirá al usuario analizar el estado de sus cuentas y le ayudará a conocer mejor su salud financiera. En consecuencia, emergerá una floreciente cultura analítica, no sólo en las organizaciones sino también entre los individuos. El PDF, como lo conocemos hoy día, dará paso al ADF (Analytical Document Format).

 

2 El fenómeno del marketing de “peersuasión”

El universo de las redes sociales dará lugar al fenómeno del marketing de “peersuasión”, mediante el que los retailers tratarán de seducir a sus clientes para tomar decisiones de compra en tiempo real. Los consumidores, especialmente los procedentes de las jóvenes generaciones, habitualmente buscan las opiniones de sus amigos antes de comprar. Para muchos de ellos, comprar es un acto social, por lo que la próxima ola del marketing centrará sus esfuerzos en capacitar al consumidor para conseguir el feedback de sus allegados (“peers”) sin necesidad de llamarles o de que se encuentren con ellos en la tienda.

 

3 La evolución del `self-service´

Durante el próximo año el `self-service analytics´ ya no estará solo al alcance de sus usuarios habituales, los analistas, sino también de otros muchos tipos de trabajadores, y no a través de herramientas tradicionales sino de apps. Al igual que el cajero automático evolucionó desde una mera máquina dispensadora de dinero a un completo terminal de gestión de cuentas y transacciones, la tecnología de análisis de información se transformará para encaminarse a un proceso de democratización en términos de uso.

 

– Information Builders

Por qué el futuro Business Intelligence debe involucrarse con el `self-service analytics´

El ruido que se ha generado en torno al big data durante los últimos años ha sido estremecedor. Todos somos conscientes de por qué deberíamos usarlo en nuestros negocios, pero la cuestión ahora radica en saber cómo emplearlo e, incluso, distinguir quién se va a beneficiar principalmente de él.

Hace cierto tiempo los científicos y los especialistas TIC eran los únicos profesionales con acceso al big data. Los datos eran tan complejos que sólo aquellas personas con una formación muy específica eran capaces de analizarlos y transformarlos en cifras que explicaran con claridad una determinada situación o tendencia. El moderno Chief Marketing Officer (CMO) tiene más responsabilidad que nunca en el seno de sus empresas. Los CEOs pretenden que estos directivos aprendan a tomar decisiones estratégicas que afecten a toda la organización y a capacitar a todos los empleados con el poder de los datos.

 

Acceso muy limitado

En la actualidad, las compañías deben de reconocer que limitar el control de la analítica a unos pocos empleados privilegiados sólo puede acarrear inconvenientes. De acuerdo a un informe recientemente elaborado por Information Builders, las empresas sólo acceden a un 20% de los datos que se almacenan en sus sistemas, por lo que están perdiendo la oportunidad de sacar provecho a una auténtica mina de oro. El motivo consiste en que la información sólo está disponible para el 10% de los usuarios potenciales que podrían llegar a utilizarla.

Teniendo esta realidad en mente, numerosas empresas están tratando de averiguar cómo distribuir información rica, consumible e interactiva a cualquier tipo de empleado. Y para ello se han propuesto dibujar un escenario `self-service´ que permita a cualquiera acceder a los datos en el momento que lo desee. El trabajador actual está acostumbrado a tener la tecnología al alcance de sus manos. Con la analítica de los datos debe de suceder lo mismo, ya que se trata de una herramienta fundamental con la que se pueden optimizar los quehaceres laborales. El profesional, sea cual sea su perfil, necesita tomar en tiempo real decisiones basadas en datos, de manera rápida y sencilla.

 

Múltiples ventajas

Facilitar la analítica a cualquier tipo de empleado –desde el profesional que se encuentra cara al cliente hasta el directivo- y no sólo al científico de los datos es, sin duda, el beneficio más obvio del modelo  self-service. Si bien, hay otras muchas labores que el empleado puede realizar cuando tiene la posibilidad de acceder a la información de manera sencilla y acorde con sus necesidades.

En primer lugar, el rendimiento individual aumenta, ya que se pierde menos tiempo. Además, el usuario podrá comprender los procesos de manera más sencilla. Como consecuencia, se sentirá más satisfecho con su trabajo al poder acceder con autonomía a los datos que necesita, y emplearlos de la manera que mejor se adapten a sus conocimientos. Todos estos aspectos unidos pueden terminar generando una importante ventaja competitiva para cualquier compañía.

La analítica en modo auto-servicio no tiene por qué significar sólo un acceso limitado a la información. El usuario también podrá bucear en esos datos para cumplir distintas funciones: encontrar indicadores y métricas críticos; explorar esos datos y descubrir su auténtico potencial; interactuar en tiempo real con los datos desde cualquier dispositivo; integrar los datos con productos de escritorio tales como Excel o Adobe PDF; distribuir informes con alertas en tiempo real; y automatizar la planificación y distribución de información vital.

En resumen, en un marco social como el de hoy, donde la gran avalancha de datos obtiene un papel protagónico, el acceso a la información no sólo tiene que estar en manos del científico de los datos. Y dependerá de las cúpulas directivas que el nuevo CMO digital sea capaz de ayudar al resto de los empleados a crear inteligencia de negocio a través del `self-service analytics´.

 

John-Manning-Information-Builders

Por John Manning,

Director Técnico de Information Builders

para Latinoamérica, España y Portugal

Analítica de datos, también para el tenis profesional

El torneo West Bank Classic, que se realiza esta semana en la Universidad de Stanford, sirvió como marco de presentación de la nueva tecnología SAP Tennis Analytics, desarrollada en colaboración con la Asociación de Tenis Femenino (WTA), la cual incorpora alimentación de datos en tiempo real durante los juegos del tour profesional de esta asociación.

La tecnología, que emplea la plataforma de análisis de datos HANA de SAP, entrega a jugadoras y entrenadores estadísticas e información en tiempo real, mediante el uso de tablets durante las pausas de entrenamiento en los juegos.

En conferencia de prensa, realizada en los campos de la Universidad de Stanford, Stacey Allaster, CEO y miembro de la junta de la WTA, expresó su emoción al anunciar el resultado de la asociación entre SAP y la organización, a la cual calificó como “revolucionaria”. De esta forma, la WTA se convierte en una de las primeras organizaciones deportivas que busca integrar la tecnología de análisis y procesamiento masivo de datos en tiempo real para potenciar al deporte.

Con la presencia de figuras del tenis como Lindsay Davenport (ex número uno del mundo y actual entrenadora profesional) y Angelique Kerber (posición 14 del ranking mundial), el CTO de SAP, Quentin Clark, presentó oficialmente el fruto de más de dos años de desarrollo que dieron como resultado la aplicación de Tennis Analytics.

Esquema de la captura de datos, procesamiento y presentación de la información en tiempo real en la tablet del entrenador.

Así funciona en el terreno de juego

Durante el partido entre Mona Berthel y Andrea Petkovic en la cancha central de la Universidad de Stanford, Jenny Lewis, Líder del grupo de desarrollo de Tennis Technology de SAP, demostró la interfaz de usuario (UI) de Tennis Analytics en tiempo real. La UI optimizada para su uso durante torneos al aire libre fue capaz de prcesentar ─con apenas 15 segundos de retraso─ información precisa y personalizable, obtenida a partir de los miles de elementos capturados y procesados por HANA durante el juego.

La tecnología hace uso de información introducida por los umpires, así como por las cámaras Hawk-eye presentes en la cancha para obtener datos específicos de posición, velocidad, tipo de tiros y dirección, los cuales son alimentados a la nube de HANA, creando una base de datos con miles de elementos de información en cada partido.

Mediante las herramientas de procesamiento e integración de datos para Big Data integrados en HANA, Tennis Analytics puede “digerir” los grandes volúmenes de información generados durante un juego y presentarlos mediante una interfaz de usuario a los entrenadores y jugadores antes, durante y al final de un juego.

Haciendo uso de sus bases de datos en la nube de HANA, las cuales cuentan con los datos de más de 4,500 juegos de torneos que datan de varios años, la plataforma puede proveer a jugadores y entrenadores información histórica relevante para preparar su estrategia de partido. Por ejemplo, permite evaluar fortalezas,d debilidades y patrones de juego, así como reaccionar a las condiciones de un partido para apoyar la toma de decisiones a futuro durante el mismo.

Más allá de la arcilla

SAP-Panel
Panel de la conferencia de prensa. De izq. a der: Jenny Lewis, Líder del grupo de desarrollo de Tennis Technology; Angelique Kerber, tenista profesional; Lindsay Davenport, ex-tenista profesional y entrenadora; Stacey Allester, CEO de la WTA; y Quentin Clark, CTO de SAP.

Con esta tecnología, la WTA busca proveer información que atraiga a los aficionados al deporte blanco, al involucrarlos con información precisa, variada y en tiempo real que logre mejorar la experiencia de los televidentes.

A partir de ahora, Tennis Analytics for Coaching será implementada dentro de todos los juegos de los torneos del tour de la WTA y estará disponible para todas las jugadoras y entrenadores participantes.

En opinión de Jenny Lewis, el desarrollo de Tennis Analytics representa el primer paso de SAP para lograr la integración de tecnologías de procesamiento de datos en tiempo real para el deporte. “El potencial del procesamiento de Big Data es muy grande y su verdadero alcance apenas comienza a verse realizado en deportes como la Fórmula 1, el hockey, futbol y, ahora, el tenis”, aseveró.

 

-Por Ricardo Castro Hernández, CIO México