Día: 3 julio, 2018

AWS provee capacidades cloud y aprendizaje automático a la Fórmula 1

Amazon Web Services anunció que Formula One Group (Fórmula 1) está trasladando la gran mayoría de su infraestructura a partir de centros de datos locales a la nube de AWS, y estandarizando en los servicios de AWS de aprendizaje automático y análisis de datos para acelerar su transformación en la nube.

La Fórmula 1 trabajará con AWS para mejorar sus estrategias de carrera, sistemas de seguimiento de datos y transmisiones digitales a través de una amplia variedad de servicios de AWS, incluido Amazon SageMaker, un servicio de aprendizaje automático administrado que permite a los desarrolladores y científicos cotidianos crear e implementar fácilmente modelos de aprendizaje automático; AWS Lambda, el servicio informático sin servidor de AWS impulsado por eventos, y los servicios de análisis de AWS para descubrir métricas que ofrecen cambiar la forma en que los fanáticos y equipos disfrutan, experimentan y participan en las carreras.

La Fórmula 1 también ha seleccionado AWS Elemental Media Services para potenciar sus flujos de trabajo de activos de video, mejorando la experiencia visual de sus más de 500 millones de seguidores en todo el mundo.

Mediante el uso de Amazon SageMaker, los científicos de datos de Fórmula 1 entrenan con modelos de aprendizaje profundo con 65 años de datos históricos de carreras almacenados, tanto en Amazon DynamoDB como en Amazon Glacier.

Ahora, la Fórmula 1 puede extraer estadísticas críticas de rendimiento de la carrera para hacer predicciones de carrera y dar a los fanáticos una visión de las decisiones y estrategias de fracción de segundo adoptadas por los equipos y conductores.

Por ejemplo, los científicos de datos de Fórmula 1 pueden predecir cuándo se abre y se cierra la ventana de oportunidad para que los equipos acondicionen sus autos para obtener la máxima ventaja, así como también determinar el mejor momento para cambiar los neumáticos.

Al transmitir datos de carreras en tiempo real a AWS mediante Amazon Kinesis, la Fórmula 1 puede capturar y procesar datos clave de rendimiento para cada auto durante cada giro y vuelta de los circuitos de Fórmula 1 con precisión y velocidad inigualables. Después, al implementar el aprendizaje automático avanzado a través de Amazon SageMaker, la Fórmula 1 puede determinar cómo se está desempeñando un conductor y si los demás conductores se han excedido o no del límite.

Al compartir estas ideas con los fanáticos a través de transmisiones de televisión y plataformas digitales, la Fórmula 1 está mejorando la experiencia de los fanáticos, permitiéndoles profundizar en el funcionamiento interno de sus equipos y conductores favoritos.

 

 

Cuatro aspectos que tendrán todos los vehículos del futuro

Es increíble lo lejos que ha llegado la tecnología del transporte en tan poco tiempo. Hace 50 años, la computadora de navegación de Apolo 11, la nave espacial con la que el hombre llegó por primera vez a la Luna, solo tenía 16 k de memoria, menos que la capacidad de cualquier calculadora de mano de hoy en día. Los vehículos autónomos actuales son, literalmente, supercomputadoras móviles capaces de procesar miles de millones de operaciones por segundo.

Este tipo de vehículo requiere sistemas de maniobra, frenado y aceleración muy complejos y basados en datos que sean capaces de comunicarse a la velocidad de la luz, para sincronizarse entre sí y adaptarse en tiempo real a un entorno de conducción variable. Además, estos sistemas deben garantizar la experiencia segura y confortable de los pasajeros. Los vehículos autónomos de hoy también cuentan con miles de sensores que interactúan simultáneamente con otros vehículos, con las señales de tránsito e, incluso, con la calle para evitar peligros y trazar la ruta más adecuada. Si pensamos en la computadora de 16 k que ayudó a llevar al hombre a la Luna, realmente es asombroso ver hasta dónde hemos llegado.

Si bien los vehículos autónomos se están probando en todo el mundo, todavía falta una década, por lo menos, para que en verdad sean algo común de ver en las calles.

Eso es lo que tiene de particular la conducción autónoma: funciona bien solo si la mayoría de los vehículos tiene la capacidad de circular sin conductor. Alcanza con que un solo conductor de carne y hueso realice una maniobra inesperada, frene de improviso o estacione en una zona de carga para que todo el sistema se desequilibre. Habrá que acostumbrarse con rapidez —prácticamente de un día para el otro— a medida que los conductores hagan el paso a la conducción autónoma al mismo tiempo.

Lograr que todo funcione de forma conjunta requerirá de muchas pruebas y medidas confiables, además de mucha paciencia. Estas son las cuatro claves del vehículo del futuro:

  1. Conectividad

Los vehículos están compuestos de muchas partes que se mueven, y todas tienen que poder funcionar juntas. Algunas están conectadas por cables; otras, de forma inalámbrica, y la latencia es absolutamente crítica. Reaccionar con un mínimo retraso de menos de un segundo puede significar que el vehículo necesite seis metros extra de distancia de frenado si viaja a una velocidad de 80 km por hora. Esa puede ser la diferencia entre frenar de forma segura y chocar contra el auto que está adelante. Los sistemas que conducirán el vehículo del futuro tendrán que pasar muchas pruebas de estrés que garanticen su confiabilidad y rendimiento, y será necesario controlarlos de forma constante para evitar los cuellos de botella. El hecho de que un correo electrónico llegue con demora o una transacción de compra no quede registrada puede causar malestar o hacer perder dinero, pero los errores del sistema de un vehículo autónomo pueden costar la vida. Por lo general, el desempeño de un sistema no tiene un impacto de vida o muerte, salvo cuando hablamos de vehículos autónomos.

  1. Inteligencia

El vehículo del futuro también tiene que ser inteligente. Los sistemas de conducción autónoma tienen que poder diferenciar entre una bicicleta y una motocicleta, o entre una señal de tránsito y un peatón. También deberán tener en cuenta las interferencias en los sensores que puedan ocurrir producto de la niebla, la lluvia o el viento, así como cuestiones de la línea de visión. Los vehículos autónomos también deberán ser capaces de aprender con la práctica gracias al aprendizaje automático, y adaptarse a su entorno y a otros vehículos a lo largo de su ciclo de vida.

 

  1. Alimentación

El vehículo del futuro no dependerá de combustibles fósiles. El desarrollo de tecnologías de baterías seguirá avanzando, a fin de proveer fuentes de energía limpias, renovables y confiables para los vehículos autónomos. Los costos bajarán: se espera que, en los próximos cinco años, las baterías de iones de litio estén por debajo de los USD 100 por kWh. Además, se desplegará la infraestructura necesaria para las nuevas tecnologías de baterías, como estaciones de carga y de desecho. Ya se están desarrollando otras tecnologías, como las baterías de litio-aire y las baterías de iones de litio de estado sólido. También en estos casos, será clave hacer las pruebas necesarias para que puedan funcionar de manera segura y eficaz.

 

  1. Ciberseguridad

Quizás lo más importante de todo es que el vehículo del futuro sea seguro. Desafortunadamente, hasta los sistemas informáticos más sólidos son vulnerables a los ciberataques y, hasta que se demuestre lo contrario, es posible pensar que podría haber personas con malas intenciones que intenten conseguir el control de estos vehículos. Los operadores tendrán que monitorear constantemente los sistemas autónomos para detectar vulnerabilidades. En vez de adoptar medidas de defensa —lo que demostró ser prácticamente imposible—, los operadores de vehículos autónomos tendrán que escudriñar el sistema en busca de comportamientos anormales o inesperados. Por ejemplo, si se detecta que el tráfico del sistema se dirige a un servidor remoto desconocido, no hay dudas de que algo raro está pasando.

 

Hemos avanzado mucho desde que el hombre viajó a la Luna con ayuda de una computadora de menor capacidad que una calculadora de mano. El vehículo del futuro tendrá gran complejidad y estará impulsado por datos, y será esencial que la interconectividad entre los diversos sistemas sea sólida y altamente confiable. Usará fuentes de energía limpias y renovables, y tendrá que ser seguro. Para garantizar todo eso, los fabricantes y operadores deberán llevar a cabo pruebas y realizar un control constante. En resumen, los sistemas de los vehículos autónomos tendrán que ser los más seguros y confiables de la historia. El vehículo del futuro depende de ello.

 

Por: Soon-Chai Gooi, Keysight.

La Inteligencia Artificial está cada vez más inteligente

Las máquinas tomarán acciones con base en sus datos, asumiendo así acciones de riesgo o de negocios que antes eran realizadas por personas. ¿Qué podemos hacer al respecto?

Hasta hace pocos años las empresas abandonaron el simples data warehouse para invertir en grandes estructuras de big data. Se quiera o no, la tecnología digital fue el combustible fundamental y el más importante para esta transformación. Su enfoque inicial era de pequeños datos estadísticos de los resultados de las ventas y de los productos; actualmente se dedican a grandes análisis y al cruce de informaciones internas y externas para entender cada vez más el comportamiento de los clientes según su perfil de consumo.

Observe que hubo un cambio en el enfoque de la visión de la información: el cliente pasó a tener preferencia total para las empresas y el entendimiento de su comportamiento pasó a ser la clave principal del camino evolutivo para desarrollar nuevos productos y soluciones. Así, el uso de la inteligencia artificial ha adquirido importancia primordial en el próximo paso de la evolución tecnológica.  Empresas pioneras, como Google con el Assistant/Home y Amazon con la Alexa, tomaron la delantera en esta carrera, en función del comportamiento de las personas. Las demás empresas, las más avanzadas y otras todavía en sus etapas iniciales, recorren el mismo camino para mantenerse competitivas en el mercado.

Según Stephen Hawking, nuestras vidas serán transformadas por la IA, que puede constituirse en el evento de mayor relevancia de la civilización humana.

Muchos anuncian que hasta el año 2040 cada ser humano será el centro de un mundo asistido por la inteligencia artificial. ¿Pero, cómo desarrollar esas habilidades? La evolución del lenguaje neuronal en la conversión de datos en texto permite la autonomía de los ordenadores en el desarrollo de las acciones racionales, para la generación de información y es actualmente usada por empresas para la configuración de reportes inteligentes.

La evolución del Speech Recognition, que permite cada vez más la interacción hombre-máquina en los sistemas de reconocimiento de voz, está cada vez más intuitiva. Los diversos tipos de agentes virtuales o robots de automatización ya pueden asociarse a las acciones de machine learning o deep learning, en que la máquina, con base en la información, tiene una evolución de aprendizaje próxima a la del cerebro humano.

 

IA en el control 

Los sectores de infraestructura podrán aparecer y desaparecer por medio de solicitudes realizadas por las propias máquinas. Por ejemplo, en la gestión de las decisiones, donde la máquina tomará acciones, con base en sus informaciones, asumiendo así acciones de riesgo o de negocios, que eran realizadas por personas y también, la Biometría, que permitirá la interacción de la máquina en los aspectos físicos de la estructura y forma del cuerpo y del comportamiento humano.

Esos son algunos pequeños ejemplos que, bien trabajados, van a permitir una IA más inteligente a punto de proporcionar un mundo diferente en los próximos años, donde tendremos asistentes digitales controlando el contenido de su heladera, la temperatura del ambiente, las guías de TV, basadas en su sentimiento, vehículos autónomos y, quién sabe, su portero podrá ser un androide. Las empresas de tecnología vienen trabajando, de forma consistente, en el dominio de la información, promoviendo en sus clientes la transformación digital necesaria para que puedan entrar en la era de la IA. Entiendo que se trata de un camino sin retorno, en el cual las corporaciones que no emprendan este camino podrán perder su cuota en el mercado para una competencia más preparada en estos nuevos avances tecnológicos.

 

 
Por: Cleverson Novo, Director Comercial de Triad Systems.

Claves para lograr mayor eficiencia en el Centro de Datos

¿Cómo puedo hacer más eficiente mi centro de datos?”. Este es un cuestionamiento perfectamente razonable, ya que cada vez es más importante poder optimizar costos y la infraestructura del negocio.

Vivimos en un mundo conectado en el que es vital proteger los datos y archivos importantes. Entonces, es prioridad asegurarse que la infraestructura física del centro de datos pueda adaptarse con rapidez para admitir futuras demandas por el Internet de las Cosas (IoT, por sus siglas en inglés) y el crecimiento en la nube o en ubicaciones periféricas sin comprometer eficiencia operativa.

Actualmente, estos escenarios son recurrentes por lo que será difícil saber dónde comenzar si no se ha implementado un análisis de eficiencia energética y determinar la criticidad de la operación o de procesos particulares. Se trata de algo básico, pero que con frecuencia es un escenario que se pasa por alto.

El monitoreo de energía es el punto de inicio para la eficiencia del centro de datos. Ya que nos da una visión de dónde se está consumiendo la energía y puede ayudar a descubrir posibles fuentes de ineficiencia.

Debemos tener presente que existen áreas donde es muy probable que las empresas estén perdiendo eficiencia y, sin sorprendernos, son los cuatro elementos más importantes para cualquier centro de información:

  • La carga del sistema que alimenta a los UPS (Densidad por rack).
  • El equipo de enfriamiento,es la configuración y diseño del aire acondicionado de precisión del Cuarto de Cómputo (CRAC, siglas en inglés) y la energía de entrada a estos.
  • La calidad de la energía en el suministro eléctrico.
  • La ubicación del centro de datos en sí misma y su distribución.

Las primeras tres hablan, en números, de la efectividad del uso energético (PUE, por sus siglas en inglés), que permiten referenciar sobre cómo se desempeña un centro de datos en comparación con otras organizaciones con infraestructura similar. De esta forma, se puede llegar a un primer escenario sobre qué está funcionando como se espera y qué no.

Por esto es muy importante tener presente los parámetros y controles que dan una historia más detallada sobre qué ha ocurrido. Mientras que los números PUE se enfocan solamente en la infraestructura, estas variables consideran infraestructura, equipo de sistemas conectado a éste y la instalación como un todo. Es importante ver todo el panorama y considerar cuáles son las áreas de oportunidad que se deben aprovechar.

Hay un número de cambios que se pueden hacer desde el comienzo para incrementar la eficiencia. Por ejemplo, revisar el inventario y analizar detenidamente qué es lo que hay, especialmente servidores viejos, routers, apagadores, almacenaje, que pueden no estar siendo utilizados y considerar retirarlos o consolidarlos.

También hay que analizar el contexto fuera del centro de datos, cualquier cosa que caiga bajo la misma denominación, como máquinas de fax (¿cuándo fue la última vez que se envió un fax?), impresoras, etcétera, especialmente si toman energía del UPS. Por otro lado, cuando hablamos del software, se debe pensar en las plataformas que existen y cuán eficientes son, junto con los procesos adicionales que pueden estar utilizando, incluso cuando no están siendo utilizadas.

Hasta se tiene que analizar el tipo de organización/limpieza del lugar de trabajo puede reducir el consumo de energía. Incluso cosas simples como asegurar que las luces estén apagadas cuando nadie esté en el centro de datos puede tener un gran impacto.

Ahora, si en verdad su organización necesita una gran cantidad de aparatos, valdría la pena invertir en OPEX para mejorar el equipo y reducir el número de aparatos y el tamaño total de la infraestructura. Cada equipo que retiren tiene un efecto dominó de impacto positivo de ahorro de energía, especialmente en el centro de información.

Lo que llama la atención es que es mucho más común de lo que se piensa la falta de visibilidad de muchos operadores de sistemas en cuanto en dónde y cómo se está consumiendo la energía. Cabe destacar que es difícil saber dónde comenzar si no se ha implementado un sistema de medición de energía, y sin embargo, esto es algo que con frecuencia es pasado por alto, por tal razón, los responsables de la infraestructura pasiva debe contar con las herramientas necesarias para cumplir con sus tareas, pero también saber optimizar los recursos para contribuir con el negocio desde todas las áreas.

 

Por: David Cabrera, Director de Desarrollo de Negocios de Vertiv.

Gobierno de Veracruz mejora sus operaciones y ofrece agilidad en trámites

La administración del Gobierno del Estado de Veracruz, a cargo del Gobernador Miguel Ángel Yunes Linares, mejoró la operación en las diferentes dependencias y entidades, terminando con un rezago en infraestructura tecnológica de aproximadamente 10 años. Licenciamientos vencidos, mantenimientos agotados, enlaces de datos excesivamente reducidos con altos costos y servicios de seguridad perimetral en su gran mayoría obsoletos.

Sebastián Silva Sánchez, quien tomó el liderazgo de la Dirección General de Innovación Tecnológica responsable de la agenda digital del Gobierno del Estado de Veracruz, afrontó el desafío de modernizar y homologar la estrategia de seguridad cibernética en un corto e inusual período de dos años de administración estatal.

“Un elemento que fue tomado con mucha seriedad fue el establecimiento de marcos jurídicos que regularan a todos los responsables de tecnología en las dependencias y entidades que debía homologar el modelo de seguridad perimetral que facilitaría los servicios administrados compartidos y la aplicación de políticas en cascada. Para esto se desarrollaron siete nuevos lineamientos informáticos, enfocados a la estandarización de soluciones, de la ayuda de Fortinet”, explicó Jesús Eugenio García Martínez, subdirector de Política Informática.

A través de la Subdirección de Infraestructura Tecnológica de la gobernación, se coordinó la instalación de un clúster central de equipos Fortinet en la Secretaría de Finanzas y Planeación (SEFIPLAN), y 17 equipos adicionales en cada una de las dependencias. A través de este desarrollo fue posible establecer un medio de comunicación seguro y ágil para desplegar una instancia del Sistema Integral de Administración Financiera (SIAFEV 2.0) en todas ellas. Con esto se logró la protección de más de 20 mil equipos y 5 centros de datos de alta disponibilidad en el propio edificio de Finanzas, así como en el Palacio de Gobierno y en las Secretarías de Seguridad Pública, Salud y Educación.

El proyecto implicó la integración de firewalls de próxima generación (NGFW), red privada virtual (VPN), IPS, AV, filtrado web, aplicación de control y acceso seguros. 

IMPACTO EN EL NEGOCIO

  • Hacer más eficiente el gasto operativo y asegurar la protección de toda la información que viaja en la Red Estatal de Veracruz (REDVER)
  • Robustecer los servicios de enlace de datos y disminuir los costos
  • Implementar tecnología avanzada de equipamiento de seguridad con una administración centralizada y simplificada
  • Atender en forma confiable a más de 23 mil empleados y 22 mil peticiones de ciudadanos diariamente a través de los canales digitales, con un total de 103 especialistas en servicios tecnológicos

¿El reconocimiento facial biométrico viola la privacidad?

En solo unos pocos años, el reconocimiento facial basado en video ha dejado el ámbito de la ciencia ficción y la superproducción de Hollywood para convertirse en una solución del mundo real altamente efectiva y fácil de implementar.

En la actualidad, los mejores sistemas en su clase alcanzan estándares de precisión y velocidad mucho más allá de lo que es posible incluso con un ojo humano bien entrenado. Además, pueden implementarse junto con infraestructuras de video y bases de datos de imágenes existentes.

Sin embargo, aunque la tecnología capaz de detectar instantáneamente un rostro entre la multitud, los marcos regulatorios en los que deben operar tales sistemas han tenido problemas para mantener el ritmo.

En parte como resultado, se han expresado preocupaciones sobre las implicaciones acerca de la privacidad de esta nueva clase de herramienta de identificación biométrica.

Para garantizar que las sociedades puedan obtener todos los beneficios potenciales, es esencial:

  • Conocer directrices claras para el uso del reconocimiento facial automático basado en fuentes de video de dominio público como CCTV (circuito cerrado de televisión).
  • Es importante considerar que, a diferencia de otras tecnologías biométricas, el reconocimiento facial basado en video es discreto; la experiencia del usuario final es rápida, fluida y simple.

Como resultado de lo anterior, esto puede servir para fortalecer y proteger a las comunidades con un grado de sensibilidad mucho mayor que algunas de las medidas que se emplean actualmente.

El reconocimiento facial en vivo es solo uno de una amplia gama de métodos por los cuales los datos personales ahora pueden capturarse, almacenarse y utilizarse.

Y en todo el mundo, los reguladores están respondiendo a preocupaciones generalizadas sobre el posible impacto que esto tiene en nuestras libertades civiles. En la UE, por ejemplo, el GDPR (Reglamento General de Protección de Datos) entró en vigor el 25 de mayo de 2018.

Este reglamento proporciona un marco mucho más riguroso para la recopilación, el almacenamiento y el uso de información personal, incluida la biometría. Si bien obviamente es temprano en términos de implementación, muchos de los principios clave alrededor de los cuales se construye el GDPR tendrán, sin duda, profundas implicancias sobre cómo y dónde se implementa el reconocimiento facial basado en video. Estos principios incluyen:

  • Procesamiento legal, justo y transparente: el GDPR insiste en que debe quedar claro por qué se recopilan los datos.
  • Limitación del propósito y minimización de datos: las organizaciones no deben recopilar datos sin un propósito específico, y solo deben almacenar la cantidad mínima de datos necesaria para tal fin. Además, los ciudadanos ahora tienen el “derecho al olvido”.
  • Confidencialidad y seguridad: una organización es ahora la única responsable de garantizar que los datos personales recopilados estén protegidos contra la negligencia o el ataque malicioso.
  • ‘Acción afirmativa clara’: todos los ciudadanos deben haber dado su consentimiento para que se recopilen los datos.

Mientras que los marcos legales lentamente toman forma, muchas agencias policiales y de control fronterizo ya están más familiarizadas con el uso de los datos biométricos como una herramienta para identificar individuos de interés. Sin embargo, en lo que respecta a la adopción del reconocimiento facial basado en video, diferentes países están tomando enfoques para evaluar tanto la efectividad técnica como los niveles de aceptación y apoyo del público. En Alemania, por ejemplo, una prueba llevada a cabo por la policía y el Ministerio del Interior en la estación de trenes de Berlín Südkreuz, en la que participaron 400 “sospechosos” voluntarios, ha recibido críticas de activistas por la libertad civil.

Al llegar a conclusiones, todas las partes del debate deben reconocer y comprender las características distintivas del reconocimiento facial basado en registros de video. Para algunos, la capacidad de “cosechar” millones de rostros de forma remota, sin que las personas involucradas estén necesariamente al tanto, es motivo de preocupación. Sin embargo, igualmente, son esas mismas cualidades las que proporcionan algunos de los argumentos más fuertes a su favor.

En muchos casos, la tecnología reemplazará o complementará el proceso humano de “identificación facial en vivo” que rutinariamente realizan funcionarios, como policías o guardias de control fronterizo.

Este tipo de enfoque claramente no está sujeto a los prejuicios conscientes o inconscientes que pueden influir potencialmente en el trabajo de cualquier ser humano. Como tal, las cuestiones delicadas relacionadas con la aplicación de la ley, en particular en relación con el tratamiento de los grupos minoritarios, pueden ser manejadas de manera mucho más efectiva. Sumado a eso, y a diferencia de la captura de datos biométricos, como las huellas dactilares o el iris, el reconocimiento facial basado en video es un proceso completamente discreto.

La experiencia reciente tiende a sugerir que los ciudadanos acogerán ampliamente la llegada de cualquier tecnología nueva que pueda mejorar la protección contra amenazas que van desde el tráfico de personas hasta el terrorismo mundial. Sin embargo, es probable que, en los próximos años, la consulta y la participación públicas efectivas sean la piedra angular de los despliegues de reconocimiento facial a gran escala basados en video. Independientemente de las regulaciones vigentes, la mayoría de los observadores consideraría esto como una mejor práctica.

Afortunadamente, con la introducción del GDPR y otras iniciativas similares en todo el mundo, los legisladores ahora están brindando mayor claridad en el uso apropiado de la biometría.

 

Por: Roberto Velarde, Country Sales Manager (Identity Management) Government Business Unit

Más de 1,300 millones de interacciones registradas en Facebook sobre las Elecciones

México vivió las elecciones más grandes en su historia digital y millones de personas usaron Facebook para comentar en torno a las elecciones. Del 4 de abril al 1 de julio de 2018, 64 millones de personas generaron más de 1,300 millones de interacciones en torno a las elecciones en la famosa red social.

Del total de interacciones mencionado, más de 1,100 millones de interacciones fueron generadas directamente por personas en México, seguidos pos más de 73.8 millones de interacciones que se generaron desde Estados Unidos.

Dentro de México, la mayoría de la conversación se generó en la capital, siendo más de 230 millones de interacciones generadas desde la ciudad de México. Después vino el Estado de México, Jalisco, Nuevo León y Veracruz.

El grupo de edad que generó el mayor porcentaje de interacciones fue el de 25 a 34 años (29.6%), seguido por el de 35 a 44 años (23.10%) y por el de 18 a 24 años (18.60%). Además, hubo una proporción más grande de mujeres hablando de elecciones (53%); sin embargo, los hombres generaron más interacciones -23 interacciones en promedio por persona- en comparación a las mujeres -quienes generaron 18 interacciones en promedio cada una.

El día de la elección la conversación en la plataforma fue siete veces más alta que el promedio por día de los 90 días previos – 104 millones de interacciones vs. un promedio de 15 millones. Los temas más comentados incluyeron:

  • Economía: más de 3.8 millones de interacciones
  • Corrupción: más de 3.7 millones de interacciones
  • Inseguridad: más de 2.5 millones de interacciones
  • Salud: más de 2.1 millones de interacciones
  • Desempleo: más de 2 millones de interacciones

La conversación alcanzó su punto más alto alrededor de las 8:54 pm con un promedio de 175 mil personas por minuto interactuando en contenido sobre elecciones. torno a los candidatos presidenciales, los momentos de mayor interacción durante la jornada electoral del primero de julio se registraron de la siguiente manera:

  • 8:11 pm – 9 mil personas por minuto hablaban sobre José Antonio Meade
  • 8:30 pm – 700 personas por minuto hablaban sobre Jaime Rodríguez Calderón “El Bronco”
  • 8:40 pm – 18 mil personas por minuto comentaban sobre AMLO y 13 mil personas por minuto comentaban sobre Anaya

Estos datos han sido proporcionados a través de la pantalla interactiva de Facebook, que muestra en tiempo real el número de personas que han realizado una o más interacciones con contenido relacionado con algún candidato o tema político o social, en el contexto de las elecciones. Esta herramienta muestra datos que se recaban y agregan de manera anónima y no miden el sentimiento o la intención de voto.

Nutanix quiere ayudar a alcanzar la Transformación Digital

Las empresas están en constante búsqueda de la codiciada Transformación Digital, agilizando el negocio y mejorando la entrega de aplicaciones y servicios.

Para ayudarse a llevar sus principales objetivos de negocio, se han tenido que apoyar de tecnologías emergentes como la nube para aumentar la disponibilidad de la información y servicios; y las cargas de trabajo digitales para la próxima generación de aplicaciones inteligentes, que soportarán el IoT e IA.

Fernando Zambrana, Country Manager de Nutanix.

“Nutanix busca ser un enabled, otorgando una plataforma para que las empresas obtengan esa agilidad para conseguir su transformación digital. Nutanix hace invisible la infraestructura del data center, simplificando el aprovechamiento de los recursos, tecnológicos y humanos, para que puedan enfocarse a temas que den mayor valor para el negocio y ofrecer mayor agilidad”, comentó Fernando Zambrana, Country Manager de Nutanix en entrevista para Computerworld México.

Con el avance acelerado de la tecnología, las empresas buscan además simplicidad para ofrecer resultados. “Gracias a una sola consola de administración y un solo centro de operaciones se puede visualizar cada área, creando esa simplicidad que las compañías modernas buscan”, comentó Zambrana, agregando que se trata de una herramienta desde la que se puede acceder incluso desde un Smartphone.

Gracias a la incorporación de tres herramientas que se unieron a su plataforma, Nutanix pretende ayudar a las empresas a alcanzar su digitalización y agilidad de negocio: Flow, Era y Beam.

Nutanix Flow, se trata de su solución de red definida por software (SDN) pensada totalmente para manejar multinubes. “Sabemos que las compañías de hoy no sólo manejan sus cargas de trabajo en una sola nube, por lo que queremos brindarles la confianza para que muevan sus cargas entre todas ellas de manera segura”, comentó el ejecutivo. Flow provee seguridad centrada en aplicaciones para brindar protección total no sólo frente amenazas internas, sino externas, las cuales suelen no ser detectadas por los productos de seguridad tradicionales.

Por su parte, Nutanix Era se trata de un conjunto de soluciones bajo el modelo PaaS (plataforma como servicio) diseñada especialmente para que la nube empresarial pueda optimizar y automatizar las bases de datos, ofreciéndole a los administradores libertad para que puedan enfocar sus esfuerzos en iniciativas de mayor valor para el negocio.

Por último, Nutanix Beam es la oferta SaaS (software-as-a-service) de la compañía, la cual ofrece control multinube para que las organizaciones puedan administrar los gastos, la seguridad y el cumplimiento de regulaciones asociadas a casi cualquier plataforma en la nube, todo bajo la misma plataforma de administración.