Categoría: Ciencia e Innovación

Analítica deportiva, pase directo a la competitividad

En cada partido de fútbol soccer, béisbol, básquetbol, atletismo, fútbol americano, sin importar de qué equipo, selección o temporada se trate, lo que los dueños quieren es un estadio lleno, ya que los lugares vacíos implica pérdida de ingresos, venta de boletos baja, poco movimiento de mercancías y alimentos, aficionados insatisfechos y jugadores desmotivados.

Existen clubes visionarios que buscan sobresalir aprovechando las innovaciones tecnológicas, como la analítica, de forma exitosa para llevar a más aficionados satisfechos a estadios y arenas, así como para elevar sus ingresos.

No obstante, dar un paso de esas dimensiones no es sencillo. En primera instancia, en comparación con una empresa de otro sector, un club deportivo se encuentra rezagado en cuanto a sofisticación y uso de la analítica, a lo que se suma su incapacidad de hacer grandes inversiones iniciales.

En 2003, Michael Lewis publicó el libro Moneyball, en el que se describía de qué manera la analítica podía transformar los deportes profesionales (en este caso el equipo de béisbol, Oakland Athletics), marcó un antes y un después en la forma de aprovechar sus datos.

Los beneficios que otorga la analítica han impactado de manera positiva varias áreas estratégicas, tanto dentro como fuera del campo de juego.

Jugadores de alto desempeño. Sensores integrados a los uniformes y equipamientos generan información que los entrenadores utilizan para conocer el desempeño de cada jugador, y del equipo en su conjunto. A partir de ahí, se diseñan programas de entrenamiento y se identifican las áreas de mejora.

Simulaciones. La analítica ayuda a simular partidos antes de que sucedan, tomando en cuenta los resultados, estilo de juego y la alineación de encuentros anteriores. Los coaches pueden recibir datos en tiempo real del desarrollo de un encuentro.

Llenar estadios. Los eventos deportivos compiten con una amplia oferta de entretenimiento -incluyendo a servicios de streaming como Netflix. Los directivos se apoyan en diversas fuentes de datos que, después de procesarlas, les pueden indicar cuál será la experiencia que buscan los asistentes: mayor interacción, boletos accesibles, venta de bonos para una temporada completa, aplicaciones móviles, estacionamiento accesible, etc.

Mercancía y alimentos. Al conocer a detalle los patrones de compra de los fanáticos en el estadio se les presenta la mercancía que realmente les atraerá (gorras, camisetas, pines, memorabilia), y los alimentos que consumirán. Por ejemplo, la analítica ha revelado que el número de mujeres que asiste a estos eventos va en aumento, lo que permite ampliar el catálogo de productos dirigidos a este segmento.

Jugadas efectivas. El video y datos de ubicación se utilizan para analizar los movimientos en la cancha, como en el caso del fútbol, a fin de estudiar todos los desplazamientos de los jugadores y el balón.

Atletas con potencial. La Universidad de Carolina del Norte en Chapel Hill utiliza herramientas analíticas de SAS para reclutar y predecir el desempeño de sus atletas (a quienes se apoya con becas). De igual modo, las aprovechan para identificar a donadores, exalumnos, patrocinadores y miembros de la comunidad que contribuyan al fondo de becas para apoyar su educación y capacidad deportiva.

La aplicación de la analítica tiene un alto potencial en el campo deportivo, y sus posibilidades son infinitas.

 

Por: Kleber Wedemann, Director de Marketing, SAS Latinoamérica.

El mundial de Rusia ha sido el más seguro de la historia, ¿A qué se debe?

Estamos a punto de conocer al campeón de la Copa Rusia 2018, considerado el mundial más seguro de la historia, gracias a diferentes estrategias y tecnologías; patrullas, militares y policías, máquinas detectoras de metales, bandas de Rayos X, y por supuesto, tecnologías más innovadoras como biométricos, analíticos y videovigilancia.

Para ayudar a garantizar la seguridad y satisfacción de los visitantes, la administración del estadio y las partes interesadas autorizadas deben recibir la información proveniente de las cámaras de seguridad, y analizarlas para que puedan tomar decisiones informadas cuando más se necesiten. Por  ejemplo y por primera vez, las autoridades de un país organizador de un Mundial cuentan con toda la información del público asistente a los estadios, y pueden determinar quién es quién, para un control directo de cada hincha.

El nivel de seguridad en los estadios depende en gran medida de la capacidad de detectar, monitorear y responder de manera eficiente a amenazas de seguridad reales y potenciales. Por lo tanto, es importante contar con un sistema de vigilancia que permita monitorear todas las áreas críticas en todo momento, incluyendo:

  • Entradas y salidas
  • Taquillas
  • Gradas y salida de emergencia
  • Áreas de comida y bebidas
  • Pasillos y escaleras
  • Zonas perimetrales fuera del estadio

Esto permite que la administración del estadio tenga acceso a video en vivo y grabado de alta definición desde cualquier computadora o dispositivo móvil autorizado, y les proporcione una integración perfecta con su sistema de control de acceso, humo y alarmas contra incendios y botones de emergencia para habilitar una verificación, respuesta y/o acción rápida.

Además, una gestión y visibilidad eficiente de entradas, salidas, taquillas, salida de emergencia, escaleras, zonas de alimentos, así como puestos de bebidas, permite contar con alarmas automáticas ante una posible intrusión y manipulación de las cámaras para garantizar la operación de los equipos en conjunto con cámaras anti-vandalismo para un funcionamiento y mantenimiento rentables.

Asimismo, las soluciones de seguridad inteligentes ayudan a recibir alertas automáticas por allanamiento y violación del perímetro, con lo que se pueden investigar de manera más eficiente los incidentes a través de un acceso rápido a los videos relevantes y con la calidad de video necesaria para que sean válidos en procesos legales, mientras que permite una supervisión centralizada para un control óptimo de multitudes y tráfico.

 

Analítica, el gran diferenciador 

La analítica de datos brinda soluciones de video inteligentes para monitorear áreas clave de interiores y exteriores para puntos de alto volumen de tráfico.

La analítica brinda al personal de seguridad la oportunidad de reconocer de manera más fácil y rápida los objetos fuera de lugar, las personas sospechosas y analizar situaciones en tiempo real, para detectar mejor las posibles amenazas.

Junto con estrategias de seguridad más sofisticadas, el personal del estadio puede alertar fácilmente a las personas cercanas a un incidente para que puedan responder de inmediato.

“Desarrollar planes integrales de gestión de seguridad y una mejor capacitación interna al personal de seguridad, ayudará a la administración del estadio a mantener a las personas seguras. Junto con estas medidas, cada vez más lugares están actualizando las soluciones analógicas existentes a la tecnología de vigilancia inteligente, para llenar las lagunas de seguridad y mejorar la experiencia total de los aficionados”, explica Francisco Ramírez, Director General de Axis Communications para México, Centroamérica y Caribe.

Las soluciones de vigilancia inteligente, integradas a software de análisis, ayudan al personal de seguridad de estadios y recintos deportivos a mejorar la conciencia situacional, la identificación y el conocimiento operativo. Esto favorece enormemente a las estrategias de gestión orientadas a mantener seguros a los asistentes y garantizar que los fanáticos se diviertan en eventos como Rusia 2018 y/o en las futuras actividades de gran relevancia en los calendarios deportivos o de espectáculos.

Tecnología para mejorar la Seguridad en Aeropuertos

Los aeropuertos son lugares estratégicos que millones de personas frecuentan diariamente. Además, son la puerta de entrada a los países, siendo el punto donde convergen operaciones de logística complejas y acciones para mantener el bienestar tanto de pasajeros como de sus trabajadores.

Como un espacio transitado que opera 24/7, los 365 días del año, las medidas de defensa tienen que ser cada vez más minuciosas, deben adaptarse a las particularidades tanto de los viajeros como de las situaciones políticas en todo el mundo.

Cada rincón dentro de un aeropuerto se considera vulnerable: terminales de pasajeros, áreas de carga, zonas de embarque, perímetros cercados, pistas, torres de control y estacionamientos, cada una representa un riesgo potencial que puede ser blanco tanto de ataques físicos como cibernéticos

“Las amenazas de hoy no son necesariamente las mismas que tendremos mañana. Para garantizar la seguridad en los aeropuertos se deben identificar y priorizar cuáles son los riesgos potenciales. Una solución inteligente debe integrar sistemas diseñados específicamente para cuidar todas las áreas”, aseguró Javier Sánchez Serra, Director de Tecnología de MER Group en México.

Ya no es suficiente con simplemente video monitorear las entradas, las salas de espera o los mostradores donde se hace check- in, se trata de incorporar diversos tipos de tecnologías como verificación biométrica para las zonas de empleados, interfases de sistemas de protección, imágenes térmicas, radares, etc.

Por otro lado, también se tiene que integrar el factor humano, pues son las personas las que se encargan de gestionar los sistemas, ya que de no contar con el personal debidamente capacitado, entonces cualquier medida puede resultar inoperante.

“Con ‘seguridad inteligente’ se espera que las operaciones sean más eficientes y que el pasajero tenga una mejor experiencia. El reto está en integrar estos elementos porque no todas las soluciones se ajustan a las necesidades de todos los aeropuertos; se tienen que crear estrategias únicas que además comulguen con los requerimientos gubernamentales y acuerdos internacionales.”, agregó Sánchez.

Pensar en la seguridad de un aeropuerto es pensar que cualquier cosa puede suceder y hay que estar preparado para lo inesperado. Los expertos contemplan que rara vez hay una efectividad del 100 por ciento; sin embargo un buen entrenamiento, realizar los ejercicios de simulación de escenarios adecuados y estar en constante aprendizaje, son necesarios para reducir el margen de error y buscar, en la medida de lo posible, la tranquilidad de todos.

Distribuciones de Linux más utilizadas

De acuerdo con datos de la BSA-The Software Alliance, en México, alrededor del 49% de las computadoras cuentan con un software ilegal, lo cual genera pérdidas por aproximadamente 760 millones de dólares a la industria.

En Latinoamérica, alrededor de un 52% de las computadoras no tienen un software legal, lo que representa una pérdida de 4,957 mdd.

En tanto, en el mundo las pérdidas llegan a los  46,302 mdd, con un 37% de uso de software sin licencia.

De acuerdo también con la BSA-The Software Alliance, uno de los principales problemas que tienen las empresas al no contar con software es la vulnerabilidad ante los ciberataques, pero también pueden enfrentar problemas de pérdida de datos o corrupción de la información.

Entre los factores para que en México prevalezca el uso de software pirata son la desinformación en cuestiones tecnológicas o la evasión intencionada.

Pero para hacer frente a dichos factores existen diferentes plataformas basadas en Linux que son desarrolladas por comunidades globales y que, al ser totalmente legales, son utilizadas por empresas, emprendedores y gobiernos en diferentes partes del mundo. El software libre está basado en los siguientes principios, de acuerdo con Richard Stallman, programador estadounidense y fundador del movimiento por el software libre en el mundo:

  • Un programa es libre si puede ser ejecutado y usado de todas las formas en que uno quiera, a diferencia de los privativos tienen limitaciones por medio de la licencia de uso o incluidas en el código.
  • El código debe permitir el estudio y cambio haciéndose público.
  • La copia y distribución debe ser libre.
  • El software libre debe permitir la distribución de copias modificadas por un programador, inclusive permitir su venta.

Algunas de las distribuciones de Linux más utilizadas:

Ubuntu: Una de las distribuciones más populares es Ubuntu. Desarrollado por las comunidades de Canonical, Ubuntu es un sistema operativo que es perfecto para laptops, computadoras de escritorio y servidores. Ya sea que lo utilices en el hogar, en la escuela o en el trabajo, Ubuntu contiene todas las aplicaciones que puedas necesitar, desde procesadores de texto y aplicaciones de email, hasta software para servidor web y herramientas de programación. Ubuntu es y siempre será libre de costo. No pagas por una licencia de uso. Puedes descargar, usar y compartir Ubuntu con tus amigos, familiares, escuela o negocios libremente.

Endless OS: Endless en un sistema operativo que inicialmente, a través de la venta de computadora de muy bajo costo, buscaba ayudar a romper la brecha digital existente en países en desarrollo, todo al permitir el acceso a una gran cantidad de contenidos educativos sin necesidad de contar con Internet. Posteriormente fue creada la distribución de este sistema operativo bajo el nombre de Endless OS, y ahora sus creadores han liberado Endless OS 3.0, mismo que ya está disponible con interesantes novedades, entre las que se encuentra el arranque dual con Windows. De todas las nuevas características que incluye consigo Endless OS 3 la más importante es la posibilidad de que el usuario instale el sistema operativo en modo de arranque dual con Windows u otro sistema operativo basado en Linux.

Cub Linux: Básicamente Cub Linux es una distribución basada en Ubuntu con un escritorio idéntico a Chrome OS. Si no te gusta el estilo de este sistema operativo no te pierdes de absolutamente nada instalando Ubuntu 14.04. Como en la página lo dicen, Cub Linux no es un fork de Chromium Linux ni una fusión de Chromium OS con Ubuntu, es una distribución que busca ser agradable y lo más compatible posible (a diferencia de Chromium OS). Cub Linux es una continuación/reencarnación de Chromixium, una distribución con el mismo propósito, pero según los desarrolladores Google los contactó para que le cambiasen el nombre debido a su éxito. Así como pasó con Backtrack y Kali Linux, pasó con Chromixium y Cub Linux.

Antix: Para hacer funcionar AntiX solo se necesita un Pentium II y 64MB de RAM, aunque se recomienda disponer de 128MB. Por eso puede ser instalado en equipos de finales de los años 90 sin problema. Se puede descargar su imagen que ocupa menos de 700MB, por lo que puede ser quemada en un CD para su instalación. Incluye bastantes paquetes de aplicaciones preinstaladas, como LibreOffice, MPLayer, navegador ligero Iceweasel, cliente de correo Claws, etc. Su entorno de escritorio se basa en GNOME y está escrito en lenguaje C++, se trata de IceWM.

SparkyLinux: SparkyLinux es una distribución basada en Debian. Incluye entornos de escritorios como Razor-QT, LXDE, OpenBox/JWM, e17 y MATE, un gran abanico para elegir tu entorno preferido. SparckLinux está especialmente creada para funcionar en equipos viejos con pocos recursos de hardware, lo que no impide contar con un buen sistema operativo y completo. Y aunque dispones de una guía completa para aprender a usarla, no es una distribución sencilla.

Sparky2

Puppy Linux: Puppy es una distribución pensada para usar el mínimo de recursos posibles. Tiene interesantes aplicaciones, dispone de varios entornos de escritorio ligeros (LXDE, JWM, IceWM), es fácil, competa, puede arrancar desde un pendrive o instalarla en el disco duro. En la página web oficial cuenta con una gran Wiki para consultar dudas o resolver problemas. Se puede descargar, su imagen solo pesa unos 100MB y está disponible en versión LiveCD o LiveUSB. Cosume tan poca memoria, que con OpenOffice abierto no pasará de 256MB RAM ocupados.

Linux Mint: Hoy en día Linux Mint es un proyecto que desarrolla sus propios entornos de escritorio, sus propios programas, y que poco a poco se va independizando de Ubuntu, demostrando que se pueden hacer las cosas de manera diferente. Linux Mint 18 es la consecuencia de esta filosofía. Como ya es habitual, está disponible inicialmente en dos versiones, una con el escritorio Cinnamon (moderno pero sin florituras) y MATE (con el viejo estilo de Gnome).

Lubuntu: Lubuntu es la distribución más popular de todas estas, es un Ubuntu con entorno de escritorio ligero LXDE para ordenadores con menos recursos. Al ser una distro oficial, su desarrollo y actualización va a la par de Ubuntu. Puede funcionar en equipos con poca memoria RAM, chipsets viejos y en discos duros con poca capacidad. Si tienes un equipo portátil, Lubuntu también sería una opción a tener en cuenta. Además, el software que viene preinstalado también está especialmente seleccionado para consumir pocos recursos. Otra ventaja es la gran comunidad detrás de Ubuntu, con lo que no te faltará el soporte, las actualizaciones, etc.

Ubuntu Mate: Ubuntu MATE, como su propio nombre lo indica, está basada en Ubuntu, una de las distribuciones de Linux más grandes. Ubuntu MATE toma la base del sistema operativo Ubuntu y añade el escritorio MATE. Es un sistema estable, con un intuitivo entorno de escritorio, configurable y muy fácil de utilizar. Es ideal para aquellos que queremos el máximo rendimiento de nuestros equipos e ideal para los ordenadores viejos y ya casi inutilizables.

 

Manjaro Linux: Manjaro es una distribución Linux bastante nueva, basada en Arch Linux pero con una interfaz amigable para su instalación. Eso facilita mucho las cosas, los que conozcan la instalación de Arch Linux lo sabrán. Puedes descargarla en tres ediciones oficiales y además se puede elegir entre un entorno de escritorio con OpenBox o XFCE, ambos bastante ligeros. Es una gran distribución, bonita, sencilla y muy completa. No es la que menos recursos necesita, pero puede ser una buena alternativa intermedia entre otra distro más pesada y las más ligeras.

Xubuntu: Es hermano de Lubuntu, ambas oficiales reconocidas por Canonical, también se trata de un Ubuntu con entorno de escritorio ligero, pero esta vez Xubuntu dispone de entorno Xfce. Si tienes un equipo con recursos limitados o quieres tener un sistema lo más ligero y rápido posible, es una gran elección. Xubuntu se contenta con solo 800Mhz de procesador, 384 MB de memoria RAM y un disco duro de al menos 4GB.

Peppermint OS: Peppermint OS es otra distribución ligera basada en Lubuntu, es decir, Ubuntu Linux con entorno LXDE. Además de tener en mente la ligereza y optimización para equipos con pocos recursos o de bajo consumo, los desarrolladores también han tenido muy presente la nube. Por tanto, si dispones de un equipo con un hardware poco potente, con 192MB de RAM, y además te gusta Lubuntu pero necesitas capacidades orientadas a la computación en la nube, ésta es la mejor elección para ti.

Basic Linux: Si bien hace años que no se actualiza merece aparecer en esta lista porque ocupa 2,8MB. Perfecto para un disquete. Sus requisitos son procesador 386 o compatible y 3MB de RAM. Y a pesar de su tamaño, cuenta con escritorio gráfico, en concreto JWM. Según su página oficial, es una distro que permite navegar por la web y consultar el correo y está pensado especialmente para portátiles antiguos. En caso que quieras instalar paquetes y programas, es compatible con los instaladores de Slackware.

Nanolinux: Su nombre lo dice todo. Nanolinux es un Linux de 14MB para funcionar en cualquier computadora que, como mínimo, puedas encender. El escritorio utiliza SLWM y cuenta con las herramientas básicas, como navegador web (Dillo), procesador de texto, hoja de cálculo, cliente IRC, dibujo, visor de imágenes y algún que otro juego.

SliTaz: Si buscas algo un poco más práctico para el usuario medio, SliTaz es una de las distribuciones Linux más ligeras y populares. Su instalador más pequeño es de 35MB y ocupa 80MB en disco, si bien luego podemos instalar más aplicaciones. Su escritorio elegido es Openbox y JWM como gestor de ventanas y sólo pide 256MB de RAM para funcionar. Por lo demás, ofrece una selección de programas que lo hace totalmente funcional. SliTaz se puede instalar de diferentes formas (CD, USB, tarjeta SD, máquina virtual).

Void: Desde España nos llega Void, una distro Linux para uso general que sólo requiere 96MB de RAM y 350MB de espacio en disco para funcionar. Entre sus ventajas, cuenta con su propio sistema de binarios para facilitar la instalación de nuevos programas. Por lo demás, funciona tanto en arquitecturas x86 como ARM y MIPS, por lo que se puede instalar en gran variedad de dispositivos.

Linux Lite: Otra opción interesante de Linux para espacios reducidos es Linux Lite, que como indica en su página oficial, es sencillo, rápido y gratuito. En el caso de Linux Lite, basado en Ubuntu, estamos hablando más de un Linux ligero que pequeño. Su instalador viene en forma de DVD (más de 900MB) pero por otra parte los requisitos son ideales para equipos a los que queremos dar una segunda vida: 700Mhz de procesador y 512MB de RAM. Linux Lite hace frente a todas las necesidades que podamos tener: ofimática, internet, multimedia. Su selección de herramientas y programas es enorme, y además permite instalar, actualizar y desinstalar programas fácilmente.

Bodhi Linux: Siendo una de las distribuciones más pequeñas, resulta curioso que Bodhi Linux consiga ser también una distro todoterreno. Basada en Ubuntu, ofrece un sistema operativo para distintos usos que no descuida el aspecto gráfico (incluye temas) pero que funciona en equipos modestos. A los programas preinstalados, como el navegador ligero Midori, puedes añadir los que encuentres en su gestor de instalación, AppCenter.

Arch Linux: Dejando por el camino distribuciones Linux pequeñas que hace años que ya no se actualizan, llegamos a una veterana, Arch Linux, que a pesar de sus poco más de 500MB de instalador ofrece un Linux ligero para equipos modestos o antiguos. Aunque no está pensada para todos los públicos, se actualiza con frecuencia y cuenta con más de 17.000 paquetes para instalar programas con su propio gestor de paquetes, pacman.

La fibra óptica podría ayudar a detectar terremotos

Un grupo de investigadores de Islandia ha utilizado con éxito un cable de comunicaciones de fibra óptica para evaluar la actividad sísmica y poder detectar posibles terremotos, según la BBC.

Aunque por el momento esta técnica está solo en fase de desarrollo y tardará tiempo en poder pasar a ser de uso generalizado, el uso de cables de Internet y televisión que viajan por todo el mundo para prever estas catástrofes naturales, es un paso muy importante ya que se sumará a una lista de recientes descubrimientos como ciertas aplicaciones móviles o el hardware de detección.

El método probado por este equipo se basó en la utilización de un cable de fibra óptica de 15 kilómetros de largo que se había instalado originalmente entre dos plantas de energía geotérmica de la isla.

Simplemente un pulso láser enviado por una sola fibra del cable fue suficiente para determinar si había movimientos de la tierra o perturbaciones a lo largo de su longitud.

Además, pudieron captar, incluso, la señal de un fuerte terremoto en Indonesia, el tráfico local e incluso a ciudadanos que paseaban.

Para poder desarrollar esta tecnología, y por el contrario, los instrumentos que deben adjuntarse a cada cable para hacer posible la monitorización son realmente caros, aunque el equipo ya está investigando la manera de trabajar con alternativas más rentables.

Las redes sísmicas más tradicionales podrían actuar para advertir a la población en países como Japón o México, cuando comienza un terremoto.

“Para realizar una detección temprana no necesitamos necesariamente información muy precisa, nos vale con saber qué movimientos notorios de tierra están ocurriendo en un área”, ha asegurado, Philippe Jousset, jefe del equipo investigador, al medio británico. “Hay miles de kilómetros de cables que ya cruzan las ciudades. Si podemos acceder a ellos y descubrir cómo interpretar los datos con precisión contaremos con un potencial muy importante para esta tarea”.

 

IDG.es

IoT, una tendencia en crecimiento

Internet de las cosas (IoT) continúa como una de las tecnologías innovadoras y rentables para automatizar las labores manuales y que proporcionen una mejor experiencia al cliente dentro del contexto empresarial.

De acuerdo con Gartner, para el 2020 habrá en el mundo aproximadamente 26.000 millones de dispositivos, además de computadoras, smartphones y tablets, conectados, gracias a IoT.

Por su parte, México en 2020, tendrá 200 millones de dispositivos conectados a la red lo que posicionará al país en el Top 5 de América Latina con mayor adopción del IoT, según datos de la consultora Deloitte México.

El aumento de la incorporación de la IoT como parte de la estrategia de transformación digital en el mundo empresarial de debe a que puede traducirse en réditos económicos significativos. McKinsey & Company estima que “la IoT tendrá un impacto económico potencial total de entre $ 3.9 billones a $ 11.1 billones anuales para el año 2025”.

Desde luego, las empresas de servicios públicos y de telecomunicaciones no son ajenas a esta tendencia y cada vez más adoptan esta tecnología para transformar los procesos empresariales y operar de manera eficiente, al tiempo que obtienen información sobre los hábitos de consumo, intereses y problemáticas de sus usuarios. Estos grandes volúmenes de datos les facilitan a las organizaciones la toma de decisiones encaminadas a optimizar sus flujos de trabajo y generar oportunidades de negocio, creando productos y servicios personalizados, predictivos y ajustados a las necesidades de sus clientes.

 

Beneficios del IoT para las utilities y las telcos

1. Asegurar una base de datos acerca de los clientes y anticiparse a cambios del mercado

Gracias a la información obtenida a través de la IoT, permite que las utilities y las telcos mejoren la experiencia de sus clientes y generen diferenciadores frente a su competencia. Teniendo en cuenta que las estimaciones indican que por cada individuo habrá 26 dispositivos conectados, hacer uso efectivo de estos datos es clave para que estas empresas se posicionen en el mercado.

2. Conectividad y movilidad

Dos aspectos clave que impactan el incremento de la productividad del negocio ya que, la IoT mantiene información disponible y actualizada desde cualquier lugar, que puede ser consultada utilizando dispositivos de fácil portabilidad, posibilitando avanzar en la tecnificación de los procesos críticos de negocio.

3. Medio ambiente

Compromiso con el mayor ahorro del consumo de energía, asegurando el uso de tecnologías verdes que optimicen el consumo de recursos.

4. Digitalización industrial

La transferencia de información en línea reduce costos, riesgos y esfuerzos operativos, debido a que disminuye actividades back office para el registro de datos, errores de digitación y labores de gestión documental tales como control de planillas y formularios.

“Las empresas de servicios públicos y las de telecomunicaciones enfrentan múltiples desafíos como parte del proceso de disrupción digital. Por esta razón, a la hora de incorporar tecnologías como la IoT dentro de sus operaciones, estas organizaciones deben seleccionar cuidadosamente un proveedor tecnológico especializado en el sector, que cuente con experticia en el manejo de esta clase de herramientas, y que garantice la seguridad en la gestión y en el análisis de los datos almacenados”, puntualizó Jesús Sánchez; Vicepresidente de Mercadeo.

Cuatro aspectos que tendrán todos los vehículos del futuro

Es increíble lo lejos que ha llegado la tecnología del transporte en tan poco tiempo. Hace 50 años, la computadora de navegación de Apolo 11, la nave espacial con la que el hombre llegó por primera vez a la Luna, solo tenía 16 k de memoria, menos que la capacidad de cualquier calculadora de mano de hoy en día. Los vehículos autónomos actuales son, literalmente, supercomputadoras móviles capaces de procesar miles de millones de operaciones por segundo.

Este tipo de vehículo requiere sistemas de maniobra, frenado y aceleración muy complejos y basados en datos que sean capaces de comunicarse a la velocidad de la luz, para sincronizarse entre sí y adaptarse en tiempo real a un entorno de conducción variable. Además, estos sistemas deben garantizar la experiencia segura y confortable de los pasajeros. Los vehículos autónomos de hoy también cuentan con miles de sensores que interactúan simultáneamente con otros vehículos, con las señales de tránsito e, incluso, con la calle para evitar peligros y trazar la ruta más adecuada. Si pensamos en la computadora de 16 k que ayudó a llevar al hombre a la Luna, realmente es asombroso ver hasta dónde hemos llegado.

Si bien los vehículos autónomos se están probando en todo el mundo, todavía falta una década, por lo menos, para que en verdad sean algo común de ver en las calles.

Eso es lo que tiene de particular la conducción autónoma: funciona bien solo si la mayoría de los vehículos tiene la capacidad de circular sin conductor. Alcanza con que un solo conductor de carne y hueso realice una maniobra inesperada, frene de improviso o estacione en una zona de carga para que todo el sistema se desequilibre. Habrá que acostumbrarse con rapidez —prácticamente de un día para el otro— a medida que los conductores hagan el paso a la conducción autónoma al mismo tiempo.

Lograr que todo funcione de forma conjunta requerirá de muchas pruebas y medidas confiables, además de mucha paciencia. Estas son las cuatro claves del vehículo del futuro:

  1. Conectividad

Los vehículos están compuestos de muchas partes que se mueven, y todas tienen que poder funcionar juntas. Algunas están conectadas por cables; otras, de forma inalámbrica, y la latencia es absolutamente crítica. Reaccionar con un mínimo retraso de menos de un segundo puede significar que el vehículo necesite seis metros extra de distancia de frenado si viaja a una velocidad de 80 km por hora. Esa puede ser la diferencia entre frenar de forma segura y chocar contra el auto que está adelante. Los sistemas que conducirán el vehículo del futuro tendrán que pasar muchas pruebas de estrés que garanticen su confiabilidad y rendimiento, y será necesario controlarlos de forma constante para evitar los cuellos de botella. El hecho de que un correo electrónico llegue con demora o una transacción de compra no quede registrada puede causar malestar o hacer perder dinero, pero los errores del sistema de un vehículo autónomo pueden costar la vida. Por lo general, el desempeño de un sistema no tiene un impacto de vida o muerte, salvo cuando hablamos de vehículos autónomos.

  1. Inteligencia

El vehículo del futuro también tiene que ser inteligente. Los sistemas de conducción autónoma tienen que poder diferenciar entre una bicicleta y una motocicleta, o entre una señal de tránsito y un peatón. También deberán tener en cuenta las interferencias en los sensores que puedan ocurrir producto de la niebla, la lluvia o el viento, así como cuestiones de la línea de visión. Los vehículos autónomos también deberán ser capaces de aprender con la práctica gracias al aprendizaje automático, y adaptarse a su entorno y a otros vehículos a lo largo de su ciclo de vida.

 

  1. Alimentación

El vehículo del futuro no dependerá de combustibles fósiles. El desarrollo de tecnologías de baterías seguirá avanzando, a fin de proveer fuentes de energía limpias, renovables y confiables para los vehículos autónomos. Los costos bajarán: se espera que, en los próximos cinco años, las baterías de iones de litio estén por debajo de los USD 100 por kWh. Además, se desplegará la infraestructura necesaria para las nuevas tecnologías de baterías, como estaciones de carga y de desecho. Ya se están desarrollando otras tecnologías, como las baterías de litio-aire y las baterías de iones de litio de estado sólido. También en estos casos, será clave hacer las pruebas necesarias para que puedan funcionar de manera segura y eficaz.

 

  1. Ciberseguridad

Quizás lo más importante de todo es que el vehículo del futuro sea seguro. Desafortunadamente, hasta los sistemas informáticos más sólidos son vulnerables a los ciberataques y, hasta que se demuestre lo contrario, es posible pensar que podría haber personas con malas intenciones que intenten conseguir el control de estos vehículos. Los operadores tendrán que monitorear constantemente los sistemas autónomos para detectar vulnerabilidades. En vez de adoptar medidas de defensa —lo que demostró ser prácticamente imposible—, los operadores de vehículos autónomos tendrán que escudriñar el sistema en busca de comportamientos anormales o inesperados. Por ejemplo, si se detecta que el tráfico del sistema se dirige a un servidor remoto desconocido, no hay dudas de que algo raro está pasando.

 

Hemos avanzado mucho desde que el hombre viajó a la Luna con ayuda de una computadora de menor capacidad que una calculadora de mano. El vehículo del futuro tendrá gran complejidad y estará impulsado por datos, y será esencial que la interconectividad entre los diversos sistemas sea sólida y altamente confiable. Usará fuentes de energía limpias y renovables, y tendrá que ser seguro. Para garantizar todo eso, los fabricantes y operadores deberán llevar a cabo pruebas y realizar un control constante. En resumen, los sistemas de los vehículos autónomos tendrán que ser los más seguros y confiables de la historia. El vehículo del futuro depende de ello.

 

Por: Soon-Chai Gooi, Keysight.

Amazon entra a la industria farmacéutica

Ya se rumoreaba que Amazon quería entrar en la industria de la Salud, lo que no se sabía era cómo iba a hacerlo. El gigante de ecommerce acaba de anunciar que comprará PillPack, una startup que distribuye medicamentos con receta médica por correo en 50 Estados.

El monto de la operación ha sido aproximadamente de 1.000 millones de dólares, según datos a los que ha tenido acceso el New York Times.

El equipo de PillPack es el resultado de una combinación de una experiencia profunda en el sector y de un enfoque tecnológico, ha dicho el responsable del negocio de consumo de Amazon, Jeff Wilke, en el comunicado oficial lanzado con motivo de la compra.

PillPack no es, ni mucho menos, una gran empresa farmacéutica. Sus ingresos anuales están en 100 millones de dólares. Sin embargo, ha atraído la atención de los inversores y de las empresas al posicionarse como una compañía competente en la venta de medicamentos online.

 

Sin cambiar la filosofía

Aunque en un principio pueda parecer una diversificación de negocio que no tiene sentido con la estrategia nuclear de Amazon, lo cierto es que la firma de Jeff Bezos imprimirá su sello también en su recién estrenado brazo farmacéutico.

PillPack hace envíos a través de correo postal y aquí Amazon es experto. La compañía de ecommerce ya ofrece envíos en el mismo día para sus suscriptores Premium y está desarrollando una imponente red de distribución de sus productos. Si lleva este músculo al sector farmacéutico, las oportunidades pueden ser enormes. En Estados Unidos se dispensan 4.000 millones de recetas médicas cada año. La gran mayoría de ellas se distribuyen a través de localizaciones físicas, de farmacias, en definitiva, según datos oficiales.

Grandes retos de un sector regulado

Ha sido una larga batalla la que ha luchado Amazon para entrar en la industria farmacéutica, principalmente por sus barreras de entrada. Los jugadores de este sector requieren de licencias, que varían en función de cada Estado. Además de estar fuertemente regulado hay otros requerimientos logísticos.

“No se pueden comparar los opiáceos o narcóticos con otros productos. Se necesita almacenamiento en frío a lo largo de toda la cadena, se debe conectar a todos los proveedores con todos los clientes y estos clientes no son necesariamente los consumidores de Amazon”, declaró un reconocido inversor a la cadena CNBC.

 

IDG.es

Intel presenta su chip más pequeño para computadoras cuánticas

Los investigadores de Intel están avanzando hacia las computadoras cuánticas haciendo pruebas con un pequeño chip Spin Qubit. Este nuevo chip fue creado en la planta Fab D1D de Intel en Oregón, usando las mismas técnicas de fabricación de silicio que la compañía ha perfeccionado para crear miles de millones de chips para las computadoras tradicionales.

Más pequeño que la goma de un lápiz, es el chip de computación cuántica más diminuto que haya fabricado Intel.

El nuevo chip Spin Qubit funciona a las temperaturas extremadamente bajas que exige la computación cuántica: 460 grados Fahrenheit bajo cero (-237.778°C) – 250 veces más frío que el espacio.

El chip Spin Qubit no contiene transistores, los interruptores de encendido/apagado que conforman la base de los dispositivos de computación actuales, sino “quibits”(abreviación de “bits cuánticos”) que pueden contener un solo electrón. El comportamiento de ese único electrón, que puede estar en múltiples estados de giro al mismo tiempo, ofrece un poder de cómputo mucho mayor al de los transistores de hoy, y es la base de la computación cuántica.

Las líneas en zigzag de la fotografía son alambres impresos que conectan los qubits de los chips con el mundo exterior.

Una de las características del diminuto chip Spin Qubites especialmente prometedora. Sus qubits son extraordinariamente pequeños, cerca de 50 nanómetros de diámetro y visibles solo bajo un microscopio de electrones. Aproximadamente 1,500 qubits podrían caber a lo largo del diámetro de un solo cabello humano.

Lo anterior significa que la producción del nuevo chip Spin Qubitde Intel podría incrementarse considerablemente.  Las computadoras cuánticas del futuro contendrán miles e incluso millones de qubits, y serán muchísimo más poderosas que las supercomputadoras más rápidas de hoy.

Candidatos Presidenciales: Propuestas entorno a Telecomunicaciones y TI

Faltan menos de diez días para que se lleven a cabo las elecciones presidenciales y es claro que ha sido, nuevamente, una oportunidad desperdiciada por los candidatos para elaborar y proponer sobre los temas y posturas respecto a las telecomunicaciones y las tecnologías de la información.

Desde el inicio de la temporada de intercampaña, los candidatos han tenido oportunidades para expresar sus propuestas, sin embargo, por lo general se limitaron a esbozar menciones vagas al respecto.

Esto, además de verse reflejado en la trayectoria de sus pronunciamientos, quedó expuesto cuando, en el tercer debate presidencial, el tiempo que le dedicaron a esta materia fue casi nulo, a pesar de ser este era uno de los ejes temáticos del debate. Su falta de experiencia, de interés y manifiesta ignorancia fue aún más evidente cuando se les preguntó sobre la Neutralidad de la Red, que no recibió respuesta, a pesar de haber sido tema de primeras planas en prácticamente todos los medios en el día.

 

José Antonio Meade, coalición Todos por México (PRI, Nueva Alianza y Partido Verde Ecologista)

La notable excepción ha sido el caso del candidato José Antonio Meade, quien a lo largo de estos tres meses y medio ha cubierto el mayor número de temas estratégicos sectoriales, incluso con la mayor integralidad y profundidad. Entre sus propuestas destaca el énfasis en el marco legal e institucional, pero sobre todo que ha sido el único de los contendientes que ha abordado el tema toral del sector de las telecomunicaciones: la competencia en los mercados. Otra de las propuestas de José Antonio Meade que resalta por su unicidad, es la de la creación de una Secretaría de Telecomunicaciones. Sin embargo, ha referido de manera insuficiente tecnologías disruptivas, como Blockchain y ciberseguridad.

 

Ricardo Anaya, coalición Por México al Frente (PAN, PRD y Movimiento Ciudadano)

El candidato Ricardo Anaya, ha hecho mención efímera pero vasta de varios de estos temas. Destaca su insistencia en el ámbito de tecnologías disruptivas (Blockchain, Big Data, Cloud), y gobierno digital, que contempla la e-Seguridad, e-Transparencia, e Internet de las Cosas. Sus áreas más débiles han sido el fomento al despliegue de infraestructura y el fortalecimiento de los Derechos Humanos a partir de promover la conectividad universal. Sus propuestas más originales son la del uso de Blockchain para combatir la malversación de fondos gubernamentales, y el uso de internet para conectar a maestros extranjeros con alumnos de comunidades locales.

 

Andrés Manuel López Obrador, coalición Juntos Haremos Historia (Morena, PT,  Partido Encuentro Social)

Por su parte, Andrés Manuel López Obrador (AMLO) tiene mucho camino por recorrer en temas TIC. Sus menciones han versado principalmente sobre Gobierno Digital y Derechos Humanos, mientras que los temas que más pobremente se ha pronunciado son la ciberseguridad y tecnologías disruptivas. Destaca por ser el único en haber referido la conveniencia de más licitaciones de espectro radioeléctrico para su uso óptimo y eficiente.

Jaime Rodríguez Calderón, candidato independiente

En cuanto a Jaime Rodríguez Calderón “El Bronco”, sus propuestas concernientes al sector de telecomunicaciones y TIC han sido especialmente parcas y se han reducido casi únicamente a menciones ligeras al aprovechamiento de estas tecnologías para la educación. Los temas más desatendidos por el candidato son economía digital, ciberseguridad y privacidad de los datos.

Cabe resaltar que ningún candidato se ha pronunciado aún sobre el tema de derechos de autor y la propiedad intelectual en el mundo digital. Esto es alarmante por las pérdidas económicas y de eficiencia derivadas de la violación de estos derechos.

Queda pendiente abordar este tema, y ahondar en muchos otros. Está por verse si en los diez días restantes de campaña algún candidato logra pasar de propuestas analógicas a plenamente digitales e innovadoras.

A manera de síntesis, es posible calificar a los candidatos en términos de haberse distinguido, a saber, José Antonio Meade como el Reformador, Ricardo Anaya como el Innovador, AMLO como el Infraestructurador, y Jaime Calderón como el Ausente.

 

 

Por: Ernesto Piedras, 

Director General,

The Competitive Intelligence Unit.