Autor: Karina Rodríguez

¿Cuáles son las garantías de TI para el éxito del Buen Fin?

El sector comercial espera ansioso el Buen Fin que, en ésta, su octava edición, tendrá lugar del 16 al 19 de noviembre. No es secreto que el año pasado no alcanzó la meta de $100,000 millones de pesos (por primera vez), al registrar ventas por $93,000 millones en los tres días de la dinámica. Esta vez, para llegar a los $97,000 millones (objetivo fijado por la Concanaco), tener excelentes promociones y descuentos, contar con inventarios suficientes y estrategias comerciales sólidas, hacer alianzas con instituciones bancarias y ser favorecidos con la activa participación de los consumidores no será suficiente.

Ante el aumento de tecnologías disruptivas y clientes cada vez más exigentes, informados e hiper conectados, el éxito del Buen Fin dependerá fundamentalmente de la aplicación de innovaciones de punta basadas en una infraestructura de TI ágil, inteligente, automatizada y a prueba de eventualidades.

Este año, diversas tendencias marcarán la diferencia. Entre las principales para Clarkston Consulting destacan 1)Innovación a través de una digitalización que abarque todos los vehículos de contacto y comunicación con los clientes (sea en tienda, sitio web o plataforma de eCommerce tradicional y móvil), ya que ellos esperan una experiencia de compra consistente, con información a su alcance de forma inmediata sin importar el canal empleado; y 2)Inteligencia artificial (AI, por sus siglas en inglés), que optimiza cada punto de contacto con el cliente al facilitar el aprovechamiento de la enorme cantidad de datos que las empresas de retail manejan, de forma más rápida y eficiente. La Red de Universidades Anáhuac añade el Internet de las Cosas a la lista, dado que ayuda a personalizar las experiencias de compra mediante el desarrollo de perfiles inteligentes de clientes y customización de campañas.

Para cada una de estas estrategias, es trascendental contar con una infraestructura centrada en los datos, los cuales son la base de la transformación digital. Garantizar su protección total e hiperdisponibilidad, sin importar si se encuentran en diferentes nubes u on-premise, facilitará el éxito de las iniciativas y su óptimo desempeño durante el Buen Fin. Más allá de esto, tener una Gestión Inteligente de Datos empoderará a las áreas de negocio en esta temporada, lo que redundará en más ventas.

Las firmas financieras, vitales durante el Buen Fin, requieren contar con una plataforma que garantice la hiper disponibilidad y la conectividad Always-On, lo que facilitará que los cientos de transacciones simultáneas con terminales punto de venta u online (que tienen lugar durante estos días) se realicen sin contratiempos. Su infraestructura también debe garantizar la protección y confidencialidad de los datos de sus clientes, para evitar vulnerabilidades y cumplir con los requisitos legales.

Finalmente, es innegable que el eCommerce va posicionándose cada vez más, si bien no todavía como el canal favorito para hacer las compras, sí para investigar previo a éstas.

De acuerdo con Deloitte, el 13% de los clientes que adquirieron productos y servicios durante el Buen Fin 2017 lo hicieron en línea, pero más de la mitad (57%) usaron esta vía para conocer sobre las diferentes opciones del artículo de su interés, cuando sólo 35% lo hicieron así en la edición de 2016.

En el Buen Fin 2018, será de suma importancia que las áreas de TI pongan especial atención en este canal permanentemente en operación, pues la indisponibilidad podría significar la pérdida de miles o millones de pesos. Redes confiables y seguras, operaciones Always-On flexibles y un manejo inteligente de datos facilitará que garanticen el éxito en el control de inventarios, la seguridad de las transacciones, el monitoreo de las promociones y la logística de los envíos, para alcanzar la máxima satisfacción de los clientes.

 

Por: Abelardo Lara, Country Manager de Veeam en México.

Lojax, riesgo de espionaje a personas de alto perfil

S21sec lanzó una alerta acerca del malware Lojax, el cual es capaz de sobrevivir a la reinstalación del sistema operativo y al consiguiente reemplazo del disco duro. El malware funciona reescribiendo el código que controla el proceso de arranque, antes de cargar el sistema operativo. Cada vez que se reinicia, el chip pirateado comprueba que el malware sigue presente en el disco duro, y si falta, lo vuelve a reinstalar.

El precedente de LoJack, conocido como Computrace, se caracterizaba por su persistencia inusual, dado que su función era la de proteger el hardware de un sistema contra el robo y, de ahí, la importancia de resistir la reinstalación del sistema operativo o el reemplazo del disco duro. Es por ello que actúa como un UEFI/Módulo BIOS preinstalado.

Este malware se puede rastrear a un mismo grupo conocido por distintos apelativos, como APT28, FancyBear y Sofacy, entre otros.  Dicha organización ha operado desde 2004 y su principal objetivo es el robo de información confidencial de objetivos específicos.

Los casos más destacables que se atribuyen a la actuación de este grupo han sido, entre otros:

  • El Comité Nacional Demócrata Americano, en mayo de 2016
  • La red de televisión francesa TV5Monde, en abril de 2015
  • El Departamento de Justicia de los Estados Unidos
  • El Parlamento alemán
  • La Agencia Mundial Antidopaje (AMA)
  • Las embajadas de Argelia, Brasil, Colombia, Djibouti, India, Irak, Corea del Norte, Kirguistán, Líbano, Myanmar, Pakistán, Sudáfrica, Turkmenistán, Emiratos Árabes Unidos, Uzbekistán y Zambia
  • Ministerios de Defensa en Argentina, Bangladesh, Corea del Sur, Turquía y Ucrania
  • Periodistas ubicados en Europa del Este

Métodos de ataque

Uno de los métodos de ataque más frecuentemente empleados por este grupo es el envío de correos de spearphishing, con el objetivo de robar credenciales de las cuentas de correo.

Para conseguir su objetivo el grupo crea páginas de inicio de sesión falsas y atraen a los objetivos para que ingresen sus credenciales en los sitios ilegítimos.

 

Recomendaciones

Es necesario habilitar el mecanismo de arranque seguro que fungirá como la defensa básica contra ataques dirigidos hacia el firmware UEFI.

También se recomienda actualizar el firmware del sistema y asegurarse que está utilizando el último UEFI /BIOS disponible para su placa base.

En caso de infección la memoria flash SPI debe ser recargada con una imagen de firmware limpia para eliminar el rootkit; sin embargo, la única alternativa para asegurar que el malware no persista es reemplazar la placa base del sistema comprometido por completo.

¿Por qué le hace falta al retail un poco de inteligencia artificial?

La inteligencia artificial es una realidad en México. Las empresas están apostando por esta tecnología para potenciar las habilidades de las personas y tener procesos mucho más eficientes, en cualquier industria. Pero, si nos hubiesen dicho hace 10 o 20 años que la inteligencia artificial iba a revolucionar la industria del retail, no hubiese sido sencillo imaginarlo, ¿o sí?

¿Cómo se aplica esta tecnología en las marcas y empresas, hasta llegar a cada uno de nosotros como clientes? La respuesta es sencilla, la inteligencia artificial permite crear experiencias inigualables. Lo que siempre habíamos querido o esperado de las marcas, ahora es posible: que nos conozcan.

De acuerdo con un reciente estudio mundial de IBM, 76% de los directores de marketing reconocen que su capacidad para tomar decisiones basadas en datos será cada vez más importante para su éxito profesional. Allí, la inteligencia artificial juega un papel fundamental, pues ya no hace falta segmentar a las personas solo por su edad, ubicación y género. Todos somos diferentes y esperamos que nos traten como individuos. Que las marcas nos fidelicen a través de ofertas y contenido hecho a nuestra medida.

 

Inteligencia artificial de IBM aplicada al retail en México

Por ejemplo, Essity, empresa dedicada a productos de higiene y salud con presencia en México, acaba de anunciar que está implementando soluciones con inteligencia artificial para marketing en sus marcas Tork -higiene- y Tena -incontinencia urinaria-.

Essity se convierte en el primer caso de inteligencia artificial de IBM Watson aplicada al retail en el país.

La empresa busca entregar experiencias únicas a sus clientes y a los negocios que comercializan sus marcas, para incrementar las ventas a través de comercio electrónico. Obtener una visión 360° de los datos será vital para que la marca mejore sus productos y soluciones de higiene y salud.

Con Tork, Essity busca comunicar diversos lanzamientos y relanzamientos de sus productos a las empresas que comercializan la marca, además de hablar a nuevos prospectos, con la finalidad de satisfacer las necesidades de higiene profesional de sus consumidores.

Y en Tena, se ofrecerá a clientes y compradores contenido informativo personalizado acorde a los diferentes tipos de incontinencia, y así continuar con su compromiso de educar y eliminar los tabués alrededor de la incontinencia para disminuir su impacto a nivel personal, familiar y social.

La inteligencia artificial llegó para quedarse. Nuestra experiencia como clientes será cada vez más satisfactoria, en la medida en que las marcas implementen tecnologías emergentes que permitan ayudarles a ajustar cada uno de los detalles, desde que recibimos una promoción en nuestro email, hasta que el producto llega a nuestra casa.

 

Por: Edgar Vidal, especialista en soluciones para Watson Customer Engagement en IBM México.

Ford también lanzará su oferta de micromovilidad con scooters

Ford Smart Mobility anunció que adquirió Spin, una empresa de scooters con sede en San Francisco, como parte de sus planes para ofrecer a los usuarios una alternativa para transportarse en distancias cortas.

En los últimos años, la diversidad de opciones de movilidad ha aumentado dramáticamente, especialmente en las grandes ciudades donde el uso de vehículos se ha salido de control. En algunos casos, las personas, para un solo viaje deben usar distintos tipos de transporte. El vertiginoso sector de movilidad requiere que las empresas se adapten a las necesidades de los clientes.

Con la adquisición de Spin, Ford quiere acelerar sus esfuerzos para proporcionar soluciones de micromovilidad. Spin ya es un referente en servicios de este tipo, con operaciones en 13 ciudades y campus universitarios en los Estados Unidos.

La adquisición de Spin es el último movimiento estratégico de Ford, creado para que los clientes lleguen a lugares de manera más fácil, rápida y económica

Los scooters ofrecen una solución accesible a los citadinos que se trasladan en distancias cortas. Gracias a su facilidad de uso y potencia eléctrica, también pueden ayudar a reducir el tráfico urbano, los problemas de estacionamiento y la contaminación.

A medida que expande sus operaciones, Spin es una empresa comprometida en trabajar de la mano con ciudades y universidades implementando soluciones de micro movilidad con responsabilidad, seguridad y sostenibilidad. En los temas relacionados de estacionamiento y vialidad, Spin trabaja en el diseño de herramientas educativas de la mano con las ciudades en las que opera.

Aún no se sabe el monto de la transacción ni cuándo es que la empresa empezará a correr este nuevo proyecto. Ciudad de México se encuentra entre sus planes.

 

Ventajas del almacenamiento en la nube

El cloud computing o almacenamiento en la nube es uno de los modelos informáticos con mayor auge en las empresas gracias a los beneficios que brinda en la gestión de los procesos. La nube es la herramienta que permite a las organizaciones tener sus recursos almacenados en internet de forma segura y de fácil acceso sin la necesidad de instalar un servidor.

Aunque se trata de un sistema ampliamente conocido, muchas empresas no han migrado su información a la nube por miedo a que los datos se vean comprometidos; sin embargo, el nivel de privacidad y fiabilidad es más alto que con otros métodos, ya que el usuario es quien lo controla directamente.

Durante el 2017, 30% de las empresas mexicanas invirtieron en la nube pública y poco más del 18% destinaron parte de su presupuesto a la nube privada.

La diferencia radica en que la pública no requiere de un gasto extra en almacenamiento, aunque la información está “abierta” al proveedor; no obstante, es igual de segura que la privada, pero debido a su costo accesible es más popular entre las PyMEs. Por otra parte, la nube privada se percibe como parte de la empresa, no como un servicio aparte.

“Sin importar el giro o el tamaño de la compañía, deberá considerar un servicio de alojamiento o aplicación en la nube para optimizar sus procesos y recursos al tener sus datos en un sólo lugar y sin necesidad de invertir en equipamiento, y sobretodo distribuir los procesos y recursos con todos los colaboradores. La nube ya no es una novedad es indispensable para el crecimiento y eventualmente para la supervivencia de la empresa”, comentó Roger Alarcón, CEO de GurúComm.

Ejecutar las operaciones desde la nube es más fácil y seguro de lo que se cree, además de tener una serie de ventajas para las empresas que la implementan, como:

– Fácil acceso: Sólo hace falta un dispositivo conectado a internet para que se pueda ingresar a la información en tiempo real, de manera inmediata, que puede ser compartida con tantos miembros se elija.

– Flexibilidad: Es personalizable de acuerdo a las necesidades de cada empresa, adaptándose a sus procesos, los servicios que ofrece, presupuesto, etc. y es fácil de implementar.

– Bajo costo: Una de las características de la nube es que no es necesario adquirir una licencia de uso, tampoco necesita de infraestructura o mantenimiento de equipos y se paga por lo que se usa, lo que ayuda a reducir costos adicionales.

– Fácil de usar: La integración de los sistemas en la nube es automática; de esta forma, los usuarios tienen la garantía de acceder a información desde cualquier medio, eliminando la labor de realizar duplicados en cada tarea. Las actualizaciones también son automáticas por lo que siempre se tendrá la última versión.

Las exigencias de la comunicación actual en las empresas requieren de herramientas cada vez más especializadas que se adapten a sus perfiles y puedan darle el servicio necesario para llevar a cabo sus actividades de la forma más eficiente posible, brindándole a su vez un servicio de calidad a sus clientes.

¿Qué hay de la seguridad en los vehículos autónomos?

Los vehículos autónomos prometen reducir los accidentes de tráfico al reemplazar los impredecibles conductores humanos con la inteligencia artificial. Pero, ¿cómo logran los fabricantes que estos nuevos conductores sean verdaderamente seguros? Para responder esa pregunta, NVIDIA lanzó el Informe de seguridad de la conducción autónoma.

En este informe se detalla la forma en que el procesamiento transforma el rendimiento en seguridad en todas las etapas, desde la recopilación inicial de datos hasta las pruebas de manejo públicas.

 

Los cuatro pilares de la conducción autónoma segura

La conducción autónoma segura se basa en cuatro pilares básicos. Con la computación de alto rendimiento como núcleo:

 

Pilar 1: Plataforma de implementación y diseño con inteligencia artificial

Un conductor de IA seguro requiere una plataforma de computación que abarque todo el espectro de la computación, desde la conducción asistida en ruta hasta los robotaxis. Debe combinar el aprendizaje profundo, la fusión de sensores y la visión del entorno para lograr que el automóvil tome decisiones en milisegundos según enormes cantidades de datos.

 

Pilar 2: Infraestructura de desarrollo compatible con el aprendizaje profundo

Un único vehículo de prueba puede generar petabytes de datos cada año. Capturar, administrar y procesar esta enorme cantidad de datos no solo para un automóvil, sino para una flota, requiere una infraestructura y una arquitectura de computación completamente nuevas.

 

Pilar 3: Solución del centro de datos para las pruebas y simulaciones robustas

La capacidad para probar un entorno de simulación realista es esencial para lograr vehículos de conducción autónoma seguros. Al combinar millas reales con millas simuladas en una solución de centro de datos de alto rendimiento, los fabricantes pueden probar la tecnología de forma extensa y validarla.

 

Pilar 4: El mejor y más extenso programa de seguridad

El desarrollo de tecnologías de conducción autónoma debe seguir una metodología de seguridad integral que se enfoque en la diversidad y la redundancia del diseño, validación, verificación y soporte continuo de todo el sistema autónomo. Estos programas deben seguir recomendaciones de organismos nacionales e internacionales, como la Administración Nacional de Seguridad del Tráfico en las Carreteras, la Organización Internacional de Normalización y el Programa de Evaluación de Autos Nuevos Global.

Trabajo en conjunto

Además de estos cuatro pilares, la investigación y el desarrollo extensos, así como la colaboración en toda la industria, son aspectos esenciales para implementar de forma segura los vehículos autónomos.

Extreme Networks lanza nueva solución para Centro de Datos

Los equipos de operaciones del centro de datos están sintiendo la presión de seguir el ritmo de las demandas empresariales de los servicios a la velocidad de la Nube, pero las acumulaciones de tecnología monolítica, la visibilidad limitada y los procesos manuales los están frenando.

Para ayudar a las empresas a superar estos desafíos, Extreme Networks anunció su propuesta para llevar el camino hacia el nuevo Centro de Datos ágil, que permite a las organizaciones transformarse a su propio ritmo con la automatización, la gestión, la visibilidad y la TI de varios dominios. Herramientas analíticas que funcionan en cualquier entorno de proveedor.

El nuevo hardware y software en la solución Agile Data Center de Extreme ofrece las herramientas que necesitan para adoptar la automatización, donde sea que estén en su camino. La tecnología segura, plug-and-play combina las herramientas de red y automatización de Centros de Datos adquiridas con las capacidades de administración, análisis y seguridad de Extreme para reducir el riesgo y mitigar la complejidad y el trabajo manual involucrados en la implementación y administración de entornos de múltiples proveedores. y la transición de las arquitecturas heredadas.

 

Beneficios incluidos:

Automatización de TI entre dominios: Extreme Workflow Composer, impulsado por StackStorm, permite la automatización de TI multiplataforma, multiprofesional personalizada, que facilita la integración completa de recursos de computación, almacenamiento, seguridad y red.

Automatización a su ritmo: Extreme Embedded Fabric Automation permite la creación de tejido de Centro de Datos plug-and-play en segundos para un tejido de cualquier tamaño, sin necesidad de software o servidores adicionales. Los clientes pueden automatizarse a su propio ritmo con flujos de trabajo personalizables utilizando herramientas populares como Ansible, así como la capacidad de pasar a la automatización completa de TI con Extreme Workflow Composer.

Gestión de un sólo panel: Extreme Management Center ofrece capacidades de gestión y supervisión de múltiples proveedores de extremo a extremo en toda la red, desde el borde y el campus cableados / inalámbricos al Centro de Datos, lo que reduce el tiempo de administración y acelera la resolución de problemas.

Información sobre dónde y cuándo los necesita:Extreme Analytics proporciona visibilidad de aplicaciones y telemetría de extremo a extremo en todo el campus, Centro de Datos, entre máquinas virtuales en los hosts y en la nube, lo que permite a los administradores respaldar el negocio con información en tiempo real para informar decisiones Un sensor virtual captura la información de tráfico en y entre las instancias virtuales de VMware, sin ralentizar la red. La capacidad de la máquina virtual invitada de la familia de conmutadores y enrutadores SLX de Extreme brinda a los administradores de red capacidades de analizador distribuido para el análisis en la caja.

Adaptabilidad y agilidad de la red: la arquitectura abierta e independiente del proveedor elimina el bloqueo y constituye la base de una red que se adapta fácil y rápidamente a las necesidades empresariales en constante cambio impulsadas por la transformación digital. La integración perfecta de VMware vCenter acelera el despliegue de aplicaciones a través del descubrimiento de máquinas virtuales sin contacto, la movilidad de máquinas virtuales y la migración de servidores VM.

Hardware para cualquier caso de uso: las plataformas de enrutamiento y conmutación SLX de Extreme proporcionan la base para el moderno Centro de Datos. Los nuevos conmutadores de hojas SLX 9030, diseñados para la conmutación Top of Rack mejorada, y el enrutador SLX 9640 para enrutamiento de borde de alto rendimiento y escalable e interconexión de Centros de Datos (DCI) escalables, fortalecen una cartera ya sólida y completa.

Siemens y Aruba se unen para ofrecer una mejor integración de redes

Siemens y Aruba anunciaron una alianza estratégica enfocada en conectar los mundos de las Tecnologías de la Operación (OT) y las Tecnologías de Información (IT). Con base en los portafolio complementarios con la finalidad de apoyar a clientes con redes de datos más confiables, seguras y avanzadas permitiendo una alta disponibilidad de red y de planta.

Esta alianza le ofrece a los clientes de ambos unas redes mejor integradas con interoperabilidad verificada desde las fábricas hasta las oficinas corporativas, gracias a la experiencia de Siemens en componentes de red Ethernet industrial y de Aruba en infraestructura LAN cableada e inalámbrica.

La digitalización, Industria 4.0 y el IoT Industrial están planteando nuevos retos debido a que ahora los datos deben atravesar cada vez más los límites que separan las TI y las TO. Típicamente las redes industrials de OT no están ajustadas a la par de las redes de TI empresariales. Esto resulta en brechas en la visibilidad de datos y dispositivos, de la seguridad de aplicaciones, disponibilidad y seguridad. Para eliminar dicha brecha se requiere un profundo expertise en ambos mundos y conocimiento de los respectivos requisitos operacionales y de seguridad.

En el mundo de IT, la ciberseguridad y los datos confiables son prioridad, mientras que en el mundo de las OT, la disponibilidad de planta y los objetivos de producción de manufactura son más importantes.

Siemens y Aruba abordan esta brecha ofreciendo unas redes integradas con interoperabilidad y documentada en diseños de referencia validados, ambas compañías ayudan a garantizar que los sistemas integrados de IT/OT puedan ser instalados rápidamente y con facilidad, ser operadas con seguridad y soportadas con mayor eficiencia.

Las soluciones incluyen productos de redes cableados e inalámbricos y software relacionado. Las soluciones ayudan a garantizar la seguridad de la red que abarca tanto el mundo de las TI como de TO; por ejemplo, Secure Fabric 360 de Aruba para redes TI puede combinarse con el concepto de seguridad “Defense in Depth” TO de Siemens. Ya que las necesidades de los clientes varían, especialmente en implementaciones que se han hecho en el pasado, Aruba y Siemens también diseñarán soluciones de seguridad para satisfacer requerimientos específicos de los clientes.

Tendencias de Gartner para Internet de las Cosas

El Internet de las Cosas está reclamando su posición en el panorama tecnológico global. Con 14,200 millones de dispositivos conectados en uso previstos para 2019; 40,000 millones para 2023, se ha convertido en una tendencia imposible de ignorar. En su popularización y expansión entran en juego distintos factores que hay que tener en cuenta, y su desarrollo se ha visto favorecido por otras herramientas y mecanismos: constantes que están definiendo el IoT o que van a hacerlo en los próximos meses. Estas son las que destaca la consultora Gartner.

 

Valor de los datos

Si por algo se caracteriza el Internet de las Cosas es por la ingente cantidad de información que genera, que debe ser filtrada y analizada para conseguir extraer de ella elementos de valor. Esto se refleja en dos tendencias. Por una parte, la inteligencia artificial irá ganando peso a la hora enfrentar esta situación, gracias a las posibilidades que abre para, por ejemplo, automatizar gran parte de estas tareas. Por otro, la recolección y gestión de la información que surge del uso de IoT está dando lugar a otra tendencia: la monetización de los datos y su aprovechamiento como activo comercial, con el fenómeno que se ha dado en llamar infonomia. Según Gartner, para 2023 la compra y venta de datos de IoT se convertirá en una parte esencial de muchos de los sistemas conectados.

 

Descentralización (más aún)

El IoT ya ha facilitado el salto de un esquema centralizado y organizado en base a plataformas cloud a la inteligencia en el extremo, en la que las operaciones se ejecutan en los bordes de la red. Esto vivirá una nueva transformación: la arquitectura se desestructurará aún más, con dispositivos y servicios conectados en una malla dinámica para permitir sistemas IoT más flexibles, inteligentes y con mayor capacidad de respuesta. Eso sí, este modelo también podría conllevar una mayor complejidad en su gestión.

 

Seguridad

Los sistemas conectados son un reto importante a nivel de protección de infraestructura y redes: se multiplican los puntos de entrada potenciales a ataques, se trabaja con elementos de los que no se controla la fuente de software y hardware… El surgimiento de nuevos modelos, que den una cobertura eficaz en seguridad al Internet de las Cosas, será un paso clave en los próximos meses.

 

Innovación en varios elementos relacionados a IoT

Sensores, procesadores, redes y experiencia de usuario. En sensores, la consultora prevé una evolución continua hasta 2023, con modelos con mayor rango de cobertura, nuevos usos y aplicaciones y reducción de precio en los dispositivos actuales. Se pasará del uso de chips convencionales a procesadores de propósito específico, que reducirán el consumo de energía y facilitarán el desempeño de tareas avanzadas y el desarrollo de nuevas capacidades. Las tecnologías incipientes en redes IoT, como el 5G, prometen mejorar las condiciones en conectividad, con mayor velocidad y menor latencia como elementos estratégicos. La experiencia de usuario se refinó, y la tendencia es a buscar herramientas que fomenten el uso de IoT, reduciendo la fricción y el bloqueo.

 

Marco de gobierno

Un buen marco de gobierno que garantice un comportamiento adecuado en la creación, almacenamiento, uso y eliminación de información relacionada con los proyectos de Internet de las Cosas. Aquí se incluyen desde tareas técnicas simples, como auditorías de dispositivos y actualizaciones de firmware, hasta problemas más complejos, como el control de los dispositivos y el uso de la información que generan.

 

Principios éticos y legales del IoT.

El uso de elementos conectados supone un desafío a muchos niveles, entre los que está también el marco legislativo o las consideraciones acerca de la privacidad y la moralidad. Para Gartner, el Internet de las Cosas debe ser aceptado a nivel social, por lo que se espera que en los próximos meses aumenten las iniciativas y proyectos en los que la legalidad y la ética cobren especial relevancia.

 

IDG.es

¿WiFi o 5G? Cuál es ideal para dotar de conectividad a Internet de las Cosas

Según las previsiones de Gartner, en 2020 habrá 20.400 millones de dispositivos conectados en todo el mundo, frente a los 8.400 millones de 2017. Los expertos vaticinan que el Internet de las Cosas representará la mayor disrupción desde la Revolución Industrial por su capacidad de transformar completamente la forma en la que vivimos.

Gran parte de las organizaciones ya son conscientes de las oportunidades que les puede brindar esta tecnología a nivel de negocio, tanto que de acuerdo a un estudio de IDC, el 20% de las organizaciones españolas ya cuenta con proyectos reales de IoT, y un 70% de ellas asegura estar planteando ampliar estos proyectos en los próximos 18 meses.

 

Miles de millones de dispositivos, ¿y qué los conecta?

Para hablar de IoT es imprescindible hablar de conexión. La demanda de conectividad no sólo se va a deber a nuevos tipos de dispositivos de consumo, como wearables, automóviles conectados o aplicaciones domésticas, sino a todo tipo de equipos industriales. Y, según los expertos de Fontech, la división tecnológica de Fon, se espera que aproximadamente sólo el 20% de estas conexiones se realice a través de tecnologías celulares, especialmente de la próxima generación de red 5G.

En este contexto, y a pesar de que el uso de la tecnología WiFi está ya ampliamente extendido, es de esperar que su rol estratégico aumente para poder hacer frente a los ecosistemas cada vez más hiperconectados. La tecnología WiFi se presenta como un habilitador natural del IoT por las siguientes razones:

  •         La gran adopción de sus estándares permite que un amplio rango de dispositivos pueda conectarse y comunicarse entre ellos.

 

  •         Costos de despliegue relativamente bajos, especialmente si se comparan con las redes celulares.

 

  •         Capacidad de adaptación a distintos use cases del IoT, como las Smart Cities, donde las redes WiFi comunitarias ofrecen una buena cobertura urbana de forma mucho más rentable que otras redes; o las Smart Homes, donde las soluciones de Home WiFi se plantean como una pieza clave.

“Estamos convencidos de que la tecnología Wi-Fi tendrá un papel fundamental en el desarrollo del IoT en los próximos años. Pero para que esto sea posible es necesaria una gestión de las redes WiFi inteligente y eficiente, algo que sólo será posible con la implantación de soluciones WiFi de última generación en todos los ámbitos”, comentó Alex Puregger, CEO de Fon.

Parece claro que el IoT está llamado a ser el próximo disruptor del sector IT y, teniendo en cuenta el papel del WiFi como habilitador natural, es fundamental poder aprovechar todo el potencial de esta tecnología gestionando las redes de forma inteligente y eficiente.