Autor: Karina Rodríguez

Todo lo que necesita saber del nuevo iPhone XS y iPhone XS Max

Apple presentó sus nuevos productos en un evento en su sede central en Cupertino, California.  Los equipos destacan por estar hechos para no contaminar y con gran cantidad de materiales reciclables.

A la par de presentar los nuevos smartphones, Apple anuncia que, mediante paneles solares, usan la energía renovable al 100% para trabajar. Eso significa que cada vez que mandas un iMessage o haces FaceTime estás usando energía renovable.

El iPhone XS cuenta con una pantalla cubierta por un nuevo tipo de cristal y protección especial contra líquidos y polvos. Estará disponible en dorado, plateado y gris. Además, llega con una pantalla Super Retina de 5.8 pulgadas con una resolución de 2436 x 1125 pixeles, por lo que Apple menciona que la reproducción multimedia será increíble. El iPhone Xs Max tendrá una pantalla de 6.5 pulgadas y tiene una resolución de 2688 x 1242 pulgadas, y también tiene una tecnología Super Retina.

La diferencia de pantallas entre el iPhone Xs y el Xs Max solo es el tamaño y la resolución, pues ambos tienen un cristal ultra resistente.

En el iPhone Xs y Max el sonido estéreo es el mejor que ha tenido cualquier iPhone anterior. Además el sistema de identificación facial funcionará mucho más rápido que en el iPhone X, hasta el punto que podrás leer solo tú qué hay en la pantalla y desbloquearlo automáticamente, más preciso.

En el interior tendremos un procesador de 7 nanómetros bautizado como A12 Bionic, lo que lo convierte en el procesador más poderoso del mundo al día de hoy. El A12 Bionic cuenta con procesamiento neuronal, y tiene 10 núcleos, más 8 núcleos independientes que se encargan del procesamiento neuronal que son capaces de realizar hasta 5 billones de procesos por segundo.

La inteligencia artificial vuelve a ser protagonista, y está presente desde el procesador para aprender más y más del uso del usuario y así ofrecer un rendimiento superior dependiendo las necesidades de cada uno. El A12 Bionic promete también mejoras importantes en realidad aumentada, con ARKit 2, por lo que no solo se verá mucho más real toda esta tecnología, sino que también será más rápida.

Los nuevos iPhone estarán en preventa empezará el 19 de octubre y llegará el 26 de octubre a las tiendas en versiones de 64, 256 y 512 GB, y sus precios serán los siguientes:

 

iPhone Xs

  • 64 GB: 999 dólares
  • 256 GB: Por confirmar
  • 512 GB: Por confirmar

iPhone Xs Max

  • 64 GB: 1099 dólares
  • 256 GB: Por confirmar
  • 512 GB: Por confirmar

 

PC World México.

Biometría, el futuro de la autenticación y seguridad digital

El despliegue de sistemas de autenticación biométrica en los dispositivos móviles se ha convertido en tendencia en el nuevo entorno digital. Por mencionar un ejemplo, hace tan sólo unos meses, Apple lanzaba Face ID, un nuevo sistema de autenticación basado en el reconocimiento facial. La implementación de estas tecnologías de identificación biométrica es una práctica cada vez más generalizada en el actual ecosistema móvil, desplazando a métodos más tradicionales basados en contraseñas alfanuméricas y optimizando los niveles de seguridad.

Si bien es cierto que algunos de estos nuevos formatos de autenticación aún suscitan algunas dudas relativas a la seguridad y privacidad, es evidente que ofrecen mayor protección al usuario, facilitan el acceso a sus dispositivos, ahorran tiempo y evitan errores o pérdidas de contraseñas.

No en vano, las previsiones indican un crecimiento exponencial entre los usuarios respecto a la adopción de estos sistemas de identificación basados en biometría. Sin duda, avanzamos hacia una nueva era en la seguridad digital de nuestros dispositivos.

Ahondando un poco más en esta cuestión de la seguridad, en el centro de toda esta vorágine de innovación tecnológica, la biometría de voz se presenta como uno de los sistemas de autenticación más seguros. La voz es el parámetro biométrico más sencillo, rápido y seguro para el consumidor debido a que utiliza la huella de voz única del usuario para la identificación. Esto es así porque la tecnología de voz es mucho más complicada de vulnerar que otros métodos de autenticación.

Hemos presenciado cómo las brechas en los sistemas brindan a los cibercriminales la posibilidad de acceder a nuestra información personal y, por ende, a nuestra identidad. No obstante, los datos de voz, hasta la fecha, son muy difíciles de hackear para los ciberdelincuentes. En consecuencia, la tecnología del reconocimiento del habla ofrece una mejor precisión y mayores niveles de seguridad que las contraseñas, pines o preguntas de seguridad, y puede detectar grabaciones de habla real en vivo y en directo, propiciando que, en caso de una brecha, los datos resulten inútiles para los ciberdelincuentes.

Otro dato interesante es que la biometría de voz analiza cientos de parámetros únicos en la voz de cada usuario como el ritmo del habla o la entonación para evaluar una voz y compararla con una huella vocal.

Además, esta tecnología evita el fraude y reduce el riesgo de vishing o suplantación de identidad, permitiendo a las organizaciones optimizar la experiencia de usuario, reducir costos y mejorar la satisfacción de los clientes.

No cabe duda de que la constante evolución de los dispositivos móviles está generando una revolución en los sistemas de identificación. Los métodos de autenticación tradicionales basados en contraseñas ya están siendo reemplazados por otros formatos más ágiles, seguros y sencillos para el usuario y más complejos para los ciberdelincuentes. Bienvenidos al futuro de la seguridad digital.

 

Por: Marco Piña, Director de Nuance Enterprise Iberia.

Forcepoint lanza nueva unidad de negocios para Infraestructura Crítica

Forcepoint anunció la creación de una nueva unidad de negocio para cumplir específicamente con los desafíos de seguridad que enfrentan los proveedores de infraestructura crítica en el sofisticado panorama actual de las amenazas cibernéticas.

La nueva unidad de Infraestructura Crítica de Forcepoint aprovechará el conjunto total de capacidades de la división de Gobiernos Globales y Seguridad Empresarial de la compañía para brindar productos de seguridad cibernética, que se encuentran al nivel del Departamento de Defensa de Estados Unidos para la detección de amenazas internas, mejoras en la seguridad de datos y protección avanzada contra amenazas a la infraestructura crítica. Inicialmente, la empresa centrará sus esfuerzos en las organizaciones que utilizan Sistemas de Control Industrial (SCI), como la energía, el petróleo, el gas y la fabricación de nivel crítico.

La compañía ofrecerá una cartera de productos integrados de seguridad cibernética basados en el comportamiento humano y contenido para el espacio industrial. Se centrará inicialmente en soluciones de seguridad de redes diseñadas para brindar más visibilidad sobre amenazas que enfrentan los sistemas de control industrial.

Conectar tecnología operativa (OT) como sistemas de control industrial (SCI) y sistemas de control de supervisión y de adquisición de datos, ( SCADA) a la red de TI, puede ofrecer nuevos niveles de funcionalidad, ahorro de costos y transparencia para aprovechar los macrodatos y las conclusiones del análisis de datos. Depender de los dispositivos conectados también expande exponencialmente la zona de ataque del entorno de OT dentro de la infraestructura crítica.

La combinación de intrusos sofisticados que entienden cómo alterar un proceso físico, con una frecuencia de ataques dirigidos a usuarios con acceso acreditado a información confidencial agravan los desafíos que enfrentan los directores de seguridad de la información y los operadores de plantas industriales para definir la propiedad de estas áreas.

Según Gartner, e 2021, el 70% de la seguridad de OT será administrada directamente por los departamentos gestionados por la Dirección  de información, dirección de seguridad de la información o director de seguridad, en comparación con el 35% actual.

Las soluciones de infraestructura crítica de Forcepoint se adaptarán para cumplir con los requisitos de contenido de los entornos industriales, proporcionando segmentación segura para satisfacer las necesidades operativas, como socios proveedores que requieren acceso remoto, y una línea de referencia para monitorear amenazas en entornos industriales.

La solución de Forcepoint permite a los operadores de infraestructura crítica contar con la seguridad de un firewall o la transferencia de datos unidireccional de manera segura a áreas más sensibles, al mismo tiempo que garantiza el cumplimiento de estándares tales como NERC-CIP, NEI-08-09 y ISA/IEC 62443.

 

10 tecnologías que impactarán en los negocios a corto plazo

La Comunidad de Tecnología Emergente de CompTIA está fomentando la adopción de tecnologías nuevas y emergentes para mejorar los resultados en negocios de una manera racional y reflexiva que tenga sentido para empresas y clientes por igual, como con una visión de cómo crear nuevas oportunidades y transformar operaciones de negocios.

“El reto para muchas organizaciones consiste en separar lo exagerado de la realidad, así como identificar las nuevas tecnologías que hacen el mayor sentido de ellas mismas”, comentó Estelle Johannes, Enlace del Personal con la Comunidad de CompTIA.

Entre todas las innovaciones que generan ruido en 2018, CompTIA ha identificado a 10 con el potencial de hacer el mayor impacto inmediato en operaciones comerciales para clientes y crear oportunidades de negocio para compañías.

  1. Internet de las Cosas
  2. Automatización
  3. Inteligencia Artificial
  4. Realidad Aumentada / Realidad Virtual
  5. 5G Inalámbrico
  6. Impresión 3D
  7. Drones
  8. Biometría
  9. Cadena de Bloques (Blockchain) –
  10. Informática Cuántica. La computación utilizando fenómenos cuánticos mecánicos

“Se está buscando cortar a través del sensacionalismo del consumidor y construir prácticas en torno a dichas tecnologías que proporcionen extensiones rentables a corto plazo para sus negocios,” comentó Jay McBain, Analista Principal de Canales Globales de Forrester y Vicepresidente de la Comunidad de Tecnologías Emergentes de CompTIA. “Estas 10 tecnologías fueron clasificadas por socios comprometidos con clientes y que encuentran nichos de mercado interesantes.”

Por su parte, Scott Zahl, Director Ejecutivo de Habilitación de Socios Globales de Ingram Micro Inc., y miembro de la Comunidad de Tecnologías Emergentes, comentó que las tecnologías emergentes están cambiando el panorama empresarial y permitiendo que personas y organizaciones se comprometan, aprendan, sirvan y crezcan en nuevas maneras. “Estas tecnologías son transformadoras y traen con ellas una tremenda oportunidad para que el canal dirija y funja como el asesor de confianza.”

La Comunidad de Tecnologías Emergentes de CompTIA está presidida por Michael Haines, Director de Estrategia de Incentivos para Socios y Diseño de Programas en Microsoft.

Otros miembros del grupo de líderes de la comunidad son Ted Cole, Vicepresidente y Socio de Optimización de Relaciones de SaaSMAX; Paul Cronin, Facilitador de Excelencia de Cronin Corp. Business Consulting; Suzanne Edwards, Directora General de Enlighten; Julia Moiseeva, Directora de FinTest, Ltd.; y David Tan, Director General de Tecnología y Co-Fundador de CrushBank.

La comunidad está desarrollando orientación para organizaciones sobre los factores a considerar al momento de revisar cuáles tecnologías emergentes son las mejores para ellas, ya sea como vendedor de soluciones de tecnología o como consumidor de tecnologías emergentes. Esto incluye examinar las competencias y dependencias que necesitarán conocer antes de poder comprometerse adecuadamente con las tecnologías emergentes.

Panasonic apuesta por el mercado de energía limpia y retail

Panasonic cumple 100 años de existencia, 40 años de presencia en México y lo celebra impulsando diferentes divisiones de negocio, donde se destaca la creación de energías limpias y soluciones B2B, presentadas en una exhibición dentro del World Trade Center, de la Ciudad de México.

“La empresa empezó desarrollándose en una industria doméstica, pero gracias al apoyo de los clientes y usuarios de todo el mundo, hoy, 100 años después, Panasonic ha llegado a ser una multinacional que aborda un gran número de verticales”, comentó Kazuhiro Tsuga, CEO de Panasonic.

La compañía japonesa se enfocará en soluciones para la industria de manufactura con tecnologías de generación, gestión y ahorro de energía, sistemas de extracción de aire e iluminación. “Hoy en día Panasonic se enfoca cada vez más con áreas como energía y servicios. Tenemos que atender a los problemas de sociedad y necesidades de los usuarios. Esta es la idea básica que tenemos y el reto hacia los próximos 100 años”, comentó Yoshihiro Kanamaru, Director General de Panasonic de México.

Ofrecerá soluciones efectivas para resolver problemas en las operaciones de los negocios como energía limpia a través de paneles solares de sistema fotovoltaico, principalmente para el sector industrial, sistemas de enfriamiento y aire acondicionado que además de ahorrar energía, ofrece sistema de purificación de aire.

 

Para retail

Desde la adquisición de Hussmann, Panasonic ha estado trabajando en el concepto Smart Locker LastMile Hub, una solución basada en tecnología de Internet de las Cosas que ayuda a los minoristas a resolver el proceso de entrega de comestibles refrigerados y centralizados. Esta solución consiste en un sistema de tres gabinetes (congelador, refrigerado y temperatura ambiente) ubicados al exterior del establecimiento, dentro de los cuales el supermercado deposita los alimentos y víveres que un cliente solicita a través de una aplicación.

Posteriormente, utilizando un smartphone y a través de la misma aplicación, el cliente abre la cerradura IoT del gabinete asignado y recoge su pedido en el horario de su preferencia. A la par, esta solución reduce costos de operación de los minoristas y asegura al consumidor que su pedido estará disponible de acuerdo a sus necesidades de tiempo, ya sea con alimentos frescos, congelados o refrigerados, según sea el caso.

Self Check-Out Kiosk

Para complementar esta automatización, presentó el punto de venta Self Check-Out Kiosk, en el que el propio consumidor puede escanear, pesar y pagar sus productos en una tienda de autoservicio. Se trata también de una completa solución en la que Panasonic provee todo el hardware y software, además de los servicios de integración, instalación y soporte.

“Estamos enfocando estas soluciones como el segundo pilar de crecimiento para Panasonic. Mediante el desarrollo de estas áreas de negocio queremos ayudar a las empresas con sus operaciones y cumplir con nuestro deber de contribuir a la sociedad misma”, agregó Kanamaru.

 

 

 

Señal acústica, nueva forma de robar el patrón de desbloqueo de un teléfono

Un nuevo ataque nombrado “SonarSnoop” reduce en un 70% el número de intentos para desbloquear un patrón. Mediante el ataque de canal lateral acústico es posible identificar el patrón de desbloqueo de un teléfono, según una investigación de la Universidad de Lancaster y de la Universidad de Linköping.

Un ataque de canal lateral es un tipo de ataque que no explota una vulnerabilidad en el dispositivo afectado, sino que obtiene información adicional que surge de la propia implementación de un dispositivo. En este caso, la señal acústica que se genera mediante la interacción del micrófono y el altavoz del dispositivo permite explotar información secundaria que, entre otras cosas, revelará el patrón de desbloqueo en el dispositivo.

“En la mayoría de los casos, los ataques de canal lateral son pasivos. Es decir que un atacante aprovecha información que surge naturalmente, como puede ser el sonido que emite un dispositivo como consecuencia de su funcionamiento. Sin embargo, esta es la primera vez que se demuestra la posibilidad de generar de manera activa un ataque de canal lateral acústico.”, comentó Camilo Gutierrez, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Todo comienza cuando el usuario instala una aplicación maliciosa en el dispositivo. La misma hace que el teléfono comience a reproducir una señal sonora que no está en el rango auditivo de los seres humanos (20 Hz – 20 KHz), con lo cual es imperceptible. Esta señal rebota en los objetos que rodean al teléfono creando un eco, el cual es registrado por el micrófono del dispositivo.

Calculando el tiempo que transcurre entre la emisión del sonido y el retorno de su eco o rebote a la fuente que lo emite es posible determinar la ubicación de un objeto en un espacio físico y también saber si existe movimiento; tal como funciona un sonar. Los investigadores fueron capaces de utilizar esta información para hacer un registro del movimiento del dedo de un individuo al momento de ingresar su patrón de desbloqueo, ya que con el micrófono del teléfono se grababan diferentes ecos que daban información sobre la posición del dedo. Esto fue posible cuando el teléfono estaba estático y lo único que se movía era el dedo.

De los cientos de miles de patrones posibles que un usuario puede llegar a dibujar, hay 12 que son los más comunes. Para la investigación se realizaron pruebas con diez voluntarios a los cuales se solicitó que dibujen cada uno de estos 12 patrones. Luego, probaron distintas técnicas para reconstruir el movimiento del dedo a partir del análisis del sonar, lo que derivó en un algoritmo que reducía a 3.6 los patrones más frecuentes que se utilizaron durante las pruebas.

“Si bien el ataque SonarSnoop no tiene una precisión fina, reduce en un gran porcentaje las posibilidades de identificar un patrón de desbloqueo. En el futuro es posible que el rendimiento pueda mejorar y que surja un nuevo tipo de amenaza. Si bien esta investigación demuestra que es posible que se implementen este tipo de ataques, aún no hay amenazas que lo implementen. Sin embargo esto demuestra la importancia de contar con una solución de seguridad en los dispositivos móviles para reducir los riesgos de infectar el sistema con cualquier tipo de amenaza”, concluyó Gutierrez.

Preguntas que debe hacerse al diseñar un Centro de Datos

Con las necesidades de ancho de banda impulsadas por tendencias como 5G, big data y la Internet de las Cosas (IoT), el centro de datos ha tenido que evolucionar. Hoy vemos un cambio en la forma en que las organizaciones ven, crean, planifican y diseñan sus centros de datos. Por ello, aunque hay organizaciones que han comenzado a migrar sus centros de datos a ubicaciones alquiladas o en la nube pública, cuando las organizaciones deciden construir su propio centro de datos, las instalaciones deben ser más eficientes y lograr una mayor densidad.

“Sin duda, el Centro de Datos es el alma de las operaciones de redes de cualquier empresa impulsando los datos desde y hacia los usuarios, dispositivos de almacenamiento y a la red mundial”, menciona James Donovan, VP de la Academia de Infraestructura de CommScope. “Aunque son muchas los temas y tendencias que rodean a los Centros de Datos, como la administración de su red o las estrategias de densidad y migración; al considerar el diseño de éstos hay aún algunas preguntas que siguen sin respuestas”.

La demanda de ancho de banda en los centros de datos va en aumento. Los usuarios nunca habían necesitado, ni esperado, más de ellos: más velocidad, menor latencia, mayor conectividad en cualquier lugar y momento. Sin embargo, aunque al principio las preguntas para diseñar un centro de datos puedan parecer básicas, son igual de importantes para su correcto funcionamiento desde el primer día.

“Preguntas tan simples como ¿dónde debo ubicar mi centro de datos? ¿qué tamaño debe tener? ¿qué tecnologías debo utilizar? ¿qué consumo de energía es el esperado? ¿cuáles son los estándares que hay que considerar?, parecen muy obvias, sin embargo, se complican cuando cada una de ella conlleva más cuestionamientos para hacer un centro de datos eficiente”, añadió James Donovan.

No obstante, los cambios dentro del entorno del centro de datos son tan frecuentes y rápidos que los administradores a menudo se ven obligados a rediseñar o adaptar sus centros de datos. Lo que plantea otro tipo de preguntas que tanto operadores, como administradores, deben hacerse y responder antes de comenzar el rediseño:

  • ¿Debo seguir utilizando las mismas soluciones?
  • ¿Qué opciones de mayor densidad están disponibles?
  • ¿Cuál es la arquitectura de la red que mejor se adapta a mis nuevas necesidades?
  • ¿Qué capacidad de red y velocidad necesito? ¿Cómo puedo planificar la migración a la nueva tecnología en el futuro?
  • ¿Qué nuevas normas debo conocer y cómo migro a las mismas?

Sin contemplar estas preguntas, los administradores se encontrarán reaccionando a eventos y avances tecnológicos en cuanto ocurran, en lugar de implementar una estrategia que mantenga al centro de datos listo para los próximos años. Para hacer frente a los desafíos actuales y futuros, la infraestructura de los centros de datos debe ser flexible y fácil de gestionar; esto solo podrá lograrse si desde su diseño se responden las preguntas que facilitarán conocer las necesidades de cada centro de datos.

“El diseño de infraestructura de un centro de datos es completamente diferente del diseño de cableado estructurado tradicional para edificios y campus universitarios, por ejemplo. Incluso un diseñador experimentado deberá familiarizarse con las normas específicas y los nuevos estándares, las innovaciones en arquitecturas y tecnologías para centros de datos. Integrar las diversas tecnologías, combinar los diferentes tipos de cableado y, sobre todo, asegurarse de que todo el sistema funcione de manera confiable, crea un conjunto de tareas complejas que podrán realizarse de manera más sencilla si se responden las preguntas de cada etapa de desarrollo del centro de datos”, finalizó James Donovan, VP de la Academia de Infraestructura de CommScope.

 

¿Qué tan fácil es hackear un dispositivo de IoT?

La digitalización está progresando y con ella también Internet de las Cosas, IoT. Los dispositivos inteligentes se comunican entre sí y conectan en red incluso en áreas muy sensibles, para facilitar la vida de los usuarios. Sin embargo, también tiene una desventaja, ya que en los últimos meses un gran número de ciberataques han demostrado el peligro que puede surgir de estas redes cada vez más amplias. Pero, ¿qué tan fácil es hackear un dispositivo de IoT?

En resumen: es comparativamente simple. Una vez que los ciberdelincuentes descubren dispositivos de IoT vulnerables, sólo necesitan saber cómo hackear el dispositivo, y eso es sorprendentemente rápido. La forma más fácil de ingresar un dispositivo inteligente es utilizar el método de fuerza bruta para determinar la contraseña o utilizar los datos de inicio de sesión predeterminados de fábrica. Los botnets que pueden conseguirse en lo que se denomina “la red oscura” facilitan la infección de miles de dispositivos de una sola vez. Porque está claro que muchos fabricantes usan los mismos datos de inicio de sesión estándar para todos sus dispositivos por razones de costo, en lugar de definir una contraseña diferente para cada uno.

 

¿Qué podemos aprender del pasado?

Lo primero que pensamos es que los dispositivos de IoT nunca han sido realmente seguros. Y es obvio que ciertos riesgos se intensificarán. Una de las peores amenazas en Internet de las Cosas en los últimos dos años ha sido el BotnetMirai, que infectó miles de dispositivos inteligentes al desencadenar ataques DDoS masivos usando inicios de sesión estándar.

Se ha demostrado que los productos chinos baratos, como las webcams, se encuentran entre los dispositivos de IoT más vulnerables.

La mayoría de estos son productos que únicamente deberían usarse en un entorno aislado. Desde que se publicó el código fuente de Mirai, prácticamente todo el mundo puede operar su propio botnet IoT o reescribir el código de programación arbitrariamente, por lo que han surgido numerosas mutaciones de Mirai. Otras formas de infectar un dispositivo de IoT son mucho más complejas y sólo están disponibles por un costo alto y, por lo tanto, son menos comunes. La ingeniería inversa del firmware o del sistema operativo requiere profundos conocimientos técnicos e inversiones de tiempo. Sin embargo, aquí es exactamente donde se pueden aplicar las estrategias de seguridad.

¿Qué hacer al respecto?

Una solución posible y efectiva para mejorar la seguridad en IoT sería permitir a los usuarios cambiar fácilmente los datos de inicio de sesión para sus dispositivos inteligentes. Esto sólo ayuda con los métodos más simples utilizados por los hackers, pero estos han sido y son, precisamente, los más utilizados.

Por ejemplo, los fabricantes podrían “forzar” a sus clientes a cambiar los datos de inicio de sesión de sus dispositivos haciendo que la entrada de una contraseña única y “sólida” sea un paso obligatorio en la puesta en marcha inicial del dispositivo. De hecho, cambiar los datos de inicio de sesión reduciría significativamente la cantidad de dispositivos “vulnerables” y haría que a los hackers y bots les resultara mucho más difícil ingresar a los dispositivos de IoT.

Otra de las alternativas es que los fabricantes de dispositivos IoT podrían asignar una contraseña única y generada aleatoriamente a cada dispositivo y enviarla al cliente junto con el dispositivo.

 

El problema de las contraseñas

Integrar la seguridad en los dispositivos desde el principio es más difícil y tedioso de lo esperado. Esto se aplica igualmente a los dispositivos IoT destinados a usuarios finales que a aquellos utilizados en las empresas. Por lo tanto, sería hipócrita, criticar a todos los fabricantes de dispositivos IoT.

Un ejemplo: cifrado. Existe la capacidad de cifrar datos que un dispositivo IoT recopila mientras está en el dispositivo y también cuando se envía a otro dispositivo (o se analiza en la Nube). En lo que respecta al cifrado, hay muchas recomendaciones muy buenas sobre qué algoritmos son adecuados y están disponibles con qué longitudes de clave. Además, hay varias soluciones de cifrado de código abierto. Pero es mucho más difícil proteger y administrar las claves asociadas a él, y la administración insuficiente de claves invalida todo el proceso de cifrado.

Una clave mal administrada puede inutilizar los datos cifrados, por ejemplo, si la clave utilizada para encriptar los datos en cuestión no puede estar disponible dentro del proceso de autenticación. La gran cantidad de dispositivos en IoT aumenta exponencialmente los desafíos de encriptación y administración de claves.

El punto brillante

Además, debe decirse aquí que, desafortunadamente, muchos dispositivos IoT son bastante débiles para una encriptación poderosa. Con poco espacio de almacenamiento, una buena implementación de SSL generalmente no es posible.

Los fabricantes de dispositivos IoT, especialmente para clientes finales, continuarán llevando dispositivos al mercado que están mal o nada seguros.

Es así, no hay nada que podamos hacer al respecto. Sin embargo, la conciencia de la seguridad del consumidor está creciendo (aunque aún no es lo suficientemente fuerte como para cambiar el comportamiento de compra). Las características más geniales y un precio asequible siguen siendo los factores decisivos para comprar este tipo de dispositivos.

Por primera vez, Amazon Echo y Google Home se encuentran en la parte superior de la lista de deseos de los consumidores conocedores de la tecnología. Por otro lado, existe un pequeño pero creciente grupo de consumidores que tienen serias dudas sobre la seguridad de estos productos. Especialmente con dispositivos que escuchan casi todo lo que se habla dentro de su rango. Las primeras grandes olas de ataques, como el BotnetMirai, han atraído la atención de expertos en seguridad.

El consumidor promedio aún no es consciente del alcance de este tipo de ataques. Sin embargo, la presión sobre los fabricantes está creciendo y con ella la demanda de mejores medidas de seguridad y protección de datos.

 

Por David Montoya, Director de Canales de Paessler Latinoamérica.

Economía de las aplicaciones: la vida entorno a las apps

En palabras de Jacqueline Leo, editora en jefe de The Fiscal Times y ex vicepresidente del Reader’s Digest, “hay una aplicación móvil para casi cualquier cosa que quieras hacer, cualquier situación que te enfrentas”. Esta afirmación no está nada alejada de la realidad; buscar trabajo, realizar compras, hacer una reservación, jugar y atrapar un pokémon, editar videos y fotografías, tomar un taxi e informarse, así como postear, chatear y tuitear, entre otras actividades, se pueden realizar a un “touch” de distancia.

En un contexto de hiperconectividad, redes sociales y geolocalización, los consumidores se encuentran inmersos actualmente dentro de lo que se denomina la “economía de las aplicaciones”, una tendencia en crecimiento donde el avance del software y el aumento del número de apps móviles están redefiniendo las reglas del negocio y cambiando los hábitos de consumo. Esto incluye la venta de aplicaciones, ingresos publicitarios o relaciones públicas generadas por apps gratuitas y los dispositivos de hardware en los que se ejecutan.

Según Gartner, en 2017 se registraron más de 270 mil millones de descargas de apps en todo el mundo. Además, el mercado global de aplicaciones móviles está valuado en 85 mil millones de dólares y genera un millón de empleos.

Ante este escenario, es sorprendente como la “app economy” ha transformado el sector de la movilidad. En sus inicios, las operadoras de telecomunicaciones fueron las primeras protagonistas, más tarde irrumpieron los dispositivos móviles y finalmente el negocio del futuro: aplicaciones y contenidos.

Sin importar si la compañía es del sector financiero, turismo, retail, transporte, tecnología, educación, o gobierno, los grandes jugadores tienen aplicaciones móviles. Facebook, Tinder, Uber, Airbnb, YouTube, Instagram, Netflix, Twitter, Spotify y WhatsApp son solo algunos ejemplos del poder de las apps y la poderosa actividad económica (empleos, inversiones e innovación) que generan a su alrededor.

Actualmente, las apps son la tarjeta de presentación de las organizaciones ante clientes actuales y potenciales usuarios, así como una prioridad en su agenda hacia la Transformación Digital y redefinir su modelo de negocio.

Según datos de la consultora App Annie, se espera que para 2020 los ingresos por aplicaciones móviles alcancen los 189 mil millones de dólares, lo cual representa una gran oportunidad tanto para las empresas que las diseñan como para las plataformas que las distribuyen (App Store, Google Play, Microsoft Store, etc.).

Además, App Annie destaca que en promedio los consumidores móviles utilizan más de 30 aplicaciones al mes, por lo que entre un mar de apps, es clave posicionarlas correctamente en las tiendas para conseguir mayor activación y descargas, así como proveer una fácil e increíble experiencia de usuario.

Por otra parte, las organizaciones empiezan a desarrollar apps dirigidas a su capital humano, lo que ha provocado la evolución de la intranet para ciertos procesos de administración y comunicación interna hacia los dispositivos móviles (smartphones, wearables y tablets).

Sin embargo, no todo es miel sobre hojuelas. La consultora tecnológica Bluumi compartió que 4 de cada 5 aplicaciones acaban siendo borradas por falta de espacio, mala experiencia de usuario (UX) o porque no aportan valor a los usuarios; además, 95% de las apps son eliminadas a los 15 días.

Esto se debe a 10 errores que cometen comúnmente las organizaciones al momento de desarrollar aplicaciones móviles:

  1. No satisfacer una necesidad.
  2. Fallas en el motor de búsqueda.
  3. Llegar a su objetivo en más de tres toques.
  4. Ocupar mucho espacio de memoria.
  5. Poca o nula personalización.
  6. Realizar micropagos a la hora de usar la app.
  7. Alto consumo de batería y ralentización del dispositivo.
  8. No garantizar la seguridad de la información.
  9. Mal servicio de atención al cliente.
  10. Exagerado envío de notificaciones.

Como dato curioso y a la vez alarmante, seis de cada 10 aplicaciones que existen en App Store nunca han sido descargadas, mientras que por cada aplicación exitosa como Waze o LinkedIn, hay decenas de miles que perecen con la misma velocidad y anonimato con que nacieron.

Para que no suceda esto, se recomienda al momento de desarrollar una app:

  1. Optimizar entrega de contenidos y visualización de imágenes.
  2. Administrar bases de datos y controlar sistemas de seguridad.
  3. Analizar datos para determinar las necesidades de los usuarios y diseñar para ellos.
  4. Conocer las plataformas móviles de las APIs.
  5. Crear una interfaz de usuario sencilla y amigable y sencilla.
  6. Brindar una fascinante experiencia de usuario.
  7. Realizar desarrollos multiplataforma.
  8. Estar atentos durante todo el ciclo de vida de la aplicación móvil (lanzamiento, crecimiento, cima, decaimiento y muerte).

Por otro lado, será clave elegir el nombre, identificar competidores, crear un icono, seleccionar categoría de la aplicación, redactar una buena descripción, agregar screen shots e invertir en marketing digital. En resumen, una aplicación debe ofrecer valor, información confiable y una satisfactoria UX.

Datos de eMarketer señalan que México ocupa el segundo lugar en Latinoamérica respecto al uso de aplicaciones en dispositivos móviles, solo por detrás de Brasil, por lo que ya no hay vuelta atrás de las empresas mexicanas en su camino hacia la digitalización. Y tú, ¿ya estás listo para integrarte y sacar provecho de la economía de las aplicaciones?

 

Por: Mario A. Esparza, Coordinador de Contenidos de GS1 México.

Los cuatro retos del Big Data y Analytics, según Gartner

En el marco del primer Gartner Data & Analytics Summit en la Ciudad de México, la consultora destacó que con el surgimiento de tendencias como Internet de las Cosas, Inteligencia Artificial y aprendizaje automático como nuevos pilares de los negocios digitales, los datos y analíticos se están volviendo dominantes, sustentando todos los modelos de negocio.

Para alcanzar este objetivo, los analistas de Gartner señalaron que aún existen cuatro retos que los especialistas deben superar: confianza, diversidad, complejidad y conocimiento.

Donald Feinberg, vicepresidente y analista de Gartner, comentó que existe una oportunidad sin precedentes para ampliar los datos fundamentados y acelerar los descubrimientos analíticos.

 

Confianza

En un mundo en el que aumenta el fraude, la incertidumbre y las fake news, la confianza es un bien escaso pero crucial en los negocios digitales: nada funciona sin ella. Las empresas deben esforzarse por asegurar que todas las partes involucradas confíen en sus datos a la vez que deben permitir un nivel de observación y examen de sus datos que no existe en la mayoría de las organizaciones.

Las nuevas estrategias deben centrarse en la confianza en los datos. “Estas estrategias se basan en dos técnicas: crowdsourcing y automatización. Con el sistema de crowdsourcing, los usuarios etiquetan lo que hacen y proporcionan, durante el proceso, un registro del linaje de datos (Data Lineage). Así se crea un método más dinámico para confiar en los datos. La automatización se refiere al surgimiento de los catálogos de datos como una competencia crítica de la gestión de datos. Al adoptar estas dos técnicas, la confianza en los datos aumentará significativamente gracias a la capacidad de verificar su origen”, comentó Peter Krensky, analista investigador senior de Gartner.

 

Diversidad

La diversidad incluye algoritmos, personas y datos. Como nuestras opiniones y prejuicios se codifican en los algoritmos “las organizaciones deben crear métodos de verificación mejores para las suposiciones y datos usados en los algoritmos que permitan garantizar que sean justos e incluyan los valores atípicos”, afirmó Cindi Howson, vicepresidente de investigaciones de Gartner. “Eso se torna particularmente difícil cuando el sector tecnológico carece de diversidad y suele enfocarse solamente en las diferencias visibles, tales como el género. Además, es necesario que dejemos de integrar solo los datos a los que se accede fácilmente e integremos los datos pertinentes”.

 

Complejidad

La complejidad plantea un desafío porque es difícil comprender cabalmente la dinámica de los negocios y tener el tiempo necesario para responder de manera adecuada.

“Hoy, los líderes en datos y analíticas tienen la oportunidad de construir plataformas de datos y análisis precisas y exactas. Estas plataformas proveerán más contexto, gracias a la recopilación de datos integrales; mayor comprensión, gracias a un sistema de medición y clasificación sólido; y más tiempo para responder, gracias a los sistemas de baja latencia”, explicó Krensky. “Mayor contexto, comprensión y baja latencia transforman una complejidad abrumadora en una ventaja competitiva. Comprender el patrón que subyace a la complejidad acelera el tiempo de respuesta. Dominar esta complejidad es la clave del éxito de las iniciativas analíticas”.

 

Conocimiento

A medida que las empresas se fortalecen con equipos más diversos, que cuentan con datos más complejos, la necesidad de poder “hablar en el idioma de los datos”, de la misma manera, es mayor que nunca antes.

“Si no hay un lenguaje en común que sirva para interpretar los diversos datos de la organización, habrá problemas fundamentales en la comunicación cuando se empleen soluciones basadas en datos y analíticas”, afirmó Howson.

En la tercera encuesta anual de Gartner a los directores de datos, los consultados afirmaron que el obstáculo más grande para lograr el progreso mediante datos y analíticas es el escaso conocimiento sobre los datos. Los líderes en este campo deben aprender a tratar la información como una segunda lengua y el conocimiento es un elemento fundamental para la trasformación digital.

Gartner espera que, para 2020, 80% de las organizaciones ponga en marcha el desarrollo deliberado de competencias en el campo de los datos, tras admitir que hay una gran deficiencia.

“Desarrollar este tipo de conocimientos puede ser perturbador”, manifestó Howson. “Evaluar el conocimiento sobre datos de las personas que crean y consumen información es un paso fundamental para garantizar que la organización esté equipada con las habilidades adecuadas para satisfacer las necesidades presentes y futuras de la sociedad digital”.