Día: 22 agosto, 2017

Proyectan historia inspirada en Coyoacán en el Epson Mapping Challenge

En punto de las 8:30 de la noche del pasado viernes 18 de agosto, el jardín centenario en el Centro Coyoacán se congregaron varios asistentes para poder observar el mapping que se proyectaría en la fachada de la parroquia de San Juan Bautista, la intensa lluvia en la hora previa no hizo que los asistentes se fueran, los organizadores de la proyección en agradecimiento a la permanencia proyectaron por segunda vez el material audiovisual, la segunda proyección se realizó media hora después.

A través de un concurso, Epson realizó un Challenge donde varios equipos de producción audiovisual y de diseño presentaron sus propuestas de mapping, el ganador del concurso fue Dux Animation, compañía mexicana de animación, su propuesta artística audiovisual fue inspirada en el tema “Bordados de Luz, Historias de Coyoacán”.

El equipo creativo liderado por García Mino está compuesto por Ana Ballescá, Socia Fundadora y Productora Ejecutiva, Manuel González, Producción, Mariano Ruiz, Lead animator, Bernardo Juarez, Animador 3D, Carolina Escartín, Ilustradora, Omar Zuñiga, Animador 3D, Juan Montantes – Música y SFX, Rodrigo Ballescá – Ilustración y Roberto Arocha, Animador 2D, de DUX Animation. DUX es un estudio de animación mexicano, especializado en publicidad y video mapping.

“Estamos muy contentos y nos sentimos orgullosos con el reconocimiento, pues creemos que no sólo es para el estudio, pone en alto el nombre del talento mexicano y hace constar que somos de los mejores generando contenido a nivel internacional”, afirmó, Daniel García Mino, Socio Fundador y Director de Animación y creativo DUX Animation.

Historia que contó la proyección

El mapping fue proyectado con siete videoproyectores Epson L25000U, en donde se cuenta la historia en la época de la conquista en la zona de Coyoacán, después de la caída de Tenochtitlán, se convirtió en un territorio de mestizaje y continuó siendo un importante enclave cultural que participó en la conformación de la nación mexicana.

Gerardo Esquivel, Computerworld México

El pilar de la Inteligencia Artificial es la implementación automatización

En la actualidad, la competencia en el mercado es cada vez mayor, y los productos que ofrecen las empresas son más variados, los clientes o usuarios se vuelven cada vez más exigentes. Además de calidad y buenos precios en los productos, los consumidores también buscan un buen servicio al cliente, que además de hacerlos sentir atendidos, les brinde una experiencia diferente y satisfactoria en su compra.

Por esto, las empresas se enfrentan ahora a clientes informados, exigentes y con todas las herramientas a su alcance para mostrar sus inconformidades, reclamos, solicitar ayuda o sólo pedir informes. Además de esto, la comunicación se da a través de una gran diversidad de canales, y la ventanilla única de quejas se ha vuelto obsoleta; ahora debes responder a todo y por todos los medios posibles.

Ante este complejo panorama, las empresas están volteando con mayor frecuencia hacia las innovaciones tecnológicas que les permitan resolver de forma mecánica y automatizada a las inquietudes de los usuarios.

En este contexto, Zendesk, la desarrolladora de software para una mejor relación con los clientes, ha incorporado diversos productos a través de los cuales se brinda una respuesta eficaz y rápida a las dificultades que se enfrentan las empresas en el servicio al cliente.

Pensar en el cliente

Las empresas deben empezar a enfocar sus estrategias de servicio al cliente poniendo a sus consumidores en el centro de la ecuación. Esto significa utilizar las herramientas necesarias de Machine Learning e Inteligencia Artificial para concentrar la información de cada cliente y ofrecerle tanto las respuestas como los servicios más puntuales y eficientes posibles. De esta manera, los clientes sabrán que son importantes para la empresa y que serán atendidos por encima de sus expectativas, creando así un mayor compromiso y lealtad a largo plazo entre la compañía y los consumidores.

Establecer una estrategia de autoservicio

Es fundamental proporcionar a los clientes una plataforma de autoservicio que les permita entrar al portal Web de la compañía o hacer una consulta mediante redes sociales o cualquier otro medio de su elección, obteniendo una respuesta rápida y homogénea sin importar el canal. Para esto es fundamental establecer una estrategia de autoservicio que incluya la tecnología necesaria para conectar toda la información de cada cliente y ofrecerle las respuestas automatizadas más adecuadas, resolutivas y rápidas posibles.

Llevar el diálogo con el cliente al siguiente nivel

Además de utilizar herramientas de Inteligencia Artificial que permitan al cliente obtener respuestas eficientes, resolutivas y automatizadas con la mayor rapidez, es fundamental mantener un nivel de compromiso con él que supere las expectativas de la Industria y de los consumidores.

Para esto es indispensable tener muy claras las necesidades de los usuarios y acompañarlos durante sus consultas en todo momento para que la conversación nunca tenga interrupciones ni deba reiniciarse si el cliente cambia de canal de atención. Esto quiere decir que, si entra al webchat, el bot para la atención al cliente pueda seguirlo durante todo el transcurso de su navegación de la página, y si Internet se cae y el usuario llama por teléfono, la conversación siga su curso justo donde la dejó sin tener que pulsar un número interminable de opciones de menú.

Al elaborar una estrategia de atención al cliente con Inteligencia Artificial con base en estos pilares, las compañías pueden establecer relaciones de compromiso con sus clientes mucho más duraderas, además de los beneficios que obtienen los departamentos de centro de contacto al incrementar su productividad y capacidad de respuesta con ayuda de la tecnología de una plataforma integral de soporte.

N. de P. Zendesk

Así burlan los hackers a los antivirus

La mayoría de las soluciones antivirus (AV) tradicionales han dependido de firmas estáticas para identificar el malware conocido. En consecuencia, los creadores de malware comenzaron a utilizar herramientas para ofuscar el código de su software a fin de evitar dicha firma basada en la detección y obstaculizar el análisis estático (humano).

Estas herramientas de ofuscación han proliferado en los últimos años; de hecho, hoy existe un gran número de ofertas a las que incluso los autores de software legítimo recurren para al menos dificultar la aplicación de la ingeniería inversa a sus productos. Si bien los métodos y los resultados varían, la intención final ahora es dificultar la lectura del código (contrario a la intención original del diseño detrás de los empacadores, o llamados packers, tradicionales que era reducir el tamaño del archivo de un ejecutable).

Forcepoint examinó una gama de técnicas que se utilizan normalmente para evitar que los productos antivirus las detecten, así como la disponibilidad de estas herramientas. Las presentamos a continuación.

 

La seguridad a través de la oscuridad

La ofuscación tiene una larga historia dentro de los lenguajes interpretados. Ya que la gente espera tener experiencias más completas cuando navega por los sitios web, los cuales se entregan en JavaScript y otros lenguajes en el lado del cliente, lo que motiva a los autores legítimos a desarrollar métodos para proteger y comprimir el código fuente.

Por otro lado, la ofuscación maliciosa normalmente va más allá y encripta el código fuente del script para que se abra en el momento en que el script se ejecuta. Estas técnicas ocasionalmente producen resultados inusuales, como en el ejemplo que se muestra a continuación.

Cuando las aplicaciones .NET se convierten en un lenguaje intermediario y después se compilan durante el tiempo de ejecución, su código se expone a muchos de los mismos riegos (desde el punto de vista del autor) que los lenguajes de scripting interpretados: los ejecutables .NET pueden descompilarse en una aproximación cercana del código C#/VB original de manera relativamente sencilla.

En este punto cabe señalar que no toda la ofuscación, incluso la encriptación más avanzada vista normalmente en las muestras maliciosas, es mala. 

 

Empacadores

El principal tipo de herramienta que se utiliza para ofuscar y ‘proteger’ los binarios compilados son los empacadores, o packers. Los empaquetadores tradicionales son archivos que se auto extraen de forma efectiva, o al menos funcionan en términos ampliamente análogos. Además de los datos comprimidos/ofuscados (el binario original de la forma ofuscada), contienen un ‘cabo’ desofuscador que, al ejecutarse, desofusca el binario y va a su punto de entrada restaurado.

Una coincidencia importante que comparte esta categoría es que el binario original se recupera completamente con la desofuscación y está disponible para realizar una mayor reingeniería inversa. Por tanto, este tipo de empacador es fácilmente frustrado por un punto de interrupción bien ubicado dentro un depurador poco después de que se completa la desofuscación cuando el control de ejecución se transfiere al binario original.

Uno de los empacadores más básicos que se utiliza actualmente es el UPX de código abierto que se desarrolló en los noventas, el cual utiliza un algoritmo de compresión extremadamente sencillo, que no está diseñado para la ofuscación.

Otro ejemplo que se emplea regularmente es ASPack, el cual se enfoca más en la ofuscación y la seguridad en lugar de la compresión. Algunas versiones de ASPack utilizan el código de auto modificación que dificulta aún más el uso de los puntos de interrupción, pero al final del día se aplican los mismos principios para desempacarlo.

Empacadores basados en la visualización

Otra categoría del empacador, o más bien ofuscador, pues este tipo aumenta el tamaño del archivo en lugar de reducirlo- son los ofuscadores basados en la visualización. Estos funcionan destruyendo el binario original y creando un nuevo binario funcionalmente equivalente mediante el uso de bytecode a la medida, el cual se ejecuta sobre un intérprete ofuscado a la medida.  La conclusión es que el binario original nunca se restaura (en contraste con el tipo previo de ofuscadores) y permanece ofuscado durante su ejecución. Las desventajas obvias son el tamaño del archivo considerablemente mayor y la baja velocidad de ejecución.

Un ejemplo notable de esta categoría es VMProtect. La desofuscación manual de los binarios VMProtect es muy complicada: uno tiene que decodificar cada bytecode por cada binario protegido pues se generan de manera aleatoria cuando un binario se ofusca y, por tanto, no es constante en los binarios ofuscados.

Sin embargo, con perseverancia es posible decodificar cada instrucción del bytecode ya que el stack basado en el traductor es muy sencillo (a pesar de las inútiles instrucciones utilizadas para frustrar los intentos de ingeniería inversa).

Curiosamente, VMProtect parece no ser muy popular entre los autores de malware a mediados de 2017: Forcepoint Security Labs desarrolló un método genérico para detectar binarios empacados VMProtect y descubrió que las muestras identificadas no eran típicamente malware, y que la mayoría estaba integrada por adware y software fraudulento para juegos.

 

Forcepoint.

Disponibilidad en la nube: ¿qué hacer y qué no hacer?

Según estimaciones de la consultora IDC, para el año 2020 el 40% de las 3,000 principales empresas en Latinoamérica verán sus negocios depender de la capacidad que tengan para crear productos, servicios y experiencias mejoradas digitalmente.

La presión por convertirse en negocios digitales estará cada vez más presente, pues es a través de la transformación digital que las organizaciones entrarán en la nueva competitividad empresarial con alcance global, siempre conectados, basados en la colaboración y centrados en el cliente.

Actualmente toda empresa que está en este camino, sabe que debe montarse en la nube para alcanzar los niveles de agilidad, escalabilidad y flexibilidad que necesita, pero la ecuación exitosa incluye también mantener una disponibilidad 24.7.365 de sus aplicaciones e información, sin importar dónde se encuentren.

Por ello, las organizaciones de TI reconocen que esta demanda de cero tiempos de indisponibilidad es como una expectativa básica de los clientes y usuarios, y por encima de ella, está la demanda de contar con una recuperación garantizada de sistemas críticos y datos, independientemente del lugar donde se encuentre.

Así que a continuación damos algunos tips para garantizar la disponibilidad en la nube.

 

Qué es lo que SÍ debe hacer 

  1. Comprender el concepto de nube. Como proveedores relacionados con los servicios de nube, comúnmente encontramos clientes que buscan migrar a la nube sin conocer realmente las implicaciones del modelo. Si bien montarse a este esquema les permitirá reducir costos y ser más ágiles, también conlleva toda una estrategia. Conviene dar el paso una vez que se comprenden a fondo sus características, para evitar poner en riesgo la disponibilidad del negocio en un momento dado.

 

  1. Definir el modelo de nube y lo que se migrará. Existen varias opciones de nube (pública, privada o híbrida) con las que las organizaciones encuentran el balance que cada una requiere entre seguridad, flexibilidad, etcétera. Sin embargo, es necesario hacer también una valoración de las aplicaciones e información que se quiere llevar a la nube, y considerar a qué tipo de nube se llevará, pues aspectos como su nivel de transacción con las máquinas virtuales y compatibilidad con el esquema de nube, entre otros, pueden afectar su disponibilidad.

 

  1. Contar con un proveedor de servicios adecuado. Para seleccionarlo, conviene considerar las necesidades particulares del negocio en cuanto a seguridad, velocidad en la entrega de información, flexibilidad y garantía de protección de datos en relación con el presupuesto asignado a la nube. Ya que todo negocio maneja información crítica y no crítica, el proveedor debe ofrecer los niveles de garantía de disponibilidad requeridos para cada caso. Asimismo, vale la pena considerar una revisión a fondo de las regulaciones en los países donde el proveedor de nube pública se encuentre.

 

  1. Poner atención a las políticas de disponibilidad para un adecuado respaldo y replicación de la información. Éstas se basan y reflejan en los acuerdos de niveles de servicio (SLA, por sus siglas en inglés) pactados con el proveedor, considerando las necesidades particulares del cliente en materia de sus aplicaciones, la información crítica y los servicios de alta disponibilidad, si es que los hay.

 

Qué es lo que NO debe hacer 

  1. Omitir la seguridad. Son bien conocidos los riesgos adquiridos al ceder a un tercero parte de la infraestructura de TI, datos, gestión de aplicaciones y más. La respuesta está en apoyarse en expertos, que tengan claro que el modelo de nube requiere nuevos enfoques para la protección de los datos. Además de cuidar el tema de accesos y permisos, es trascendental que se atienda también la seguridad de la información en reposo, para lo cual los respaldos que consideren cifrado de algoritmos AES 256 ayudan, pues garantizan que sólo quien tiene las contraseñas del cifrado puede tener acceso a los datos para su restauración.

 

  1. Quedarse con un solo tipo de nube. Por años, las organizaciones han sacado provecho de la nube privada (para sus centros de datos), pero actualmente el esquema híbrido (que contempla las nubes pública y privada, así como la infraestructura on-premise) lidera las estrategias pues toma lo mejor del nuevo modelo computacional y de las TI tradicionales para ofrecer servicios siempre activos y conectados en un marco seguro.

 

  1. Desatender la posibilidad de que surjan brechas. El que existan brechas entre los niveles de servicio que esperan las unidades de negocio y la capacidad que tienen las áreas de TI para entregarlos (es decir, lo que se conoce como brechas de disponibilidad), o aquellas en las que existe una pérdida de datos excesiva a causa de la falta de habilidad del área de TI de ofrecer la protección adecuada con la frecuencia necesaria (brechas de protección), implica costos por $427.4 millones de pesos (sólo en México), de acuerdo con el Reporte de Disponibilidad 2017 de Veeam Software. De manera que es necesario contar con tecnologías y procesos encaminados a salvaguardar los datos y sobreponerse aun en el caso de fallas o caídas sin impactar la entrega de servicios.

 

 

Por: Rodolfo Montes de Oca,

Ingeniero de Sistemas,

Veeam México.

Sigue existiendo brecha de género en la industria TI de México

La transformación digital y las buenas prácticas que está requiriendo personal más capacitado y enfocado a las nuevas tecnologías que exige la digitalización, donde diferentes empresas está apostando no sólo por innovación sino por tener equipos con mayor diversidad de género.

“Hay una gran cantidad de empresas que requieren de talento y conocen los beneficios de tener un equipo con diversidad, pero que tienen dificultad de encontrar buenos desarrolladores”, comentó Mariana Costa, Fundadora y CEO de Laboratoria.

Tal vez te interese: Carreras Tecnológicas siguen relacionadas con ‘actividades de hombre’

En México sólo 10 de cada 100 programadores son mujeres, destacando la importancia de cerrar la brecha de género creando mayor diversidad en empleos dentro del área TI. Estos números se deben en parte a que sólo 16% de las mujeres se gradúan de carreras ciencias, tecnología, ingeniería y matemáticas, conocidas como STEM, por sus siglas en inglés, en contraste con 39% de los hombres.

Sin embargo, según Laboratoria, ya existe una mentalidad de cambio por parte de empresas con sede en México, donde han mostrado interés en impulsar el gusto de las TI por parte del género femenino. Algunas de ellas son Accenture, Walmart, EY, Softtek, Nearsoft, Crowdbotics, Imagen Digital, Platzi, entre otras.

 

Vertiv lanza centro de datos pensado para las PyMES

Vertiv, antes Emerson Network Power, anunció lanzamiento del SmartCabinet en México. Se trata de una solución inteligente e integrada de infraestructura en un solo gabinete, el cual sirve para atender las necesidades de los centros de datos pequeños.

La suite incluye el equipo de potencia, gerenciamiento térmico, distribución de energía, monitoreo y la gestión de la infraestructura. De esta forma, garantiza la compatibilidad del sistema y mejora significatimente la velocidad de instalación en comparación con un enfoque tradicional, todo con una interfaz amigable al usuario, lo que optimiza la curva de aprendizaje.

El SmartCabinet fue diseñado para instarlarlo en pequeños lugares como tiendas y oficinas de las empresas medianas y pequeñas (PyMeS), centrales de telecomunicaciones, lugares de manufactura y control de automatización, almacenes y sitios móviles en donde no se cuenta con una sala de cómputo dedicada. Asimismo, podría ser utilizado en oficinas remotas de gobierno, instituciones educativas, salud, finanzas, tercerización de procesos de negocio, entre otra gama de mercados.

Los especialistas de la compañía explican que otras de las ventajas del SmartCabinet es la operación totalmente integrada, lo cual mejora el control de la temperatura, de la humedad y elimina el ingreso de polvo. Esto incrementa la vida útil de los equipos y su eficiencia, lo que optimiza de forma significativa la inversión. De manera opcional, se puede incluir una gestión centralizada de varios SmartCabinets gracias al Rack Data Unit Manager.

Por lo tanto, el SmartCabinet es la más innovadora solución de infraestructura para equipo de TI en centros de datos micro con espacio limitado, pero también para empresas que buscan actualizar rápidamente sus salas de servidores y nodos locales con el objetivo de respaldar un mayor procesamiento de datos para la entrega de contenido, como el exigido por la informática móvil y el internet de las cosas.

 

N. de P.

Qué representa la salida de Disney de Netflix para el mercado OTT

Hace algunos días, Disney anunció el retiro de sus contenidos de la popular plataforma de video streaming, Netflix. Este cambio no aplica de manera inmediata para todo el mundo, sin embargo, es un hecho que tarde o temprano así será.

Pero ¿por qué causó tanto revuelo y es relevante esta acción? Es importante porque nos está dando pistas del constante cambio y tendencias que está sufriendo el ecosistema competitivo de los contenidos.

Los cambios en las preferencias de consumo de contenidos de las nuevas generaciones están haciendo que las suscripciones a plataformas de video bajo demanda basadas en internet (OTT por sus siglas en inglés) crezcan rápidamente y obligando a cambiar los tradicionales modelos de distribución y consumo de contenidos audiovisuales.

Las plataformas OTT están adquiriendo tanta relevancia que las plataformas de TV de paga tradicional están empezando a integrarlos como parte de su oferta comercial.

No solo se trata de eso, sino que también las redes sociales más importantes están pasando de ser administradoras de contenidos generados por sus usuarios a comenzar a retransmitir contenido audiovisual, así como empezando a generar contenido propio.

México sigue esta tendencia tal que las suscripciones a servicios de video bajo demanda basados en internet alcanzaron una contabilidad de 7.4 millones de suscripciones al finalizar el segundo trimestre de 2017, un crecimiento de 25.6% respecto al año anterior y 12 veces la cifra de tan sólo un lustro atrás.

Esta creciente base de usuarios resulta del crecimiento de la penetración de internet entre la población, así como de la preferencia por las producciones originales exclusivas y de acceso ubicuo desde una diversidad de dispositivos conectados.

Con base en lo anterior y conforme los servicios OTT sigan adquiriendo relevancia los generadores de contenidos tenderán a salirse de plataformas de distribución para generar sus propias plataformas (como lo ha hecho Disney, Fox y HBO) y aquellas que solamente se dedicaban a distribuir empezarán a generar contenido propio. Esto último lo podemos ver en las estrategias de algunas de las empresas más grandes dentro de este mercado como Netflix, Hulu y Amazon.

No les sorprenda ver compañías que nunca se dedicaron a generar o distribuir contenidos empiecen a hacerlo y que compañías de OTT que hoy son punta de lanza en la distribución de contenido pierdan participación de mercado porque empresas que toda la vida los han generado los retiren de sus plataformas. Al final del día, movimientos como el que hizo Disney son apenas la punta del iceberg, debajo del agua todavía hay muchas estrategias y alianzas que nos recuerdan que el contenido sigue siendo el rey.

 

Por: Gonzalo Rojon, The Competitive Intelligence Unit i

Dell EMC distribuirá los servidores Bullion de Atos

Con el propósito de acompañar a los clientes en su transformación digital y en apoyar la enorme cantidad de información que hay en los negocios, Dell EMC contempla la comercialización de los servidores Bullion de alta gama de Atos (de 8 a 16 sockets x86).

Estos servidores, utilizados por más de 100 millones de usuarios finales en todo el mundo, están certificados por SAP y Oracle, y ahora completarán la cartera de servidores avanzados PowerEdgede de Dell EMC.

Además, ambas compañías colaborarán estrechamente en las actividades de venta y marketing para ofrecer soluciones de alto rendimiento en el campo del big data y el internet de las cosas (IoT), desarrollo de nubes privadas y soluciones basadas en SAP HANA.

“El acuerdo de revendedor Bullion refuerza la relación entre Dell EMC y Atos con el objetivo de ofrecer soluciones de alto valor añadido, innovadoras y líderes del mercado, que apoyen a las empresas en su viaje de Transformación Digital”, explica Eric Grall, vicepresidente ejecutivo y director de Operaciones Globales de Atos.

Por su parte, Ravi Pendekanti, vicepresidente senior de la División de Soluciones de Servidores EMC de Dell señala que: “En los últimos años, Dell EMC y Atos han trabajado juntos para combinar los servidores Bullion y las soluciones de almacenamiento unificado EMC de Dell para ofrecer una solución líder al mercado en el despliegue de los proyectos de misión crítica de SAP HANA. Ahora, Dell EMC podrá revender los servidores Bullion de 8 a 16 servidores Bull, la plataforma de servidores líder de Atos, que está clasificada como una de las más potentes del mercado. La inclusión de Bullion complementa la cartera de servidores PowerEdge de Dell para alojar las cargas de trabajo más críticas con un rendimiento, fiabilidad y escalabilidad excepcionales”.

 

IDG.es

¿Para qué sirven realmente los mapas de ciberataques?

Los mapas de ataques cibernéticos pueden ser divertidos de ver pero, ¿son útiles? La idea errónea común con estos mapas es que los datos son en directo o en tiempo real pero no lo son. La mayoría son sólo un subconjunto de ataques grabados o una reproducción de capturas de paquetes desinfectados.

Aun así, no hay que descartar lo útil que puede ser el factor “atractivo”. Algunos de los profesionales con los que CSO ha hablado dijeron que, por lo general, suelen tener el mapa abierto en sus equipos de cómputo cuando saben que un cliente puede aparecer por las oficinas; simplemente porque llama visualmente la atención. De hecho, la mayoría de los profesionales mencionaron que no le ven ningún valor real.

Más concretamente, un profesional de seguridad dijo que los usa para que los estudiantes de secundaria estén interesados ​​en la industria de la seguridad.

El concepto es inteligente, ya que las imágenes y los tipos de datos en pantalla pueden crear puntos de discusión sobre tipos de ataque, métodos y actores de amenaza.

Una vez más, el valor de estos mapas de ataque cibernético no son los datos que muestran, sino cómo pueden utilizarse como iniciador de una conversación. Esto es algo que los proveedores que producen los mapas saben bien, ya que los mapas en sí son herramientas de ventas.

CSO destaca ocho de los mapas más populares de ciberataques en la web: Norse, Kaspersky, Fortinet, Checkpoint Software, FireEye, Arbor Networks, Trend Micro y Akamai.

 

Steve Ragan, CSO USA.

 

Android 8 Oreo: más inteligente, más rápido, más poderoso

Google aprovechó el eclipse solar de ayer para lanzar su última versión de la plataforma: Android 8.0, también conocido como Android Oreo, un sistema operativo que se caracteriza por ser más inteligente, rápido y poderoso.

La tecnológica destaca exclusivas como la imagen dentro de imagen, que permite ver dos aplicaciones al mismo tiempo; el Autofill, que permite navegar entre tus tareas de forma sencilla y ayuda a recordar a los usuarios –con su permiso- cuáles son sus aplicaciones favoritas.

De igual manera incluye mejoras en las protecciones de seguridad gracias a la incorporación del Google Play Protect y de nuevas prestaciones como controles de instalación de aplicaciones a nivel de fuente, importantes estados de seguridad más visibles en tus ajustes y mejoras de protección frente a malware y protecciones de privacidad.

Android Oreo potencializa la velocidad para poder ejecutar tareas más rápido que nunca con un boot de rápida velocidad cuando se enciende. Además, soporta Android Instant Apps, lo que significa que se podrá teletransportarse directamente a aplicaciones nuevas sin instalación previa; y viene con emojis rediseñados y más de 60 nuevos.

En cuanto al futuro, el equipo de Google está liberando código fuente en el Android OpenSource Project (AOSP). Pixel 5X y 6P están en fase de prueba por parte de los fabricantes y esperan poder lanzalor próximamente, así como con Pixel C y Nexus Player. También han estado trabajando de cerca con sus socios para que fabricantes como Essential, General Mobile, HMD Global Home of Nokia Phones, Huawei, HTC, Kyocera, LG, Motorola, Samsung, Sharp y Sony lancen o actualicen sus versiones.

 

IDG.es