Día: 5 septiembre, 2016

La realidad virual y fotos de facebook burlaron la seguridad

Hace años, se podía considerar a los hologramas como cosa de ciencia ficción. Las cosas han cambiado. Actualmente, hemos pasado de ver a nuestros queridos iconos culturales ya fallecidos aparecer en escenarios en premiaciones musicales, a ver Directores Ejecutivos asistir grandes reuniones como hologramas. Obviamente, nuestra capacidad de protegernos mediante la realidad virtual en todo el mundo ha evolucionado. Pero las consecuencias para la seguridad de esto también han evolucionado.

Esas consecuencias salieron a la luz a principios de este mes en la conferencia de seguridad Usenix, un simposio de seguridad anual destinado a destacar los problemas de ciberseguridad de la nueva tecnología. Durante la conferencia de este año, investigadores de la Universidad de Carolina del Norte demostraron cómo las animaciones de rostros parecidas a la realidad, podrían emplearse para engañar al reconocimiento facial.

De acuerdo con la revista WIRED, los investigadores emplearon tecnología parecida a la realidad virtual y unas cuantas fotografías prestadas de voluntarios. Esta técnica burló varios sistemas de seguridad probados.

En lo que tiene que ver con la tecnología, esto no es inesperado. Las tecnologías nuevas casi siempre tendrán vulnerabilidades y obstáculos durante su inicio. Como siempre, los investigadores de seguridad están mejor equipados para descubrir los problemas de seguridad incorporados en estas tecnologías.

En este caso en particular, los investigadores usaron las fotografías robadas virtualmente para crear rostros falsos con renderización 3D disponible fácilmente y software de animación. Posteriormente combinaron las fotografías y animaron las imágenes 3D para engañar a los programas de reconocimiento facial, para que pensaran que las imágenes falsas tenían movimiento y profundidad (incluso haciéndolas parpadear y sonreír) además de medidas que emplean estos programas para verificar mientras escanean un rostro.

Es un gran recordatorio de que es trivial robar fotografías de alta calidad de alguien hoy. Incluso desde múltiples ángulos, que es lo que un ataque teórico necesita. Los maleantes podrían simplemente navegar en su Facebook, LinkedIn y otros perfiles de medios sociales. Y además de ser fácil explotar esta vulnerabilidad, es un poco complicado defenderse contra ella. Después de todo, tener presencia online es importante para propósitos sociales y de carrera, e incluso las personas más cuidadosas al publicar, no siempre pueden garantizar el no dejar huellas digitales.

¿Alarmante? Claro. Pero no es para preocuparse tanto: el ataque es demasiado complicado, y lleva mucho tiempo, como para que los cibercriminales se molesten en realizarlo. Se necesita mucha preparación  para replicar exitosamente este ataque teórico. Este hecho disminuye significativamente el número de personas que podrían estar en riesgo. Además, estas vulnerabilidades han sido enfatizadas a las firmas de ciberseguridad, firmas que desean que esta tecnología tenga éxito. Pronto se pondrán a disposición arreglos para estos problemas.

Dada esta investigación, nos tomaremos la oportunidad de repasar dos problemas que son relevantes en el mundo digital de hoy. Primero, como se discutió arriba, el mantener un nivel de privacidad online es importante no sólo como estilo de vida, sino también por seguridad. Nuestras fotografías ahora están conectadas a nuestros perfiles, y en consecuencia, a nuestra seguridad. Segundo, la tecnología no es una cosa estática. Hay nuevas innovaciones todos los días en dispositivos y servicios, y a la seguridad le toma tiempo perfeccionarse. La seguridad biométrica y las innovaciones similares no son diferentes.

Con eso en mente, presento tres consejos para la práctica de seguridad en la biometría:

Limite su exposición online. Asegúrese de que sus preferencias en medios sociales estén configuradas como “privadas”. De esta manera protegerá no sólo sus imágenes, sino las de sus seres queridos. Siempre verifique las opciones de privacidad en el sitio Web de sus medios sociales. Evite subir imágenes para las personas que todavía no las tengan.

Use seguridad completa. La buena seguridad requiere mucha preparación y un abordaje integral funciona mejor. Al usar una solución de seguridad integral para sus dispositivos.

Utilice autenticación de múltiples factores. Ya sea un servicio de identificación de algo que usted conoce, como una contraseña o un PIN, y algo que usted tenga, como un Smartphone, es uno de los métodos de seguridad más confiables que existen. Verifique los servicios que usa online, y vea si está disponible para la autenticación de la cuenta.

Gary Davis, Chief Consumer Security Evangelist

Claves para el negocio multi-nube y no morir en el intento

En la actualidad las empresas necesitan ofrecer cada vez más y mejores beneficios a sus clientes, por lo que los ambientes multi-nube se han convertido en la clave para alcanzar estos objetivos.

Por ello la tecnología está transformando las necesidades de negocio, las empresas deben encontrar una forma de adaptar su operación a esta nueva era conectada, donde ya no es suficiente elegir una nube pública o privada”, asegura Álvaro Echeverría, vicepresidente y director general de Rackspace Latinoamérica.

Las soluciones de nube tanto a nivel global como en América Latina se han convertido en el nuevo estándar de negocio. La firma de análisis Dimensional Research señala que cerca del 69% de las compañías en la nube comienzan a tener un mayor acercamiento hacia los modelos híbridos o multi-nube; se debe destacar que el 64% está en busca de un modelo unificado y entiende la importancia de tener un proveedor que los ayude a construir este tipo de arquitecturas.

Por otra parte, los ingresos de nube mantienen un crecimiento constante en regiones como Latinoamérica, donde se estima que este año superen los 7,600 millones de dólares, de acuerdo con un reporte de 2014 de la Comisión Económica para América Latina y el Caribe (CEPAL).

Rackspace comparte algunos puntos a tomar en cuenta para crear una plataforma de negocio multi-nube. Existen distintos tipos de nube. Todas son seguras y funcionales, sólo es cuestión de entender cómo opera cada una y la sinergia más adecuada según las necesidades de negocio.

  1. Comprender los retos. Antes de migrar hacia un modelo multi-nube, es importante evaluar las necesidades, metas, tipo de datos, capacidad y volumen de información para llevar a cabo una distribución adecuada de la operación.

“El manejo de diferentes ambientes de nube, especialmente cuando existen diferentes proveedores de por medio, es difícil. Un monitoreo poco adecuado puede desencadenar diversos problemas de seguridad y funcionamiento que rápidamente pueden escalar hacia un completo desastre”, añade Álvaro Echeverría.

  1. La importancia de elegir un proveedor. La firma destaca que la ejecución de una plataforma multi-nube puede ser abrumadora cuando las empresas no cuentan con el equipo interno suficiente que sea capaz de mantener este tipo de infraestructura. Además, esto puede incrementar el uso de recursos extras que serían mejor empleados en otras áreas del negocio.

Ante este panorama, cada vez es más común que las compañías elijan uno o diferentes proveedores externos para llevar a cabo esta implementación con el fin de poder enfocarse exclusivamente en su negocio. La clave de saber elegir está en encontrar un socio capaz de entender los diferentes requerimientos de cada servicio de nube.

  1. Los beneficios de ser multi-nube. Finalmente para poder implementar un modelo de este tipo tiene resultados positivos como el incremento de la eficiencia en la operación, la reducción de costos y mayor seguridad tanto para la plataforma de negocio como para los clientes.

N. de P. Rackspace

CES cumplirá 50 años, ¿Qué nos ha enseñado en este tiempo?

CES llega a su edición número 50 este enero de 2017, siendo durante medio siglo considerado uno de los más importantes eventos a nivel mundial para el mercado de la innovación tecnológica. Desde su inicio en 1967, CES ha presentado un estimado de 700,000 productos. Estos incluyen innovaciones que han cambiado al mundo como la videocasetera (1970), el DVD (1996), el radio digital (2000) y las normas para grabación Blu-ray (2002), así como tecnologías más recientes como las impresoras 3D para consumidores, tabletas y televisión ultra 4K de alta definición. CES también ha dirigido el crecimiento del mercado en tecnologías pioneras como los vehículos autónomos y drones. Para su aniversario, como en los últimos años, el CES se celebrará en Las Vegas, Nevada, EUA, del 5 al 8 de enero.

“Pocos eventos y exposiciones tienen 50 años de éxito en su haber y nos sentimos honrados de pertenecer a este grupo élite,” comentó Gary Shapiro, Presidente y Director General de la Asociación de Tecnología de Consumo. “En los últimos 50 años CES ha evolucionado a la par de la industria, reflejando y ayudando a manejar el siempre cambiante paisaje de la tecnología de consumo. Hemos triunfado a través de los años debido, en gran parte, a nuestros clientes fieles, socios y relaciones sólidas que hemos construido en el camino. Este aniversario es el parteaguas perfecto para agradecer y celebrar a nuestros increíbles socios de la industria y a los individuos y compañías que han estado con nosotros durante cinco décadas, agregó.”

El primer CES se celebró en junio de 1967 en la ciudad de Nueva York, atrajo a aproximadamente 17,500 asistentes y presentó a 117 expositores mostrando productos como radios de transistores, estéreos y pequeños televisores en blanco y negro, incluyendo la primera TV en estado sólido. Las principales compañías expositoras en el primer CES incluyeron a: 3M, Memorex (ahora MEM-CE), Motorola con Lenovo, Panasonic – Matsushita, Philips, RCA (ahora una marcaTechnicolor), SANYO Fisher (ahora parte de Panasonic), Sharp, Sony, Toshiba, Westinghouse y Zenith (ahora parte de LG). Varios líderes prominentes de tecnología han ofrecido conferencias magistrales ‘keynotes’ en CES, incluyendo a Microsoft, Intel, Google, Apple y Samsung.

CES-CES2017-historia-tecnología
Primer CES en 1967

CES 2017 contará con más de 3,800 expositores cubriendo 2.4 millones de pies cuadrados netos (230 millones de metros cuadrados) de espacio y más de 165,000 asistentes. Realmente un evento global, CES espera a más de 50,000 profesionales internacionales representando a 150 países.

Hoy por hoy, CES ha crecido para presentar industrias no conectadas tradicionalmente a la tecnología de consumo. El evento ahora toca cada industria prioritaria ya que líderes del ecosistema completo de innovación se reúnen para descubrir y experimentar las tendencias más recientes y trabajar en red con colegas. CES es donde las marcas más importantes de tecnología se mezclan con los revolucionarios de la siguiente generación y donde líderes globales estimados y muy buscados toman el escenario de las conferencias ‘keynote’ para presentar nuevas tecnologías y sus visiones de nuevas tendencias y mercados.

La celebración no terminará el 8 de enero, ya que los organizadores del evento anunciaron que se estrenará un documental retrospectivo en junio de 2017.

El registro para este año de aniversario se abre este 6 de septiembre. Para mayor información sobre CES 2017, visite CES.tech.

 

N. de P.

 

IBM busca implementar Watson en los hogares

IBM está trabajando con marcas como Whirpool, Panasonic, Bragi y Nokia, con la finalidad de demostrar que Watson podría añadir capacidades cognitivas en el ámbito de la electrónica de consumo para mejorar la habitabilidad.

Watson de IBM quiere adentrarse también en nuestros hogares y en las tareas que desarrollamos diariamente, desde el simple hecho de lavar la ropa, la firma hasta podría susurrarnos al oído diariamente las pautas para llevar una vida de lo más saludable.

Este es el mensaje principal que nos envía Watson según ha destacado recientemente Harriet Green en su discurso llevado a cabo en la feria IFA de Berlín. La compañía IBM aprovechará tecnologías de otros fabricantes, como es el caso de los electrodomésticos de Whirlpool, las cámaras de TV de Panasonic, así como los auriculares inalámbricos de Nokia y otra serie de dispositivos de Withings, para explotar las capacidades de informática cognitiva de la tecnología. Según explica el directivo, estas nuevas capacidades dotarían a los dispositivos de la inteligencia necesaria para poder comunicarse entre ellos, o entenderse con las personas.

Para poder ejemplificar lo hecho por IBM, una lavadora podría comunicarle a una secadora el programa que va a utilizar para el lavado con el fin de optimizar luego el secado, o decirle al propietario cuando tiene que añadir más detergente. Las nuevas modalidades de visión por ordenador también podrían ayudar a las cámaras de seguridad a que distingan la presencia de miembros de la familia y extraños, así como a identificar actividades sospechosas. El procesamiento del lenguaje natural y las capacidades de conversión de texto a voz podrían permitir que recibamos instrucciones de uso a través de los auriculares cuando estemos desempeñando cualquier otra función con las manos ocupadas.

Watson es una tecnología muy activa en otras áreas como es el de salud, con la identificación de diferentes tratamientos para pacientes así como su seguimiento. No obstante, Nokia está investigando cómo podría añadir nuevas capacidades a los dispositivos de monitorización de salud de la marca Withings, con el fin de optimizar el seguimiento de pacientes con dependencia. El proyecto entre ambas compañías se denomina “Aging in place” comenta Cedric Hutchings, fundador de Withings y ahora vicepresidente del área de salud digital de Nokia, el cual adquirió la compañía. De esta forma, las tecnologías conectadas podrán ayudar a monitorizar la salud de los pacientes que se encuentran en sus hogares e intervenir ante cualquier circunstancia.

IDG News Service, Paris Bureau Chief

El iPhone 7 podía ser el mejor hasta ahora, descubra por qué

La presentación del nuevo iPhone 7 está cada vez más cerca. Apple anunció su lanzamiento oficial para este miércoles 7 de septiembre y se espera que traiga consigo nuevos cambios en sus especificaciones que todos querrán tener en sus manos. Linio nos ofrece una recopilación de los rumores más sonados en la red.

 

Dos versiones muy diferentes

Apple lanzará una versión “básica” y una versión “plus” o “pro”, los nombres aún no están confirmados pero cada uno incluirá características diferentes.

 

La nueva era en accesorios y un iPhone resistente al agua

Según estos mismos rumores, las dos versiones tendrían un procesador A10 diseñado por la misma Apple, además de que se tendrán disponibles nuevos accesorios en cuando la compañía oficialmente haya acabado con la entrada de audio 3.5mm y la reemplace con un único conector Lightning para cualquier tipo de función multimedia y de carga.

Si el conector Lightning será el único puerto disponible ¿Cómo podrán escuchar música los usuarios durante el tiempo de carga del teléfono? Las dos soluciones a este problema serían la introducción de la carga inalámbrica por medio de un pad y el anuncio de unos nuevos audífonos bluetooth diseñados por Apple con características únicas en su tipo, sin embargo no se han especificado cuáles serían éstas.

Finalmente le diremos adiós al botón home, el cual será reemplazado por un espacio designado a esta tarea con tecnología 3D Touch introducida en el iPhone 6S, la cual dará la misma sensación de un “toque físico”. Posiblemente este gran cambio permitirá a Apple crear su primer iPhone contra agua.

Veremos de vuelta los clásicos colores de la marca y la posible introducción de un “azul espacial” y “negro espacial”. Al fin la empresa ofrecerá dos versiones de almacenamiento: 32GB y 128GB.

 

¿Plus o Pro? 

La implementación de una cámara doble o de doble lente es lo que le podría dar a esta versión su denominación de Pro o Plus. La segunda cámara podría tener dos funciones: la primera dar un “zoom” extra al dividir la pantalla para tener una vista general y una vista a detalle de lo que se quiere tomar.

La segunda función podría ser tomar fotografías de muy alto detalle al ser dos lentes los que tomen la foto. Mientras uno toma detalles y objetos, el otro se dedicaría a capturar la iluminación y el movimiento, componiendo una única y mejorada imagen final.

Otra función única para este modelo sería la implementación de un Smart Connector que podría ser compatible para la nueva familia de accesorios que Apple y sus licencias podrían sacar al mercado. Las posibilidades de éste van desde la carga de batería, hasta la conexión con otros aparatos como electrodomésticos y CarPlay.

Estos son algunos de los rumores que más se han sonado en la web, falta esperar un par de días más para saber qué tan acertados éstos eran, además de conocer otros detalles como precio y disponibilidad en nuestro país.

La importancia de nuestra función dentro de las TIC

Recientemente reflexionaba sobre la importancia que tiene la correcta definición de cada puesto y función al interior de las áreas de TIC, así como la posición y nivel de autoridad inherente a cada uno.

Y es que pareciera que todo alrededor de la otrora llamada área de Sistemas en las organizaciones evoluciona a un ritmo vertiginoso, excepto la misma área y no solo me refiero al nombre –que por cierto, también dice mucho.

En los últimos años, en el entorno organizacional el clima social, político, económico, regulatorio y tecnológico per sé, han cambiado de forma radical. Hacia adentro de las organizaciones hemos adoptado nuevas prácticas, marcos de trabajo y metodologías desplazando paradigmas obsoletos en cuanto a la administración de los recursos y otorgando relevancia a la gestión del capital humano.

Me pregunto, entonces, ¿por qué si todo ha cambiado, la estructura de las TIC en muchas empresas permanece intacta? Continuamente escuchamos sobre la transformación de la función informática. Sin embargo, pareciera que dicha metamorfosis es únicamente a nivel de conceptual sin reflejarse en un ajuste a la estructura.

Conozco empresas en que se trastocan con singular ligereza las funciones y se observan programadores fungiendo como líderes de proyecto, jefes de la mesa de ayuda administrando el presupuesto de inversión de toda el área, o responsables de infraestructura administrando el Plan de Recuperación de Desastres.

La estructura organizativa no es un tema menor, no ciertamente la de las TIC. Por lo que, me parece necesario hacer una pausa y reflexionar sobre si la estructura bajo la cual actualmente operamos la entrega de productos y servicios informáticos es la más idónea o simplemente es la heredada, como resultado de las decisiones en el pasado.

Si bien es un tema que debemos revisar cuando pretendemos validar que tan alineados estaos con el negocio; vale la pena averiguar qué tanto nuestra función en particular como programadores, arquitectos, técnicos en soporte, líderes de proyecto o cualquier otra hace sentido en cuanto a las funciones, responsabilidad, autoridad e incluso remuneración.

Después de tantos cambios en torno a TI, seguramente será necesario reacomodar las piezas para que hagan sentido con el nuevo paradigma de TI que tanto pregonamos.

 

Arturo Tellez Mejia

Por: Arturo Téllez Mejía es Maestro en TI y Administración, 

Consultor y Catedrático de Posgrado sobre

Negocios, Tecnología, Organizaciones y Entorno.

www.arturotellezmejia.com

@artellezm

Edificios Inteligentes: tecnologías que impactan en Infraestructura

Cada vez está creciendo más la adopción de la tendencia denominada Internet de las cosas (IoT), provocando una necesidad por robustecer la infraestructuras que soporte correctamente un mercado de conocimiento tecnológico en aumento, y satisfagan las necesidades de conexión, creando un aumento de demanda en los Edificios Inteligentes que permitan a las personas mantenerse eficientemente conectadas. Sin embargo, esta necesidad cada vez mayor ha significado que la labor de la infraestructura a nivel físico sea cada vez más exigida, pero también más importante.

Para que un edificio sea considerado dentro de la categoría de ‘Edificios Inteligentes’ debe cumplir con dos características esenciales en su infraestructura: ser eficiente y estar permanentemente conectado. No obstante, el rápido avance tecnológico, así como las demandas cada día más grandes por el uso de más dispositivos y el requerimiento de velocidades mayores, han hecho que muchas veces la infraestructura con la que se cuenta no sea la indicada para soportar todos los procesos y requerimientos que se necesita; por ello resulta primordial entender mejor cómo el IoT ha venido a impactar en las infraestructuras de estos edificios.

“A los usuarios les importa cada vez menos la tecnología que usan para conectarse, sólo necesitan estar conectados. La expectativa que tienen las personas  de poder estar conectadas siempre dentro de un edificio, considerando que no solamente llevan un dispositivo, sino varios dispositivos personales y de trabajo, además de los que el mismo edificio requiere, involucra otro tipo de desafíos en razón de infraestructura ya que se necesita de una conexión estable e ininterrumpida a red WI-FI o a redes celulares como 2G, 3G, 4GLTE, y además cumplir con las demandas energéticas de dichos dispositivos, todo de la manera más eficiente posible”, afirmó Juan Pablo Compagnucci, Solution Architect para Intelligent Buildings en CommScope.

A medida que el IoT avanza, el papel de la infraestructura se vuelve más importante, ahora las tecnologías como la alimentación a través de Ethernet (PoE) y HDBaseT están expandiendo el universo de dispositivos que se pueden conectar y funcionar utilizando la infraestructura de red. Además, Ethernet de 2,5G/5G/10G está incrementando la velocidad de datos del creciente uso de las redes inalámbricas, por lo que el desafío no es solo en la cantidad de dispositivos conectados, sino en la eficiencia de su velocidad de conectividad. Lo que antes era conectar teléfonos, PC’s y sistemas de automatización de edificios, ahora también implica conectar y encender las pantallas digitales, cámaras de seguridad, paneles de control de acceso, iluminación LED, sensores, en la consolidación de los sistemas celulares, puntos de acceso Wi-Fi, balizas Bluetooth y RFID lectores, entre otros.

“Pese a toda la innovación y el desarrollo constante de la tecnología, lograr las mejoras en la infraestructura de los Edificios Inteligentes no ha sido tarea sencilla. Históricamente se lograba pero a un costo muy alto, con implementaciones complejas y en muchos casos poco eficientes; sin embargo, con el desarrollo del IoT la infraestructura de red ha tenido que adaptarse drásticamente, cada vez más rápido y de mejor forma para satisfacer lo que se requiere  de ella”, afirmó Juan Pablo Compagnucci.

Desde el año 2003 comenzó a crecer una tendencia de aumentar la velocidad compartida de los access point a través de las nuevas tecnologías, esto con la finalidad de incrementar la velocidad de transmisión en cada uno de los dispositivos tanto en edificios como en los hogares. Esto hizo que se acelerara el lanzamiento de nuevos estándares, como el 802.11ac que fue dividido en Wave 1, que permitía velocidades de hasta 1 Gb/s, y recientemente en Wave 2, con velocidades de hasta 6.9 Gb/s; pero no sólo eso, sino que desde el punto de vista de la infraestructura de red esto implica estar preparados a futuro, porque se debe de tener en cuenta los nuevos estándares y tecnologías que llegarán.

“Para el año 2020 se estima que habrá más de 20 mil millones de dispositivos interconectados, no sólo celulares y computadoras, sino también autos, infinidad de sensores, electrodomésticos, pantallas inteligentes, cámaras de seguridad, puntos de acceso de Wi-FI y demás objetos que se añadirán al universo de dispositivos que pueden estar conectados a una infraestructura de redes en el IoT. En consecuencia, los Edificios Inteligentes deben contar con un cableado estructurado que cumpla con los requerimientos energéticos y de ancho de banda para asegurar su funcionamiento y eficiencia, como lo puede ser el cableado de Categoría 6A y la fibra óptica”, finalizó finalizó el Solution Architect para Intelligent Buildings para CALA de CommScope.

Nota de Prensa.

En 2030 la Inteligencia Artificial cambiará nuestras vidas

Los científicos y expertos en tecnología analizan la transformación que sufrirán el transporte, la educación y la seguridad en el hogar como consecuencia de la evolución de las máquinas inteligentes.

Por ello han establecido el 2030, como una fecha donde la Inteligencia Artificial habrá modificado la forma en la que nos desplazamos hasta el trabajo, cómo son educados nuestros hijos y cómo cuidamos de nuestra salud.

Esa es la conclusión que da el grupo de académicos y de expertos tecnológicos que participan en el proyecto “Cien Años de Estudio en Inteligencia Artificial” (AI100), llevado a cabo por la Universidad de Stanford. Dicho proyecto se centra en intentar prever los avances que trae consigo la IA, los desafíos éticos que dichos avances presentarán y la forma en la que las tecnologías inteligentes transformarán la vida urbana.

El informe “Inteligencia artificial y vida en 2030” analiza cómo esta tecnología afectará al empleo, salud, seguridad, entretenimiento, educación, robots, transporte y comunidades pobres.

“Creemos que las aplicaciones de Inteligencia Artificial especializada serán más comunes y más útiles en 2030, mejorando nuestra economía y nuestra calidad de vida”, señala Peter Stone, presidente del panel de expertos internacionales. “Sin embargo, esta tecnología también presentará profundos desafíos, afectando a empleos, ingresos y a otros asuntos que deberíamos comenzar a abordar ahora para asegurarnos de que los beneficios de la IA son ampliamente compartidos”, agrega Stone.

En el informe los científicos anticipan algunos problemas, pero también exponen las múltiples ventajas que los avances tecnológicos traerán consigo.

“Las tecnologías de Inteligencia Artificial pueden ser seguras y muy beneficiosas”, asegura Barbara Grosz, investigadora de la Universidad de Harvard y presidenta del comité de AI100. “Al ser transparentes sobre los retos de diseño y de despliegue de la IA creará confianza y evitará miedos injustificados y sospechas”.

Los investigadores de este estudio señalan que cuando se trata de Inteligencia Artificial y transporte, los vehículos de conducción autónoma y los drones de entrega aérea podrían cambiar los patrones de viaje y de vida en las ciudades. Asimismo, el informe predice que los robots que ofrecen servicios en el hogar no solo se encargarán de la limpieza, sino que además realizarán funciones de seguridad; los sensores inteligentes controlarán los niveles de azúcar en la sangre; y servicios como el de distribución de comida en barrios pobres y el análisis de patrones delictivos podrían verse ampliamente mejorados.

Los científicos y expertos tecnológicos han señalado que este trabajo debería comenzar ya a encontrar la forma de ayudar a las personas a adaptarse, ya que la economía está experimentando cambios muy rápidos, algunos trabajos está desapareciendo y otros nuevos emergen. “Hasta ahora, casi todo lo que se sabía de Inteligencia Artificial venía de los libros de ciencia ficción y de las películas. Este estudio proporciona una base realista para discutir cómo las tecnologías de Inteligencia Artificial pueden afectar a la sociedad”, concluye Peter Stone.

Sharon Gaudin

 

Cómo saber si su empresa necesita un responsable digital

La Trasformación Digital en la actualidad le ha dado un giro a los negocios, en muchos casos exige contar con un profesional que se convierta en agente del cambio, o sea, en director digital. Hay una serie de criterios que podemos utilizar para determinar si una organización necesita a este ejecutivo en sus órganos directivos.

Los clientes esperan tener experiencias perfectas con los productos y servicios online que utilizan y abandonarán a todas las empresas que no sean capaces de cumplir con esas expectativas digitales.

Cabe recordar que este ejecutivo es el responsable de identificar aquellas áreas corporativas donde la transformación digital puede mejorar especialmente la experiencia del cliente y es el influenciador que impulsa que los cambios sucedan, explica Mark Orttung, CEO de Nexient, compañía de servicios tecnológicos especializada en desarrollo de software agile.

Es por ello que el rol de CDO existe desde hace tiempo, pero la posición continúa evolucionando, a medida que se llena de gente la alta dirección. Un reciente estudio de PwC al respecto sostiene que esta posición está cubierta en las organizaciones orientadas al consumidor como, por ejemplo, medios de comunicación, entretenimiento, alimentos y bebidas, y productos de consumo. El estudio también sugiere que las empresas más grandes están por delante.

Sin embargo, algunos expertos señalan que el papel del CDO será fugaz. “La mayoría de las organizaciones no necesitan un CDO de forma permanente, y algunas nunca necesitarán un CDO”, sostiene Mike Cohn, director general de Mountain Goat Software.

Entonces, ¿qué tipo de empresa necesita un CDO? “Cualquier gran organización que no tenga ya un enfoque digital en su ADN”, responden los expertos. Y la razón es que el CDO debe ayudar a la empresa a iniciar su camino digital que, por definición, un CDO es un agente del cambio. Es muy importante que esta persona sea capaz de escuchar y entender diversas opiniones e ideas.

El CDO esencialmente tiene que dominar tres áreas: análisis de datos, tecnología y comercio electrónico. “Un candidato ideal debe mezclar estos puntos para liderar con éxito la transformación digital”, concluye.

Este directivo debe entender los mercados que atiende y ser un apasionado de ellos. Tienen que formular la estrategia, comunicarla a los grupos de interés y ser capaz de implementar planes y convertirlos en realidad, vienen a resumir los expertos. Esta misión crítica debe contar con el respaldo total del CEO.

Redacción

 

A 25 años de Linux: un SO de referencia para la empresa

Fue hace 25 años, un pequeño mensaje enviado por el grupo Usenet publicado por Linus Torvalds, el cual anunció la llegada de un nuevo sistema operativo casero: Linux. Hoy Linux es la piedra angular de la informática empresarial, el fundamento de gran parte de la innovación en el CPD. Las distribuciones de este sistema son tan numerosas y potentes que es fácil dar por sentado su éxito.

En este último siglo, la adopción de Linux ha crecido de manera exponencial, y seguirá creciendo en los próximos años. Al mismo tiempo, la extraordinaria comunidad de Linux seguirá siendo una enorme fuente de innovación. La magnitud de la influencia de Linux es difícil de expresar (la Bolsa de Nueva York, una de las organizaciones de TI más sofisticadas del mundo, afirmanv”que fluye como el agua”). Pero el papel que está jugando Linux en la industria puede resumirse en dos aspectos clave:

  • Proporciona un acceso extremadamente fácil y económico a un sistema operativo de altísima calidad y enorme innovación.
  • Abre la puerta  a un movimiento más amplio hacia el software de código abierto.

Linux es código abierto, pero el código abierto no es sólo Linux

El código abierto ya existía antes de Linux. Sin embargo, no sería lo que es hoy si no fuera por Linux. Linux proporciona un poderoso catalizador para el movimiento open source y de software libre. El éxito de un elemento tan fundamental como el sistema operativo ha impulsado una mayor adopción, más innovación y más legitimidad para otros proyectos y comunidades. Veinticinco años después, existe un terreno de las TI que es de hecho “abierto por defecto”.

Tomemos por ejemplo GitHub, que a día de hoy aloja a gran parte del código, las comunidades y los proyectos open source del mundo. Github se basa en git, que fue creado por Linus Torvalds, el gran maestro y homónimo de Linux, para ayudar a ordenar el desarrollo del kernel de Linux. Nunca pretendió ser el repositorio masivo que es ahora, pero Git simplemente evolucionó hacía ello. Este es un proceso común en el open source. Los proyectos y herramientas que se crearon originalmente para el desarrollo de Linux han crecido mucho más allá de esos límites, para dar servicio a la comunidad en general, no sólo Linux.

El estándar para la innovación

Linux también ha tenido un impacto fuera del open source. No sólo a través de la propia innovación del kernel, sino también mediante la “estandarización” de la innovación. El CEO de Red Hat, Jim Whitehurst, ha señalado en varias ocasiones, durante la primera parte del siglo XX, la fabricación de piezas intercambiables contribuyó a eliminar gran parte de los procesos “a medida” en la industria, agilizando la innovación y la creación de plataformas comunes.

Esto es exactamente lo que Linux ha hecho durante 25 años: proporciona una plataforma común y estandarizada, predecible en diferentes casos de uso, que fomenta la innovación. El Cloud  Computing, por ejemplo, es resultado de esta innovación estandarizada. Sin las eficiencias técnicas  y de costes proporcionadas por Linux, el Cloud Computing no existiría o sería muy diferente a como lo conocemos hoy. Quizás sería más parecido a los silos a medida de UNIX de los 90 que a los servicios flexibles y de consumo masivo a los que estamos acostumbrados hoy.

Otro gran ejemplo de innovación son los contenedores de Linux. Los contenedores utilizan los componentes estandarizados de Linux para proporcionar una nueva forma de encapsular y consumir aplicaciones empresariales. A partir de los contenedores de Linux, hemos visto emerger aún más la innovación, desde los proyectos Docker y Kubernetes, hasta la creación de un mercado emergente para aplicaciones y herramientas que pueden administrar decenas o cientos de procesos simples y aislados.

Por último, el hardware no es inmune a los efectos de la innovación de Linux. Al proporcionar una plataforma estandarizada, Linux rompió las barreras entre las aplicaciones y el hardware, lo que ha permitido el auge de los servidores estándar x86 e incluso la evolución de enfoques de hardware emergentes, como ARM y sistema en un chip (SoC). Esta base de computación común ha fomentado el desarrollo de las TI en la empresa, haciendo hincapié en la innovación, gracias a los menores costes y el ahorro en licencias exorbitantes.

Más allá del centro de datos

Linux, como motor de la metodología open source, también ha tenido un profundo efecto en nuestra cultura. Mano a mano, el código abierto y Linux han crecido exponencialmente, fomentando el desarrollo de una mentalidad más abierta  y nuevos proyectos, desde la Wikipedia hasta iniciativas de gobierno abiertas y proyectos empresariales impulsados por la comunidad, como el crowdsourcing o incluso Kickstarter. La noción de colaboración transparente y abierta casa bien con el mundo cada vez más interconectado en el que vivimos, especialmente con el auge de las redes sociales. El open source es una tendencia que va más allá del sector de la tecnología.

25 años de vida

Linux ha conseguido buenos logros desde su existencia: ha fomentado la implantación del código abierto en la empresa, favorecido la innovación, impulsado la apertura entre diferentes  mercados. Y ahora, ¿qué sigue? En los próximos 25 años, ¿qué puede lograr Linux? ¿A qué desafíos se va a enfrentar? Éstos son sólo algunos:

  • Seguridad: Linux es hoy la base de un número creciente de implementaciones de TI en la empresa, no es una simple capa de software. Se trata de una parte importante de la infraestructura de seguridad crítica de muchas organizaciones. Esto significa que se necesitan mecanismos cada vez más sofisticados para la protección de datos y aplicaciones, y que los fallos o vulnerabilidades deben ser diagnosticados y abordarse antes de que puedan ser explotados.
  • Avances en hardware: Linux ha conseguido convertir el hardware en un commodity. Esto significa más opciones de hardware, que se actualizan con más frecuencia. Tendencias como el cloud computing, la memoria no volátil, la computación GPU y la aparición de tejidos de computación altamente interconectados cambiarán lo que esperamos de un sistema operativo. Linux necesita mantener su posición como gran estándar, pero esto significa adaptarse a un ecosistema cada vez mayor de sistemas y enfoques emergentes.
  • Contenedores Linux: Esta innovación que lleva su nombre tiene el potencial de conmocionar el entorno Linux (y el código abierto) en el próximo cuarto de siglo. Desde la redefinición del ciclo de vida de aplicaciones empresariales hasta sistemas operativos que podrían existir sólo unos pocos milisegundos, Linux debe seguir enfocado hacia la automatización, escalabilidad y capacidad de gestión que requieren los contenedores.

Es por ello que gracias a Linux, el open source es ahora un actor clave en los entornos de TI empresariales y el mundo de los negocios. Sin él, muchas de las herramientas cotidianas que damos por sentado, desde los servicios bajo demanda a la VoIP, no podrían existir o, por lo menos, serían diferentes. Aunque su prometedora evolución futura está aún por definir, podemos estar seguros de una cosa: le debemos una parte importante del mundo de hoy en día a un solo post de Usenet de 1991.

¡Muchas felicidades, Linux y qué cumplas muchos más!

Santiago Madruga, Director General en Red Hat