¿Pueden las máquinas aprender comportamientos éticos?

La Inteligencia Artificial ha llegado a una nueva etapa en su desarrollo: el grupo de IA de Elon Musk ha decidido contratar “policías tecnológicos.”

El trabajo de dichos policías sería buscar a quien abusa de la IA con objetivos ilegales o no éticos. Pero aun este tipo de policía no logra cubrir todos los miedos que inspira el concepto de inteligencia artificial en las personas. Se necesitará transparencia y confianza para cambiar las mentes de lo que es nuestro inevitable futuro.

La necesidad de mayor transparencia incita a nuevas plataformas que incentivan el pensamiento. El MIT Media Lab ha creado una Máquina Moral, la cual se utiliza para desarrollar una toma de decisiones éticas para los auto autónomos.

Una simple simulación desafía a los usuarios a decidir el resultado de un accidente de un auto autónomo, y las elecciones pueden producir sensaciones incomodas. Los escenarios demandan decisiones difíciles: si un vehículo autónomo debe girar enseguida, ¿debe chocar la pared, matando al doctor, el gato que circulan dentro del auto? O debe girar hacia la vereda, matando a una viejita, un perro y un hombre sin hogar.

En la vida real, este tipo de elecciones requieren una respuesta inmediata del conductor, y las elecciones no son ni fáciles, ni evidentes. Combinando las respuestas con machine learning, los investigadores pueden hacer un mejor desarrollo moral que ayuda a las máquinas en el proceso de la toma de decisiones.

La participación en este tipo de ejercicios aumenta el entendimiento de las redes neuronales, esa es la razón por la que Siri entiende las preguntas, o Facebook sugiere a etiquetas en las fotos. Las redes neurales hacen que la inteligencia artificial sea más inteligente, permitiendo una mayor racionalización del cerebro humano.

A medida que las computadoras son más capaces de juntar, procesar y utilizar grandes cantidades de datos, estas redes se hacen más efectivas. Recientemente, para parar el spam y el abuso online, Yahoo se volcó a la IA, respaldado por la red neuronal y en general hizo un mejor trabajo que los humanos.

Hasta ahora, no se ha desarrollado ninguna fórmula de respuestas y machine learning que garantice totalmente la seguridad de los peatones y conductores. Hasta que vivamos en un ecosistema de vehículos totalmente conectados, sin humanos detrás del volante, seguirán los accidentes. Lo que necesitamos hacer es utilizar la tecnología no solo para informar el desarrollo de la IA, sino también para ayudar a desarrollar mayor confianza en las facultades para la toma de decisiones de nuestras máquinas inteligente. Los autos autónomos pueden nunca ser inmunes de los dilemas éticos, pero los tenemos que preparar para responder de manera de que se minimice el daño.

 

Por: Guillermo Bocanegra, director ICS, Infor Latam.