Mientras que la Alexa de Amazon, el Asistente de Google y la Siri de Apple están trabajando horas extras para persuadirnos de que la IA puede ser tu mejor amiga, ¿qué pasaría si entrenamos a una IA para ser todo lo contrario? A pesar de las implicaciones aterradoras, Pinar Yanardag, Manuel Cebrian e Iyad Rahwan del Instituto Tecnológico de Massachusetts (MIT) se propusieron hacer eso.

En lugar de crear una IA que incorporase lo mejor de la humanidad

Crearon una IA que tenía acceso sin filtro a las peores partes de la web y en lugar de alimentar millones de preguntas sobre la tarea y el clima, se alimentó con los rincones más oscuros de Reddit.

El resultado es Norman, una IA que no ve lo mejor de la humanidad, sino lo peor. Al igual que la mayoría de los programas de inteligencia artificial diseñados hoy en día, Norman tiene un trabajo muy específico que consiste en subtitular correctamente las imágenes que ve.

De la misma manera que Google Lens puede usar AI para decirle qué zapatillas lleva alguien, Norman ha sido diseñado para hacer lo mismo. A diferencia de Google Lens, que se alimenta de millones de imágenes inofensivas de entrenadores, Norman recibió las imágenes y descripciones de un subreddit tan infame que los creadores se negaron a nombrarlo.

Una vez que alimentaron a Norman con toda la información relevante, llevaron a cabo una prueba de Rorschach para ver cómo las diferencias en su aprendizaje afectarían sus respuestas. Como era de esperar, hubo enormes diferencias. Cuando una IA estándar ve a un grupo de pájaros sentados en un árbol, Norman ve que "un hombre es electrocutado y atrapado hasta la muerte".

Antes de levantar los brazos y acusar a los investigadores de imprudencia

La creación de Norman resalta un punto extremadamente importante que rodea la creación de la inteligencia artificial.

¿Piensas perderte estas noticias?
Pincha en el botón de abajo para mantenerte actualizado sobre las noticias que no te puedes perder, tan pronto como ocurran.
Investigación Científica

Si bien Norman es un ejemplo extremo, es el escaparate perfecto de lo que sucede cuando el sesgo entra en el proceso de aprendizaje. Una IA solo aprende de qué se alimenta, y si los humanos que la alimentan son sesgados (conscientemente o no), entonces los resultados pueden ser extremadamente problemáticos.

"Cuando la gente habla de que los algoritmos de IA son parciales e injustos, el culpable a menudo no es el algoritmo en sí, sino los datos sesgados que se le suministraron", explican los investigadores.

Este no es el primer experimento de IA llevado a cabo por el equipo. En 2017, los tres crearon otra IA llamada Deep Empathy, que exploró la idea de aumentar la empatía para las víctimas de desastres lejanos mediante la creación de imágenes que simulaban el desastre en casa. Usando un proceso llamado aprendizaje profundo, Deep Empathy analizó las características de los barrios sirios afectados por el conflicto y luego los simuló sobre imágenes de ciudades de todo el mundo.

¡No te pierdas nuestra pagina de Facebook!!
Haz clic para leer más