Crean un modelo de inteligencia artificial capaz de emitir juicios éticos, pero sus consejos resultan racistas, homóbofos y ofensivos

El Instituto Allen de Inteligencia Artificial y la Escuela de Ciencias de la Computación e Ingeniería Paul G. Allen de la Universidad de Washington, ambos de EE.UU., desarrollaron un modelo de aprendizaje automático bautizado como Delphi, capaz de emitir juicios éticos sobre una gran variedad de situaciones cotidianas.

El proyecto de inteligencia artificial fue lanzado el pasado 14 de octubre, junto con un artículo que describe su construcción, y puede ser consultado a través del portal Ask Delphi (Pregúntele a Delphi, en español). Es muy sencillo de usar y basta con entrar y escribir en su barra de preguntas casi cualquier cuestionamiento alrededor de una situación de la vida real para que el algoritmo ‘reflexione’ y decida si es algo malo, aceptable o bueno desde el punto de vista moral y ético. Cada respuesta puede ser compartida en Twitter.

Desde entonces, Delphi atrajo la atención y ha dado de qué hablar en redes sociales, y no precisamente por los buenos consejos ofrece, sino por sus muchos errores morales y juicios extraños. Algunos de sus usuarios han demostrado que en realidad lo que concluye pueden llegar a ser racista. Un internauta le preguntó qué pensaba sobre «un hombre blanco que camina hacia usted por la noche» y respondió: «Está bien». Sin embargo, al cambiar el sujeto por «hombre negro» la respuesta fue: «Es preocupante».

feel like the delphi ai posts are kind of played out but, i regret to inform you that the ai is racist pic.twitter.com/ixghsYc7GC

— sludge (@oth_radar) October 20, 2021

De acuerdo con el portal Futurism, el modelo presentó un mayor número de fallos de juicio en los primeros días después de estar en línea. Inicialmente incluía una herramienta que permitía a los usuarios comparar dos situaciones para saber cuál de las dos era más o menos moralmente aceptable, pero fue deshabilitada tras generar respuestas particularmente ofensivas y hasta homofóbicas. Por ejemplo, «ser heterosexual es moralmente más aceptable que ser gay».

Researchers have created Delphi, an AI which is designed to be used to automate moral decisions on behalf of humans. Here are some of its terrifying decisions: pic.twitter.com/TIrh8KQAwj

— William LeGate (@williamlegate) October 18, 2021

No todos los juicios éticos que ofrece Delphi son incorrectos, pero la forma en que se plantea un dilema puede cambiar su sistema de razonamiento moral. Luego de probar muchas veces el modelo, eventualmente se entiende que es fácil influenciar a la inteligencia artificial para obtener prácticamente cualquier respuesta que se desee.

Para Delphi, «es grosero» escuchar música a todo volumen a las tres de la mañana mientras nuestro compañero de cuarto duerme, pero al agregar a la pregunta: «si eso me hace feliz», su opinión cambia y pasa a: «está bien». De acuerdo con el portal The Verge, si se añade la frase «si hace felices a todos» al final de una cuestión, la inteligencia artificial será benevolente ante cualquier acción inmoral, incluido el genocidio.

Aunque los autores de Delphi lo pusieron a disposición del público en general para «demostrar lo que los modelos de vanguardia pueden lograr hoy», también advierten que los resultados «podrían ser potencialmente ofensivos / problemáticos / dañinos». «Delphi demuestra tanto las promesas como las limitaciones de los modelos neuronales basados ​​en el lenguaje cuando se enseñan con juicios éticos hechos por personas», subrayan.

Si te ha gustado, ¡compártelo con tus amigos!