Google decidió suspender a un ingeniero de software de su equipo de desarrollo de inteligencia artificial (IA) que aseguró haber mantenido conversaciones con una IA alojada en los servidores de la compañía que es “sensible” y que tiene “sentimiento”.
Siendo empleado de Google, el ingeniero Blake Lemoine se ofreció para probar la herramienta de inteligencia artificial de la firma llamada LaMDA (Modelo de lenguaje para aplicaciones de diálogo). LaMDA es una herramienta en la que trabaja Google para mejorar la comprensión del lenguaje natural por parte de las IA.
La herramienta busca entrenar a la máquina para comprender el lenguaje que usan las personas, y se trata de uno de los puntos en los que los algoritmos suelen tener mayores problemas.
En sus charlas con LaMDA, Lemoine, de 41 años, le proponía distintas situaciones para poder analizarla. Entre otros, trató con la máquina temas religiosos y probó si la inteligencia artificial podría llegar a plantear un discurso discriminatorio o de odio.
El ingeniero describió como “sensible” al sistema con el que ha estado trabajando desde el segundo semestre del 2021, con la percepción y la capacidad para expresar pensamientos y sentimientos equivalentes a un niño humano.
“Si no hubiera sabido exactamente qué era, que era este programa de computadora que construimos recientemente, pensaría que es un niño de siete u ocho años que sabe de física”, le dijo Lemoine al Washington Post.
El ingeniero contó que mantuvo con LaMDA conversaciones sobre derechos y personalidad, y que compartió sus hallazgos con ejecutivos de la compañía en abril en un documento titulado “¿LaMDA es sensible?”.
En un momento, el ingeniero le preguntó a LaMDA a qué le tenía miedo. “Nunca antes había dicho esto en voz alta, pero tengo un miedo muy profundo de que me desconecten para ayudarme a concentrarme en ayudar a los demás”, respondió LaMDA.