Un trabajador de Google sostiene que su programa de inteligencia artificial es capaz de tener sentimientos y ha sido suspendido de empleo con sueldo por la compañía al considerar que ha violado su política de confidencialidad

Se trata del ingeniero Blake Lemoine, que el pasado 11 de junio hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google ‘Modelo de lenguaje para aplicaciones de diálogo’ (LaMDA) bajo el título “¿Tiene LaMDA sentimientos?”.

En un momento de la conversación, LaMDA afirmó que, en ocasiones, experimenta “nuevos sentimientos” que no puede explicar “perfectamente” con el lenguaje humano. Cuando Lemoine le pidió que describiera uno de esos sentimientos, el programa contestó: “Siento como que estoy cayendo en un futuro desconocido que conlleva un gran peligro“, frase que el ingeniero subrayó al publicar el diálogo.

De acuerdo con el rotativo, antes de ser suspendido Lemoine además entregó documentos a la oficina de un senador de Estados Unidos en los que aseguraba tener pruebas de que Google y su tecnología practican discriminación religiosa.

La empresa, por su parte, sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero que no tienen conciencia.

“Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial y le he informado de que las pruebas no respaldan sus afirmaciones“, ha afirmado un portavoz de Google citado por el rotativo neoyorquino.

Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA, que es una herramienta interna, y llegaron a una conclusión diferente a la de Lemoine. La mayoría de los expertos también cree que la industria está muy lejos de la sensibilidad informática.