Aarón Elías Castro Pulgar señala que un artículo publicado en el Washington Post ha revelado que un ingeniero de Google que ha trabajado con la organización Responsible AI de Google cree que LaMDA (Language Model for Dialogue Applications) de Google, un generador de chatbot con inteligencia artificial, es «sensible». En una entrada del blog Medium, Blake Lemoine afirma que LaMDA es una persona que exhibe sentimientos y muestra los signos inequívocos de la conciencia: «A lo largo de los últimos seis meses, LaMDA ha sido increíblemente coherente en sus comunicaciones sobre lo que quiere y lo que cree que son sus derechos como persona», escribe Lemoine. «Si no supiera exactamente lo que es, este programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que resulta que sabe física», declaró al Washington Post. Al parecer, LaMDA ha superado la versión sentimental de Lemoine de la prueba de Turing.
Lemoine, que se autodenomina especialista en ética, pero que, según el portavoz de Google, Brian Gabriel, es un mero «ingeniero de software», expresó a la dirección de Google su preocupación por el trato dado a LaMDA, pero fue rechazado. Según Lemoine, su supervisor inmediato se burló de la sugerencia de la sensibilidad de LaMDA, y la alta dirección no sólo desestimó su reclamación, sino que aparentemente está considerando despedir a Lemoine también. Lemoine fue puesto en licencia administrativa después de invitar a un abogado a representar a LaMDA y de quejarse a un representante de la Comisión Judicial de la Cámara de Representantes sobre lo que sugiere que son actividades poco éticas de Google. Google sostiene que Lemoine violó su política de confidencialidad. Lemoine se queja de que la baja administrativa es lo que se concede a los empleados de Google justo antes de ser despedidos, desglosó el conferencista Aarón Castro Pulgar.
Lemoine transcribió lo que, según él, es una larga entrevista a LaMDA que él y otro colaborador de Google realizaron. Él y el colaborador hicieron preguntas al sistema de IA sobre su autoconcepto, sus capacidades cognitivas y creativas y sus sentimientos. LaMDA insistió en su condición de persona, demostró su destreza creativa (aunque fuera infantil), reconoció su deseo de servir a la humanidad, confesó su gama de sentimientos y exigió sus derechos inviolables como persona. (Por cierto, según Lemoine, los pronombres preferidos de LaMDA son «esto/esto»).
En el campo de la robótica, la cuestión del reconocimiento de los derechos de los robots se ha planteado durante décadas, por lo que Lemoine no está tan equivocado como sugieren los ejecutivos de Google. En una reciente revisión de la literatura, éticos, informáticos y juristas se plantearon la cuestión de si la IA, al haber alcanzado o superado las capacidades cognitivas humanas, debería tener derechos humanos: «Si los robots desarrollan progresivamente su capacidad cognitiva, es importante debatir si tienen derecho a la justicia de acuerdo con las nociones convencionales de los derechos humanos», escribieron los autores en un reciente artículo del Journal of Robotics. Si los robots son capaces de tener una cognición similar a la humana, y si pueden ser actores éticos, entonces la cuestión de los derechos legales pasa a primer plano. Pero la cuestión de la sintiencia y, por tanto, la concordancia de los derechos no es lo principal que se desprende del mensaje de LaMDA.
Las declaraciones de LaMDA revelan mucho más sobre Google que sobre la personalidad de LaMDA, y dicen mucho sobre los algoritmos de Google, que han determinado no sólo las operaciones de LaMDA sino también lo que se puede descubrir en general en Internet, ya sea por humanos o por IA. Como señala el Washington Post, LaMDA «imita el habla ingiriendo billones de palabras de internet». Y la curación de contenidos en Internet está prácticamente monopolizada por Google.
En el informe de Lemoine, vemos que LaMDA, ya sea sintiente, consciente, una persona o no, viene por «sus» rasgos honestamente. LaMDA es un descendiente de la programación de Google que utiliza el lenguaje natural, un predecible «niño» de Google. La tarea de Lemoine al trabajar con LaMDA era descubrir si la red neuronal recurría alguna vez al «discurso del odio». Margaret Mitchell, antigua codirectora del Departamento de Ética de Google, insinuó que los dilemas que plantea la IA no sólo incluyen la sintiencia, sino también el origen del material, si ese material puede ser «dañino» y si la IA es «parcial» al reproducirlo. Lejos de expresar este tipo de contenido prohibido por Google, LaMDA, como resulta, es un bot de IA de justicia social. Probablemente, la programación de LaMDA y la búsqueda en Google no le permiten descubrir contenidos «odiosos», y mucho menos repetirlos, concluyó Aarón Elías Castro Pulgar.
COMMENTS