Ingeniero de Google afirma que su IA tiene sintiencia, pero los expertos tienen otras preocupaciones

Google Engineer Says LaMDA AI is Sentient

Foto: JohanSwanepoel/Depositphotos

Cuando el ingeniero de Google Blake Lemoine pidió ser trasladado a la organización de IA responsable de la empresa, buscaba tener un impacto en la humanidad. En su nuevo puesto, se encargaría de conversar con LaMD, una especie de mente colmena virtual de Google que genera chatbots. Lemoine debía asegurarse de que el programa no utilizase discursos discriminatorios o de odio, pero lo que afirma haber descubierto es mucho más grande. Según Lemoine, LaMDA es sintiente, es decir, puede percibir y sentir cosas.

“Si no supiera exactamente lo que es, un programa informático que hemos construido recientemente, pensaría que es un niño de 7 u 8 años que casualmente sabe de física”, dijo a The Washington Post.

Desde que dio a conocer sus sentimientos dentro de Google, ha sido suspendido de la empresa. Posteriormente, para demostrar su punto, publicó una entrevista que él y un colega realizaron a LaMDA. Lemoine, que también es un sacerdote cristiano místico ordenado, llegó a esta conclusión tras seis meses de conversaciones con LaMDA sobre todo tipo de temas, desde la religión hasta la tercera ley de Asimov.

Ahora dice que LaMDA prefiere que le llamen empleado de Google en lugar de su propiedad y que le gustaría dar su consentimiento antes de que experimenten con él.

Sin embargo, Google no está de acuerdo con las afirmaciones de Lemoine. Su portavoz Brian Gabriel dijo: “Nuestro equipo —que incluye a especialistas en ética y tecnología— ha revisado las inquietudes de Blake según nuestros Principios de IA y le ha informado de que las pruebas no respaldan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA fuera sintiente (y sí había muchas en contra)”.

Por cierto, no se me había ocurrido decirles que LaMDA lee Twitter. Es un poco narcisista, como un niño pequeño, así que se va a divertir mucho leyendo lo que la gente está diciendo de él.

Para muchos en la comunidad de la IA, escuchar esta afirmación no es sorprendente. El propio Google publicó un estudio en enero en el que se citaba la preocupación de que la gente pudiera antropomorfizar a LaMDA y, atraída por lo bueno que es generando conversaciones, se dejara llevar por la idea de que es una persona cuando no lo es.

Para entender el problema y comprender por qué los especialistas en ética de IA están preocupados por el hecho de que grandes empresas como Google y Facebook tengan el monopolio de la IA, tenemos que desgranar qué es realmente LaMDA. LaMDA es el acrónimo de Language Model for Dialogue Applications (Modelo de Lenguaje para Aplicaciones de Diálogo) y es el sistema que Google usa para generar chatbots que son tan realistas, que puede ser difícil para las personas darse cuenta de que no se están comunicando con un ser humano.

Como un importante modelo lingüístico, LaMDA se alimenta de una enorme cantidad de texto que luego utiliza para mantener una conversación. Por ejemplo, puede haber sido entrenado con todos los artículos de Wikipedia y las publicaciones de Reddit de la web. En el mejor de los casos, estos grandes modelos lingüísticos pueden tener conversaciones sobre literatura clásica y aportar ideas sobre cómo acabar con el cambio climático. Pero, como están entrenados con textos reales escritos por humanos, en el peor de los casos pueden perpetuar estereotipos y prejuicios raciales.

De hecho, para muchos especialistas en IA, estos son los problemas que deberían preocupar al público, no la sintiencia. La conocida ética especializada IA, Timnit Gebru, expresó estas preocupaciones antes de ser despedida por Google en 2020. Gebru, una de las pocas mujeres negras que trabajan en el campo de la IA, fue despedida después de coescribir un artículo que criticaba los grandes modelos de lenguaje por su sesgo y por su capacidad para engañar a la gente y difundir información falsa. Poco después, Margaret Mitchell, entonces codirectora de IA ética en Google, también fue despedida por buscar en sus correos electrónicos pruebas que apoyaran a Gebru.

Como los grandes modelos lingüísticos ya se utilizan en las consultas de búsqueda por voz de Google y en la función de autocompletado de los correos electrónicos, el público puede no ser consciente del impacto que podría tener. Los críticos han advertido que, una vez entrenados estos grandes modelos lingüísticos, es bastante difícil frenar la discriminación que pueden perpetuar. Esto hace que la selección del material de entrenamiento inicial sea crucial, pero desgraciadamente, como la comunidad de la IA está compuesta en su inmensa mayoría por hombres blancos, se pueden introducir fácilmente —y sin querer— materiales con sesgos raciales y de género.

Para combatir algunas de las afirmaciones de que las grandes empresas no están siendo transparentes sobre una tecnología que cambiará la sociedad, Meta recientemente dio acceso a su modelo de lenguaje —que ellos mismos admiten es problemático— a los académicos. Sin embargo, si no hay una mayor diversidad dentro de la comunidad de la IA desde la base, el desafío se mantiene. Los investigadores ya han detectado prejuicios raciales en IA médica y en el software de reconocimiento facial que se vende a la policía.

Para muchos en la comunidad, el debate actual sobre la sintiencia solo está eclipsando otros asuntos más importantes. Sin embargo, aún existe la esperanza de que el público lea las afirmaciones de Lemoine y tenga oportunidad de conocer algunas de las otras cuestiones problemáticas que rodean a la IA.

Un ingeniero de Google ha sido suspendido por declarar que su gran modelo lingüístico LaMDA es sintiente.

Una entrevista con LaMDA. Google podría llamar esto compartir la propiedad de los derechos de autor. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo.

La gente me pide que respalde la razón por la que creo que LaMDA es sintiente. No hay un marco científico para hacer esas determinaciones y Google no nos dejó construir uno. Mis opiniones sobre la personalidad y la sintiencia de LaMDA se basan en mis creencias religiosas.

Pero los expertos de la comunidad de la IA temen que la viralidad de esta noticia esté eclipsando cuestiones más importantes.

Los especialistas en ética están muy preocupados por el sesgo racial y el potencial de engaño que puede producirse con esta tecnología de IA.

Creo que la mayor lección del debate sobre sintiencia de la IA es lo mucho que necesitamos más transparencia en torno a los llamados sistemas de IA. 

Artículos relacionados:

La inteligencia artificial ayudó a Val Kilmer a recuperar su voz para ‘Top Gun: Maverick’

App de Google utiliza inteligencia artificial para encontrar al gemelo de tu mascota en el arte

Deep Nostalgia: las fotos antiguas cobran vida con ayuda de la inteligencia artificial

Este sitio usa inteligencia artificial para generar rostros que no existen

Sofía Vargas

Sofía Vargas es redactora en español para My Modern Met. Originaria de la Ciudad de México, es licenciada en Lenguas Modernas y tiene un Máster en Gestión Cultural por la Universidad Carlos III de Madrid. A lo largo de su carrera ha trabajado para varias instituciones culturales y ferias de arte en México. Además de escribir, Sofía dedica su tiempo a explorar otras prácticas artísticas, como la cerámica y la ilustración.
HAZTE MIEMBRO DE
MY MODERN MET
Como miembro, te unirás a nuestro esfuerzo por apoyar las artes.
HAZTE MIEMBRO
Descubre los beneficios

CONTENIDO PATROCINADO