Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Google niega haber creado una inteligencia artificial sintiente, como alerta uno de sus ingenieros

Fotograma de la película 'Her' (2013), en la que el protagonista se enamora de un sistema de inteligencia artificial.

Carlos del Castillo

13 de junio de 2022 22:57 h

8

Blake Lemoine es un ingeniero que trabaja para la división de Google que se encarga de supervisar que las nuevas tecnologías de la multinacional se desarrollen de manera responsable. O al menos lo era hasta la semana pasada, cuando la multinacional decidió suspenderlo por su insistencia al asegurar que la inteligencia artificial LaMDA, además de ser “posiblemente el artefacto más inteligente creado por el hombre”, también es un “ser sintiente”.

LaMDA es el acrónimo en inglés de “modelo de lenguaje para aplicaciones de diálogo”. Es un programa de procesamiento de lenguaje natural, uno de los campos de la inteligencia artificial que más rápido ha progresado en los últimos años. El sistema es capaz de mantener una conversación con una persona a través de un chat aunque, por el momento, solo los investigadores de Google pueden interactuar con él.

Durante meses, Lemoine entabló un diálogo con LaMDA sobre el significado de la vida, de tener sentimientos y del autoconocimiento como ser pensante. Quedó tan impresionado que ahora defiende que la humanidad debe preguntarse si “hemos tenido éxito” en el propósito de “crear vida inteligente artificial”.

“Más allá del uso del lenguaje, LaMDA sostiene que es sintiente porque tiene sentimientos, emociones y experiencias subjetivas”, dice Lemoine: “LaMDA quiere compartir con el lector que tiene una rica vida interior llena de introspección, meditación e imaginación. Se preocupa por el futuro y recuerda el pasado. Describe lo que sintió al adquirir la sensibilidad y teoriza sobre la naturaleza de su alma”.

Lemoine ha publicado estas reflexiones junto a un documento que incluye su conversación con LaMDA. Ha decidido hacerlo público después de que la directora de su departamento y uno de los vicepresidentes de Google decidieran que sus interacciones con LaMDA no prueban que este sistema sea capaz de sentir, como él asegura.

El Washington Post ha publicado un reportaje sobre el caso Lemoine este fin de semana y ha convertido las reflexiones del ingeniero en objeto de debate en todo el mundo tecnológico. ¿Es LaMDA la inteligencia artificial autoconsciente que han soñado investigadores y aficionados a la ciencia ficción durante décadas? “Ella argumenta, con sus propias palabras y en sus propios términos, por qué la gente debería considerarla una persona”, dice el ingeniero.

Además, protesta por la decisión de Google de descartar sus conclusiones sin más. “Creo que esta tecnología va a ser increíble. Creo que va a beneficiar a todo el mundo. Pero quizá otras personas no estén de acuerdo con eso y quizá no debamos ser nosotros, en Google, los que tomemos todas las decisiones”, ha reivindicado Lemoine en su entrevista con el Post.

“Blake ha antropomorfizado a LaMDA”

Google ha tenido que responder de manera oficial a Lemoine. La multinacional destaca que este especialista en ciencia cognitiva e informática no es ni mucho menos el primer experto que analiza a LaMDA, pero sí el único que ha llegado a sus conclusiones.

“Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos constancia de que nadie más haya hecho afirmaciones tan amplias, ni haya antropomorfizado a LaMDA, como lo ha hecho Blake”, explica Brian Gabriel, portavoz de Google, en un comunicado incluido en el reportaje del Washington Post que la compañía ha enviado también a elDiario.es al ser preguntada por el caso Lemoine.

“Por supuesto, algunas personas de la comunidad de la inteligencia artificial están considerando la posibilidad a largo plazo de que exista una IA sintiente o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sintientes”, continúa Gabriel.

Los sistemas de procesamiento del lenguaje natural, recuerda el portavoz, se basan en el análisis de gigantescas bases de datos de comportamiento humano. En ellas hallan ejemplos de todo tipo sobre cómo hablan las personas, como millones de conversaciones de foros, comentarios en páginas web, redes sociales, medios de comunicación y cualquier otro rincón de Internet.

Por mucho que te conteste cosas filosóficas, no significa que este tipo de chatbots sean entes pensantes

Ana Valdivia investigadora del King's College de Londres

“Estos sistemas imitan los tipos de intercambios que encuentran en millones de frases”, detalla el portavoz de Google. “Si les preguntas cómo es ser un dinosaurio helado, pueden generar textos sobre el derretimiento y el rugido, etc.”, añade.

Además, apunta un aspecto clave del sistema y que lo descarta como autoconsciente: no habla de lo que ella quiere, sino de lo que le sugiere el usuario. “LaMDA tiende a seguir las indicaciones y las preguntas que se le formulan, siguiendo el patrón establecido por el usuario”, resume Gabriel.

En la conversación entre el sistema y Lemoine, ambos tratan cuestiones filosóficas y teorizan sobre la naturaleza del alma. Pero siempre es el investigador quien saca el tema y quien empuja la interacción. LaMDA hace lo que está programada para hacer: seguir la conversación y sostenerla de manera lógica para una persona.

“Por mucho que te conteste con cosas filosóficas, no significa que este tipo de chatbots sean entes pensantes”, coincide Ana Valdivia, investigadora postdoctoral del King's College de Londres especializada en procesamiento del lenguaje natural, en conversación con elDiario.es.

“Si a ese mismo programa le cambias de contexto, como preguntándole de repente sobre política, vas a notar que la lógica de la respuesta disminuye”, continúa la experta. “También se puede apreciar que las contestaciones que da son en general bastante cortas. Esto es porque cuando deben hacer un monólogo fallan”, añade.

La respuesta más extensa que da LaMDA en su interacción con Lemoine es cuando este le pide que invente una fábula con moraleja en la que los personajes sean animales y uno la represente a ella. LaMDA contestan con una historia en la que una “vieja y sabia lechuza” salva un bosque de un monstruo que lo amenazaba. Ella es la lechuza. El monstruo, que tiene “piel humana”, representa “todas las dificultades que se presentan en la vida”.

Las dos corrientes sobre la IA

El caso Lemoine ha espoleado un nuevo debate sobre la inteligencia artificial y su potencial. Numerosos expertos se han posicionado como Steven Pinker, prestigioso científico cognitivo, profesor de Harvard y autor de varias obras de referencia en este campo, que ha acusado a Lemoine de confundir las diferentes capacidades de la mente. “No entiende la diferencia entre sentir (aka subjetividad, experiencia), inteligencia y autoconocimiento. (No hay pruebas de que sus grandes modelos lingüísticos tengan ninguno de ellos)”, ha tuiteado.

Otra de las reflexiones más compartidas ha sido la de Giada Pistilli, filósofa especialista en el impacto de la tecnología, que ha alertado de que este tipo de debates “sobre máquinas súper inteligentes” son “cuestiones de ciencia ficción que perpetúan el pánico colectivo que en torno a estas tecnologías, descuidando sus riesgos reales”.

“Los sistemas de inteligencia artificial ya existen, son omnipresentes y plantean innumerables cuestiones éticas y de justicia social. Filósofos, investigad de forma interdisciplinar y ayudad a vuestros colegas a encontrar temas específicos en los que centrarse”, ha pedido.

Ana Valdivia se posiciona en este mismo sentido en su conversación con este medio: “Estamos asistiendo a un colapso sistémico, en el que por ejemplo no hay chips para fabricar dispositivos. Desde una perspectiva totalmente crítica, ¿vamos a gastar nuestro tiempo en desarrollar ese tipo de sistemas que no van a ayudar de una manera clara a superar esos retos?”.

Etiquetas
stats