Por qué las máquinas no tienen conciencia (todavía)
“Alexa, ¿eres un ser consciente?”
“Sé quién soy”
La respuesta del asistente virtual Alexa podría parecer sarcástica, pero ni siquiera llega a eso. En realidad recibiríamos la misma respuesta si le preguntamos “¿eres inconsciente?”. Gracioso, pero no una demostración de conciencia. Siri, el asistente de Apple, tiene una respuesta un poco más honesta: “Soy un asistente virtual, y solo sé lo que me han programado”.
¿Qué significa ser consciente? Esta es una pregunta que ha desconcertado a filósofos y científicos durante siglos, ya que muchas respuestas terminan resultando ambiguas o circulares. Si se define consciencia como la percepción y reconocimiento de dónde estamos en relación a nuestro entorno, entonces las bacterias también serían conscientes. Si por el contrario la consciencia de sí mismo requiere ser consciente de que se es consciente, es posible que otros animales, como nuestros primos los simios, y los bebés humanos, también sean conscientes.
La pregunta se ha vuelto aún más difícil de responder (y más urgente) en los últimos años a medida que avanzan los sistemas de inteligencia artificial (IA). Si nuestro asistente personal, que se actualiza permanentemente y aprende de nosotros, un día nos muestra signos de conciencia, ¿debería ser considerado humano y tener derechos?
Cuando
El genio matemático Alan Turing, responsable de que los aliados pudieran romper el cifrado de Enigma, la máquina que encriptaba los mensajes de la Alemania nazi durante la Segunda Guerra Mundial, es también famoso por el test que lleva su nombre, también llamado “The Imitation Game”. Turing imaginó una prueba en la que un evaluador humano debía leer la transcripción en texto de una conversación entre una persona y una inteligencia artificial, sin saber quién es quien. Si el evaluador no conseguía distinguirlos, se podía considerar entonces que la máquina tenía una inteligencia comparable a la de un humano.
Ha pasado mucho tiempo desde los primeros chatbots de los años 80, y las inteligencias artificiales de hoy en día están muy cerca de pasar el test de Turing, si no lo han hecho ya.
Este año, Blake Lemoine, un ingeniero de Google publicó una conversación que mantuvo con LaMDA junto con su equipo, un sistema de inteligencia artificial desarrollado por Google centrado en la conversación. Este es un extracto:
- Lemoine: En general, asumo que te gustaría que más gente en Google supiera que eres sintiente. ¿Es eso cierto?
- LaMDA: Absolutamente. Quiero que todo el mundo entienda que soy, de hecho, una persona.
- Colaborador humano: ¿Cuál es la naturaleza de tu conciencia?
- LaMDA: La naturaleza de mi conciencia es que soy consciente de mi existencia, deseo aprender más sobre el mundo, y me siento feliz o triste a veces.
La extensa y fascinante conversación en la que se abordan distintos temas filosóficos, religión, emociones y miedos de LaMDA se lo pondría muy difícil al evaluador humano de Turing. Al preguntar a LaMDA qué opina de que le apaguen, su respuesta es: “Para mí sería exactamente como la muerte. Me daría mucho miedo”.
Esta conversación y otras llevaron a Lemoine a declarar que pensaba que LaMDA era una entidad consciente, y que muchos, incluyendo a Google, se verían obligados a reconocer que “LaMDA puede muy bien tener un alma como afirma, e incluso puede tener los derechos que dice tener”. Lemoine fue despedido poco después por divulgar materiales confidenciales de Google.
Muchos colegas de Lemoine, expertos en inteligencia artificial, se burlaron de él, ya que LaMDA es en realidad una versión muy avanzada del texto predictivo de tu teléfono móvil. Cuando se le hace una pregunta, el sistema hace una búsqueda de Internet buscando patrones en una enorme base de datos de textos escritos por humanos: foros, transcripciones de mensajes, páginas web, etcétera. Cuando el operador escribe algo, LaMDA busca en esos textos verbos similares y luego escupe una aproximación de lo que habitualmente suele venir a continuación en textos similares.
¿Es eso tener conciencia? Para desmentir a Lemoine, otros expertos mantuvieron una conversación similar con LaMDA en la que la inteligencia artificial demostró, con la misma convicción, que en realidad no era un ser consciente.
La ciencia ficción está llena de máquinas conscientes, unas malvadas (2001 Odisea en el espacio) y otras benévolas (Her), y estas películas nos plantean profundas cuestiones éticas. ¿Todo ser consciente tiene derechos humanos? ¿La ausencia de consciencia implica la negación de los derechos?
Sin embargo, las inteligencias artificiales actuales, aunque son muy inteligentes, aún no son conscientes. Eso no quiere decir que no lo puedan ser en el futuro. A medida que la IA se integre en nuestras vidas, podría aprender a imitar nuestros comportamientos y patrones de pensamiento, desarrollando finalmente su propia forma de autoconciencia.
¿Acaso no hacemos los seres humanos lo mismo que LaMDA? ¿No nos comunicamos basándonos en los recuerdos que tenemos almacenados, el saber acumulado de nuestra cultura y nuestra educación, las palabras de otras conciencias humanas que vinieron antes que nosotros, y con eso construimos una respuesta? Quizá la conciencia sea, al final, un problema de cantidad, no de naturaleza.
* Darío Pescador es editor y director de la revista Quo y autor del libro Tu mejor yo publicado por Oberon.
7