La loca idea de una máquina que sepa pensar

Álvaro Ibáñez

Editor de Microsiervos (www.microsiervos.com ) —
23 de agosto de 2023 22:28 h

0

Arthur C. Clarke decía que cualquier tecnología suficientemente avanzada puede parecer magia. En el caso de la inteligencia artificial (IA), esto es cada vez más cierto. Examinamos embobados esas inteligencias y eso nos lleva a preguntas sobre cómo funciona nuestra mente, la naturaleza de la consciencia o qué es lo que nos diferencia de las máquinas. Hay una larga historia detrás de esa magia que puede estar a punto de revolucionar el mundo tal y como lo conocemos.

Cuando solo se podía soñar con la IA (Antigüedad-1940)

Antes de fabricar o desarrollar algo como una IA, se necesita una buena dosis de meditación. Esto fue lo que sucedió durante siglos: sencillamente, no se podía fabricar nada práctico porque no existía la tecnología para ello. Así que hubo mucho pensamiento y disquisiciones acerca de la posibilidad de reproducir la inteligencia, el razonamiento y la mente humana de formas mecánicas o algorítmicas.

Una de las primeras referencias data de 1308, cuando Ramón Llull, un filósofo experto en combinatoria diseñó su Máquina lógica, capaz de discernir –sobre el papel– la verdad o falsedad de un postulado. Más adelante, en el siglo XVII, pensadores como Gottfried Leibniz, Thomas Hobbes o René Descartes explorarían cómo convertir el pensamiento racional en álgebra o geometría. Dos siglos después, Charles Babbage y Ada Lovelace trabajarían juntos en crear lo que llamaron Máquina analítica a modo de ordenador primigenio, junto con el primer algoritmo para hacerla funcionar.

En aquella época, los robots eran meros juguetes y se les llamaba ‘autómatas’. A comienzos del siglo XX, el español Leonardo Torres Quevedo creó uno capaz de jugar finales de ajedrez, así como un ‘aritmómetro’, pero también teorizó sobre la inteligencia en las máquinas. Empezaba a intuirse la profundidad del asunto: ¿dónde está la mente dentro del cerebro? ¿Es nuestra mente algo más que una máquina complicada? ¿Se podría replicar de forma fiel?

En 1936, un joven universitario británico llamado Alan Turing llegaba a Princeton. Supervisado por el lógico Alonzo Church, sentó las bases matemáticas teóricas de las primeras computadoras y los límites de la computación. Pero hizo algo más: enseñarnos cómo detectar en qué momento una máquina es verdaderamente inteligente.

Las primeras bases de la IA (1940-1955)

Al igual que Turing y Church habían asentado los principios de la computación, en la década de los 40 se hicieron otros importantes avances teóricos. John von Neumann, por ejemplo, definió la arquitectura de las computadoras y trabajó sobre los autómatas celulares y la teoría de juegos. Comparó los cerebros de los humanos y las máquinas, y se mostró receloso de los intentos de replicar la inteligencia mecánicamente. Irónicamente, muchas de sus ideas y algoritmos se usarían para demostrar la inteligencia de las máquinas, por ejemplo en los juegos de estrategia.

Claude Shannon, mientras tanto, se convertía en el padre de la teoría de la información, sentando las bases matemáticas de las comunicaciones modernas, la criptografía y el aprendizaje automático. Plasmaba sus conceptos en máquinas como un ratón mecánico que resolvía laberintos o en versiones simplificadas del ajedrez. Así fue como se adelantó a Turing y Champernowne, que habían hecho lo mismo pero solo sobre el papel.

En 1950 Turing marcó uno de los hitos que más ha influido en la IA a lo largo de los tiempos. Planteó el test de Turing o ‘juego de la imitación’. En su versión simplificada, pide imaginar a un interrogador en una habitación aislada que debe decidir si con quien se está comunicando es una máquina o una persona. La máquina intentará responder cualquier pregunta haciéndose pasar por un ser humano; dado que la comunicación es a través de un teletipo o un chat, sus respuestas textuales serán la única forma de evaluarla. Ahí radica la dificultad y la grandeza del planteamiento: si se es incapaz de distinguir a la máquina de un ser humano por sus respuestas, es que la máquina está dotada de inteligencia.

Más o menos de forma simultánea, el prolífico novelista Isaac Asimov triunfaba también en 1950 con una de sus primeras novelas de ciencia-ficción: ‘Yo, robot’. Allí los autómatas inteligentes del futuro funcionaban con cerebros positrónicos con sus famosas ‘tres leyes de la robótica’ grabadas a fuego, algo que se hacía para garantizar su obediencia y la seguridad de los humanos. Aunque es fácil considerarlas algo básico que debería incorporar todo robot o IA, esas leyes –según Rob Miles de la Universidad Nottingham– “no sirven para nada”. Son adecuadas para enredar en las novelas y películas, pero tienen problemas de definición; no dejan de ser la base de todos los problemas éticos y morales a los que nos enfrentamos las personas a diario, y sobre los que ni siquiera nos podemos de acuerdo.

Con ordenadores todavía muy básicos pero funcionales, los primeros proyectos de auténticas IAs fueron viendo la luz. Marvin Minsky creó SNARC, una red neuronal basada en los trabajos del ‘perceptrón’, una neurona artificial que habían definido Pitts y McCulloch en 1943, imitando la estructura del cerebro humano. Utilizaba 3.000 tubos de vacío y podía resolver laberintos. Margaret Masterman, una lingüista y filósofa británica avanzaba en sistemas de traducción automática y en 1954 se realizaba el experimento de Georgetown, un pequeño hito con reglas gramaticales y 250 términos que tradujo unas 60 frases del ruso a inglés decentemente.

El verdadero nacimiento de la IA (1956-1972)

El verano del 1956 fue clave para la inteligencia artificial. Se celebró la Conferencia de Darmouth en New Hampshire (Estados Unidos), concebida como un tranquilo encuentro con personajes clave en diversos campos. Su promotor fue John McCarthy, quien acuñaría el término ‘inteligencia artificial’ como tal. Marvin Minsky, Claude Shannon, Nathaniel Rochester y otra docena de expertos en el campo intercambiaron sus puntos de vista. Separaron conceptos como ‘cibernética’, ‘autómatas’, ‘robots’ e ‘inteligencia artificial’. Se debatió sobre el aprendizaje, la inteligencia como idea y cómo serían las máquinas que pudieran simularla. Se planteó en qué formas las máquinas podrían resolver problemas, mejorar por sí mismas y ser creativas. Había nacido un nuevo campo del conocimiento.

Poco más tarde, en 1959, Minsky fundaría el AI Lab del Instituto de Tecnología de Massachusetts (MIT), una institución que perdura hasta nuestros días y que ha producido innumerables avances. La de los años 60 fue una década prolífica de micromundos, lenguaje natural y estudio de juegos de estrategia, en la que empezaron a despuntar los primeros aunque toscos robots y programas ‘inteligentes’. John McCarthy comenzó a desarrollar Lisp, un lenguaje de programación adecuado para IA. Surgieron originales creaciones como ELIZA, el primer ‘chatbot’ conversacional que haría que empezáramos a antropomorfizar a las inteligencias artificiales; Dendral, dedicado a la química molecular o SHRDLU, cuyo universo mental era una mesa con bloques de formas y colores que debía ordenar y apilar según las instrucciones de una conversación, respetando las leyes de la física.

En esta década también surgieron algunos conceptos importantes, como la lógica difusa, que permite tratar diferentes conceptos como un valores decimales entre 0 y 1, algo más parecido al dato estadístico o de probabilidad. Una adelantada Philippa Foot planteaba la primera versión del ‘dilema del tranvía’, un experimento mental ético que resurge cada cierto tiempo para mostrar la dificultad en la toma de decisiones de las IAs, como recientemente con los coches autónomos. Si el vehículo detecta una posible colisión con un peatón que cruza incorrectamente la calle, ¿debe girar para evitarlo aunque el resultado sea un choque contra un árbol y pueda morir quien conduce, o debe ignorar el problema y seguir adelante? ¿Y si al girar el volante atropella a un perro? ¿Y si a quienes atropella es a dos niñas que van al colegio?

Todavía era demasiado pronto, pero los expertos ya debatían algunas cuestiones éticas sobre los usos de la inteligencia artificial. ¿Cuál sería el impacto de su uso generalizado sobre nuestra sociedad? ¿Podrían ser conscientes? ¿Superarían los beneficios de esta tecnología a los potenciales riesgos en caso de mal uso o fallos de funcionamiento?

El invierno de la IA (1973-1979)

Aunque no sería el único periodo de desánimo, la segunda mitad de la década de los años 70 marcó lo que se suele denominar ‘el primer invierno de la inteligencia artificial’. Las razones fueron diversas, pero la principal fue la falta de financiación para muchos de los proyectos. Casi todos los avances de las décadas anteriores habían sido teóricos y a quienes ponían el dinero les gustaba ver resultados. Y los avances en traducción automática, reconocimiento de la voz y robótica eran todavía pocos y muy lentos.

Esto no quiere decir que no sucediera nada durante esos años. Alain Colmerauer desarrolló Prolog, otro lenguaje que resultaría importante para los desarrollos en IA. Vieron la luz sistemas expertos como Mycin, especializado en diagnosticar enfermedades infecciosas de la sangre. No se puede olvidar que en el mundo de la informática el primer ordenador personal, el Apple II, no llegaría hasta 1977 y el IBM PC hasta 1981, ambos con muy limitadas capacidades. Los futuros desarrolladores de IAs tendrían que esperar.

Los sistemas expertos (1980-1987) y el segundo invierno (1987-1992)

John Searle acuñó en 1980 dos nuevos términos para el futuro: la ‘inteligencia artificial débil’ y la ‘fuerte’, algo que ya había sugerido Minsky. La IA débil es capaz de ejecutar correctamente una tarea, pero su visión del mundo es muy limitada y está centrada en algo demasiado concreto como para ser considerada inteligencia general. En cambio, una ‘IA fuerte’ domina cualquier tema y sería más parecida a las máquinas pensantes y a la mente humana. Searle también intentó darle una vuelta al test de Turing con un argumento denominado ‘el experimento de la habitación china’, donde se incluye una traducción del inglés al chino y un intermediario que no sabe idiomas para demostrar que la máquina no es capaz de entender ni tener una ‘mente’ como tal. Es decir, las cuestiones sobre la consciencia de las máquinas, si alguna llegaría a superar el test de Turing y si esa prueba era acaso válida, volvían a estar de moda.

Con idea de impulsar la IA desde todos los frentes en Japón, se inició el proyecto FGCS (‘Quinta generación de computadoras’) que pretendió combinar lo mejor del hardware y el software para el avance de la IA, funcionando sobre Prolog. Se trataba de manejar bases de datos más grandes, procesamiento en paralelo y probar nuevas ideas. Por desgracia, los proyectos allí desarrollados no encajaron con lo que deseaba el mercado. Lo interesante es que propició una reacción de otros países que resultó muy beneficiosa para la IA en general, ya que hizo avanzar a todo el sector.

Aunque hubo más progresos a finales de los 80, incluyendo cortas aventuras de los primeros vehículos semi-autónomos en Alemania y Estados Unidos, otro pequeño ‘invierno de la IA’ ocupó los primeros años 90, donde incluso un primer modelo de Deep Blue perdía con Kaspárov al ajedrez. Fue una época en la que se decía que todas las IA funcionaban muy bien en las demos, pero fracasaban miserablemente en el mundo real. Se dice que además una maldición perseguía a las IAs: si eran capaces de resolver un reto, se consideraba que era demasiado fácil; si no podían, era señal de que no estaban a la altura. Pero muchos de esos pequeños avances, como las redes convolucionales capaces de reconocer números y letras con precisión, marcarían el retorno de la IA y su popularización muy poco después.

Las décadas prodigiosas: la IA da sus frutos (1993-2011)

El cambio de siglo llevó la inteligencia artificial a muchos productos que la gente podía usar: se empezaba a ‘sentir la magia’. Quizá todo comenzó cuando Deep Blue ganó a Kaspárov en 1997, toda una muestra de poderío para una IA débil, pero al mismo tiempo se estaban produciendo grandes avances en campos como los agentes inteligentes, el lenguaje natural y el aprendizaje automático (‘machine learning’) que serían claves para lo que estaba por venir.

La gente podía usar el software de Dragon para dictar textos al ordenador (reconocimiento de voz), escribir a mano en el Newton de Apple (reconocimiento de gestos) y los pequeños de la casa podían interactuar con el Furby, que respondía a estímulos externos. Las Roombas de iRobot aspiraban las casas en 2002, aprendiendo a crear mapas de las habitaciones y evitar las escaleras, además de otras ‘trampas’.

Se dice que la Ley de Moore es implacable, proporcionando el doble de potencia de cómputo a la mitad de precio cada 18 meses. Esto resultó clave para que la IA pudiera crecer procesando más datos estadísticos en menos tiempo. Así funcionan las redes bayesianas, los modelos de Markov (utilizados para procesar y generar lenguaje) y los algoritmos evolutivos, que reciben su nombre por su parecido con la selección natural darwiniana. Todo esto mejoró los sistemas de diagnósticos médicos, la robótica y tecnologías que ahora nos resultan cotidianas, como el buscador de Google.

La explosión de la IA (2012-2022)

En esta última década, la conjunción entre las mayores velocidades de las comunicaciones, el número de datos para el aprendizaje y los intereses comerciales han permitido avances que todavía resultan difíciles de imaginar. Las IAs tienen nombres propios: Siri, Alexa, GPT-3 o DALL-E. Términos como ‘modelos generativos’, ‘lenguaje autorregresivo’ o ‘modelos de difusión’ son casi comunes. Sus algoritmos se compran y venden.

La IA ya existe ‘como servicio’; se puede alquilar como una suscripción a Netflix para tareas como crear dibujos, hacer deberes o retocar fotografías. Hay algoritmos entrenados para ayudar a decidir a quién conceder hipotecas, seleccionar para un nuevo empleo o priorizar en el trasplante de órganos en un hospital. Eso sí, con todos los problemas asociados: sesgos, desigualdad, falta de transparencia… Es la nueva discriminación algorítmica.

Los modelos de IA actuales se entrenan con cantidades ingentes de datos, lo cual muchas veces significa “todo lo que se encuentra publicado en Internet, incluyendo todos los textos y libros que existen, fotografías, vídeos y sus transcripciones”. GPT-3 está entrenado con 175.000 millones de parámetros, pero básicamente genera textos añadiendo palabra a palabra según ciertas reglas y probabilidades, algo así como un ‘autocompletar infinitamente mejorado’. Algunas IAs se comportan como ‘cajas negras’ que funcionan sin que sus creadores sepan exactamente los detalles de cómo lo hacen; de hecho el problema de la explicabilidad –que un algoritmo o una IA justifique sus cálculos o decisiones paso a paso– es uno de los más relevantes en la actualidad.

Las redes neuronales que clasifican objetos como el rostro de personas, semáforos o vehículos, comparten además sus conocimientos en la nube de internet: cuando un coche aprende dónde está un bache, todos los demás lo saben en la próxima actualización. El reconocimiento facial resulta conveniente; nos da acceso al móvil o sabe cuándo sonreímos a las cámaras fotográficas. Eso sí, las IA a veces fallan estrepitosamente, con meteduras de pata en aritmética básica, ‘alucinaciones’ o, más normalmente, inventándose datos.

Los métodos de aprendizaje se han vuelto más refinados. El deep learning o ‘aprendizaje profundo’, que existe en versiones con supervisión humana y sin ella, es capaz de crear abstracciones usando su gran capacidad de procesamiento. Las inteligencias artificiales se están adaptando a todo tipo de tareas de forma convincente: para generar textos (GPT-3, ChatGPT, Bing AI), traducir (Traductor de Google, DeepL), imágenes (DALL-E 2, Midjourney, Stable Difussion), música, código (CoPilot) y un largo etcétera. Estas tareas suelen requerir de la computación en nube para entrenar a las IAs, que han de refrescar sus conocimientos cada cierto tiempo, pero nuevamente el abaratamiento del hardware lo hace más accesible cada día.

Esta explosión técnica de las IAs hizo que en la década de 2010 diversos grupos y empresas comenzaran a plasmar por escrito sus consideraciones sobre la regulación y las directrices éticas que se debían marcar. Dado que una IA no se considera –todavía– una entidad consciente ni sintiente, no deja de ser como una herramienta, o como un arma, que puede ser usada para el bien o para el mal, mereciendo el mismo tratamiento. En este sentido, se están viviendo movimientos que van desde el neoludismo al tecno-optimismo, la burla, el enfado e incluso el misticismo. Hay voces que se alzan ante las IAs, a las que consideran “aproximadamente, loros”, poco más que “juguetes tontos” o “algoritmos capaces de generar únicamente gilipolleces” usando un tono muy autoritario y poco respeto a la verdad.

Quienes están del lado del optimismo creen que la inteligencia artificial de uso general está a punto de llegar. Que nos facilitará la vida, liberándonos de las tareas repetitivas y generando nuevos puestos de trabajo en áreas como el entrenamiento de inteligencias artificiales, el diseño de instrucciones (‘prompt engineering’) o los relativos a la supervisión y evaluación de comportamientos. Tras un largo camino, puede que finalmente logremos comprender y dominar esa magia que ha fascinado a tantas personas a lo largo de su historia.

Este artículo forma parte de la revista 'Inteligencia Artificial. Riesgos, verdades y mentiras', exclusiva para socios y socias de elDiario.es. Recibe en casa uno de los últimos ejemplares en papel de regalo con un año de elDiario.es