Dos puntos, un guion y un paréntesis de cierre. La célebre carita sonriente nació en 1982 como una sugerencia de Scott Fahlman, investigador de la Universidad Carnegie Mellon, a sus compañeros de facultad. Buscaban una forma de distinguir los comentarios jocosos de profesores o alumnos por si algunos no captaban el humor de los demás en los sistemas BBS ('Bulletin Board Systems') que usaban para comunicarse antes de internet.
Este profesor no pensaba que su humilde propuesta fuera a convertirse en un fenómeno viral (no registró los derechos) ni que fuera a evolucionar hacia los expresivos círculos amarillos que tanto le disgustan. A su juicio, los 'emojis' son más artificiosos y menos creativos que su elegante solución basada en caracteres.
Aunque su universidad celebra anualmente el aniversario de su invención (él mismo reparte alegres galletitas) y su historia se haya publicado en medios de comunicación de todo el mundo, este experto en inteligencia artificial se ha cansado de ser famoso por una creación que le costó tan poco esfuerzo y de tener que firmar autógrafos por ello. De hecho, afirma en su web (suponemos que irónicamente), ya no va a dejar su rúbrica aun cuando se trate de una buena causa.
“Es divertido ser un poco famoso por algo, incluso si no es lo que piensas que es importante”, cuenta Fahlman a HojaDeRouter.com. Nos dice que “ha hecho las paces” con la idea de que será recordado como el padre de los emoticonos, y reconoce haber conocido a mucha gente interesante acudiendo a las charlas a la que le han invitado por ello en todo el mundo. Sin embargo, a este investigador le gustaría hacer historia por la complicada tarea en la que lleva trabajando casi cuarenta años: estudiar cómo comprendemos los humanos y trasladar ese conocimiento a las máquinas.
AMAESTRAR A UNA MÁQUINA PARA QUE PIENSE COMO TÚ
Cinco años antes de dejar constancia de su famoso emoticono en un mensaje que no conseguiría recuperar hasta 20 años más tarde, Fahlman presentó su tesis doctoral tesis doctoralen el prestigioso Instituto Tecnológico de Massachusetts (MIT por sus siglas en inglés), donde la leyó el mismísimo Marvin Minsky, uno de los padres de la inteligencia artificial. Un trabajo en el que presentaba NETL, su primer sistema basado en conocimiento (KBS) para tratar de almacenar información del mundo real.
Este investigador contaba en su tesis la historia de una simpática criatura, Clyde, que aún nos pone como ejemplo para que entendamos su aspiración de conseguir un KBS capaz de pensar como nosotros lo hacemos. Clyde es un elefante, por lo que tú y yo ya sabemos que probablemente es gris, tiene cuatro patatas, un cerebro y que suele moverse (a menos que esté dormido o muerto).
En realidad todavía no nos ha contado nada sobre este paquidermo, pero nosotros ya conocemos algunos de sus rasgos o patrones de comportamiento. Que una máquina haga las mismas deducciones que nuestro cerebro es otra cuestión. “Necesitamos un sistema que pueda reunir grandes cantidades de ese tipo de conocimiento: millones de afirmaciones sobre millones de cosas”, defiende.
Entender el lenguaje del libro de un niño o de un periódico, organizar alguna de las sencillas pero flexibles planificaciones de nuestro día a día, cooperar con otros agentes, sean humanos o robóticos, y ver qué sucede “realmente” en una fotografía son algunas de las acciones que una máquina todavía no sabe hacer bien.
Fahlman se siente “decepcionado” porque la mayoría de investigadores se centran actualmente en desarrollar lo que él denomina una “inteligencia artificial sobrehumana” - aspectos concretos que las máquinas pueden hacer mejor -, mientras se olvida el ansiado objetivo de crear una dotada de un completo sentido común.
“Un montón de inteligencia artificial valiosa comercialmente o sus sistemas derivados se ocupan del lenguaje humano (sistemas de traducción, sistemas de clasificación de documentos...), pero trabajan sin tratar de entender lo que el texto o la expresión realmente significa”, defiende este investigador. Eso sí, puntualiza que Google también se está interesando por comprender el lenguaje natural, el cometido del famoso Ray Kurzweil.
Sabemos que a Deep Blue se le daba muy bien el ajedrez o que Watson se impuso a los humanos en el concurso de televisión 'Jeopardy!', pero ambos carecían de amplios conocimientos generales (de ahí que el segundo acabara asegurando que Toronto era una ciudad estadounidense).
A sus 67 años, Fahlman es consciente de que no va a resolver el gran misterio, pero le gustaría dejar su aportación para que en un futuro se logre entender y replicar la inteligencia humana, lo que considera el mayor desafío intelectual de la humanidad. A lo largo de su carrera, este investigador ha trabajado en procesamiento de imagen, lenguaje natural o en redes neuronales, ahora tan de moda, para entender el funcionamiento del cerebro. Su intento más reciente y ambicioso se llama Scone.
Este proyecto pretende representar esos conocimientos del mundo real que nosotros deducimos fácilmente. Puede utilizarse como soporte para otras aplicaciones, desde la organización de bases de datos a la biología computacional, pero el objetivo de Fahlman es poder utilizarlo a gran escala. Por eso trabaja en el desarrollo de sistemas que utilicen el conocimiento de Scone para entender el significado de oraciones del lenguaje natural y mejorar así la interacción entre el humano y la máquina.
Si decimos que “el trofeo no cabía en la maleta marrón porque era demasiado grande”, todos entendemos que el problema es el tamaño del trofeo y no el de la maleta. Cómo hacer que lo entienda una máquina es otro asunto: hay que explicarle cómo son esos objetos, sus tamaños e incluso qué significa colocar una cosa dentro de otra, al igual que había que detallar qué es un elefante para que lo comprendiera.
Un ambicioso proyecto que ha desarrollado con un equipo de investigación de la Universidad Carnegie Mellon y que ha contado con financiación de la agencia de investigación militar DARPA, Google o Cisco. En estos momentos, sin embargo, su continuidad está en entredicho por cuestiones económicas. “No tengo claro si haría la misma elección si yo estuviera empezando ahora, solo por los problemas de financiación”, asegura Fahlman, que critica duramente la falta de inversión para estudiar la comprensión humana en un sentido amplio.
POR QUÉ TODOS DEBERÍAMOS SABER (UN POCO) DE INTELIGENCIA ARTIFICIAL
Fahlman considera un error que la gente piense que las máquinas son inteligentes y no cometen errores: si pensamos así podemos acabar en Zagreb cuando queríamos desplazarnos por Bruselas por culpa del GPS. “Si vamos a vivir con estos sistemas, es útil que los que no son expertos entiendan que los actuales sistemas de inteligencia artificial no son como la gente y tampoco son tan estúpidos como la gente”. Simplemente, los humanos somos (todavía) diferentes de las máquinas, y este experto cree todos deberíamos empezar a ser conscientes de esas diferencias.
Solo de esta forma sabremos que un 'chatbot' no pasó el test de Turing porque fuera más inteligente que nosotros (trampa en la que muchos han caído), sino sencillamente porque estaba más preparado para el arte del engaño. De hecho, este investigador califica como estúpidas las competiciones de inteligencia artificial. “Un día veremos que nuestras máquinas están haciendo cosas a un nivel humano y no tendremos que construir desafíos tontos para medirlas”, reivindica. “Discutir sobre las definiciones (¿podemos llamarlo 'inteligente' ya?) es una pérdida de tiempo”.
El afán de Fahlman por evangelizar sobre los retos de la inteligencia artificial queda patente en su esfuerzo por explicarnos su trabajo, en el blog en el que ha recogido algunos conocimientos de Scone para un público general, en la decisión de que su sistema sea de código abierto para que los usuarios puedan contribuir o en el libro que está escribiendo para que cualquiera pueda entender su proyecto.
Este sexagenario todavía tiene otros planes para Scone en mente, si la financiación se lo permite. “Pensé, y pienso todavía, que Scone tendrá gran impacto”, concluye Fahlman. Este incansable científico sigue trabajando laboriosamente para lograr reproducir la comprensión humana, el ambicioso proyecto al que ha dedicado casi toda su carrera profesional por mucho que su creación más modesta sea la que está presente en las pantallas de todo el mundo. Tres caracteres (aunque a menudo ignoremos la nariz) que siguen sonriendo 33 años después.
-------------------------
Las imágenes son propiedad, por orden de aparición, de Marcin Wichary, Wikimedia Commons, Kai Schreiber y Jon Callas