La portada de mañana
Acceder
El jefe de la Casa Real incentiva un nuevo perfil político de Felipe VI
Así queda el paquete fiscal: impuesto a la banca y prórroga a las energéticas
OPINIÓN | 'Siria ha dado a Netanyahu su imagen de victoria', por Aluf Benn

Actualizar o no 'The Imitation Game'

El nombre que Alan Turing dio a su test para comprobar la inteligencia artificial da título a la oscarizada –aunque poco fiel a los hechos– película protagonizada por Benedict Cumberbatch en el papel del matemático. Literalmente ‘el juego de la imitación’, esta prueba se describía en un artículo científico de 1950 titulado ‘Computing Machinery and Intelligence’, que Turing publicó seis años antes de que se acuñara el término inteligencia artificial.

El test consiste básicamente en evaluar las capacidades de una máquina para hacerse pasar por una persona. Turing creyó que al ser muy difícil definir el pensamiento, este se podía medir por comparación. Si consideramos que los humanos son inteligentes, todo lo que tenga un comportamiento indistinguible de un humano será inteligente.

Con esta premisa, el matemático estableció una prueba en la que participan tres actores: un humano, una máquina y un juez. Este último debería encontrarse en una habitación aislada, mientras que la otra persona y la máquina estarían en otro lugar. Si en una conversación con los dos actores, el juez no es capaz de distinguir cuál es el humano, el sistema habría pasado la prueba y se consideraría que es inteligente.

Sin embargo, hay quien piensa que el test de Turing se ha quedado anticuado. No en vano existen formas de superar la prueba mediante ciertas estratagemas, como desviar la conversación hacia otros derroteros cuando las preguntas no se ajustan a los conocimientos del sistema. Desde 1990 se organiza el Loebner Prize, destinado a premiar con 10.000 dólares a los creadores del robot que sea capaz de superar el test. En 2010 uno de los jueces confundió al sistema Suzette, diseñado por el programador Bruce Wilcox, con un humano.

El pasado año otro algoritmo, Eugene Goostman, convenció a casi un tercio del jurado de que era un humano durante un concurso organizado en la Universidad de Reading, del Reino Unido. Lo hizo sirviéndose de tácticas de despiste, pero el hecho es que superó el test. De ahí que se estén buscando nuevos parámetros más allá de la capacidad conversacional para evaluar la inteligencia artificial.

Lovelace 2.0

La idea de actualizar el test de Turing o cambiarlo por otro nuevo lleva años rondando la mente de los científicos. En 2001 se difundió el test Lovelace, en homenaje a la pionera de la programación Ada Lovelace, como una alternativa que se centraba en la creatividad. Los creadores de esta nueva prueba advertían de las formas que había para engañar a los jueces con el test de Turing. Al conocer el diseñador humano el procedimiento que se va a emplear para evaluar a su máquina, la construye expresamente para que supere esa prueba.

Con Lovelace se proponía a los robots llevar a cabo tareas creativas, como pintar un cuadro, escribir un poema o una historia. Un juez humano sería el que determinara si el resultado es propio de las capacidades de una persona o no. Alberto García Serrano, autor del libro de divulgación ‘Inteligencia Artificial. Fundamentos, práctica y aplicaciones’, destaca que el test de Turing medía parámetros más lógicos como el razonamiento, el aprendizaje y el reconocimiento del lenguaje, mientras que Lovelace mide la creatividad.

Recientemente Mark Riedl, profesor adjunto del Instituto de Tecnología de Georgia, ha propuesto una modificación a la que ha llamado Lovelace 2.0. Esta prueba introduce un elemento dinámico respecto la versión precedente. La máquina tiene que ser capaz de realizar una tarea creativa, pero el juez pide nuevas tareas para poner en aprietos a la máquina.

Al final se trata de que la máquina falle en una prueba y cuanto mejor lo haya hecho logrará más puntuación, lo que resulta en una forma de medir la inteligencia a lo largo de una escala, tal y como se hace con los test para evaluar la capacidad intelectual de las personas. “En realidad está metiendo elementos del test de Turing porque impone unas restricciones que van asociadas al lenguaje natural. El sistema no solo tiene que ser capaz de hacer la creación artística sino de razonar qué es lo que se le está pidiendo”, apunta García Serrano.

Una de las dudas que suscita este y otros test destinados a medir la inteligencia de las máquinas, es el papel del juez, según hace hincapié García Serrano “La idea es que si el sistema es creativo tiene algunas de las capacidades cognitivas del ser humano. Pero en el fondo tiene el mismo problema, entre comillas, del test de Turing. Al final es un humano el que dice si ha pasado o no el test. Una persona que ya es inteligente”.

No es sencillo encontrar una alternativa a esta forma de evaluar, más aún cuando se pretende medir un concepto tan abstracto como la inteligencia. Sin olvidar que hay otra cuestión de por medio. Se pueden comparar las capacidades de un sistema artificial con las de una persona. Pero una vez que el creador de la máquina (un humano) comprenda el problema a resolver, ya sea disfrazar una conversación o preparar su robot para hacer tareas artísticas, el test ya irá un paso por detrás.

Lo que medía Turing era cuánto se parecía la actuación de un sistema a la de un humano y sus planteamientos los publicó en la revista Mind, que recogía habitualmente ensayos filosóficos. Después de todo, como indica expresamente el nombre que Turing dio a su test, The Imitation Game, este no dejaba de ser un juego. Solo fue más tarde cuando se estableció como método práctico para comprobar la inteligencia artificial.

Imágenes: The Imitation Game, PhOtOnQuAnTiQuE