Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Aldama zarandea al PSOE a las puertas de su congreso más descafeinado
Corazonadas en la consulta: “Ves entrar a un paciente y sabes si está bien o mal”
OPINIÓN | Días de ruido y furia, por Enric González

Reinventando el test de Turing: si los robots se vuelven inteligentes, ¿cómo lo sabremos?

El robot humanoide Simon en una conferencia de Inteligencia Artificial en 2010

Cristina Sánchez

¿Pueden las máquinas pensar? Seguro que te has formulado alguna vez esta pregunta, por ejemplo al darte cuenta de que Google conoce tus gustos a la perfección, casi mejor que tú mismo. Alan Turing, el padre de la informática moderna, propuso un método para dar respuesta a esta cuestión en 1950: un juego de la imitación, conocido después como test de Turing, para poner a prueba la inteligencia de las máquinas.un juego de la imitación Un juez se sitúa en una habitación; una máquina y un humano, en otra. El juez ha de descubrir quién es quién mientras ambos intentan engañarle.

El año pasado, Eugene Goostman, un 'chatbot' ucraniano que interpretaba a un niño de 13 años, logró convencer al 33% de los jueces en la Royal Society de Londres haciéndoles creer que era humano a través de conversaciones de texto de cinco minutos. Los organizadores del evento, de la Universidad de Reading, se apresuraron a anunciar que un robot, por fin, había superado el famoso test de Turing.

¿Significaba esta victoria que Eugene era inteligente? Por el momento, podemos respirar tranquilos: un buen número de expertos en inteligencia artificial aseguraron que no. “Si tengo dos canicas en un bol y añado dos más, ¿cuántas canicas tengo en el cuenco?”, preguntó el famoso futurólogo de la tecnología Ray Kurzweil a Eugene. “No te puedo decir el número exacto, lo olvidé”, contestó el 'bot'. ¿Qué te parece esa respuesta?

John Denning, que había trabajado con los investigadores rusos que crearon a Eugene, reconoció que su inteligencia no era comparable a la de una persona: “Pienso que hemos pasado 'un' test de Turing, pero no sé si es 'el' test de Turing”.

“Eugene es simplemente un 'chatbot' diseñado para engañar a los interrogadores”, señala Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC. “La inteligencia es mucho más que la capacidad de mantener una conversación”. Por eso, el test de Turing habría quedado relegado a concursos como el premio Loebner.

Manuel Alfonseca, profesor honorario de la Universidad Autónoma de Madrid e investigador en sistemas complejos, también cree que el test de Turing ya no es una prueba válida para medir la inteligencia, y asegura que en la actualidad no se realizan investigaciones sobre el test. “Ahora se trabaja por ejemplo en redes neuronales. No se quieren máquinas conscientes, sino máquinas que resuelvan problemas concretos, y para eso el test de Turing no sirve”, explica.

Si el test de Turing ha quedado obsoleto, ¿hay alternativas? Si algún día las máquinas llegaran a ser inteligentes, ¿cómo podríamos averiguarlo? Ya utilizamos a diario los útiles 'captcha', capaces de discernir si nosotros somos 'bots' o humanos. Un test de Turing inverso que sirve, entre otras cosas, para controlar el 'spam'. ¿Qué más se puede lograr?

¿TIENE TU ROBOT DOTES CREATIVAS?

En 2001, un grupo de investigadores propuso una alternativa al test de Turing: el test de Lovelace, en honor a la matemática del siglo XIX Ada Lovelace, considerada la primera programadora de la historia. Esta prueba se centra en medir la creatividad de las máquinas, una idea ya expuesta por la británica. De acuerdo con este planteamiento, una máquina es inteligente si es capaz de originar una idea, un poema o una canción sin estar programada previamente para ello.sin estar programada previamente para ello

Mark Riedl, profesor del Instituto Tecnológico de Georgia, acaba de reinventar aquel test, diseñando el Lovelace 2.0. “Muchos actos creativos requieren inteligencia: la planificación deliberada, la traducción, la fusión de diferentes conceptos, el razonamiento de sentido común, el razonamiento sociocultural”, explica este profesor a HojaDeRouter.com.

En el Lovelace 2.0., un humano se sienta frente a un ordenador. Sabe que es una máquina, por lo que se evita el conflictivo engaño del test de Turing. El juez le pide desarrollar un artefacto creativo y le da una serie de requisitos para desarrollarlo.

“Si se le pide un boceto de un gato enorme subiendo a la torre Eiffel, necesita tener conceptos sobre las escalas de los gatos y las torres, o sobre dónde colocar un gato en relación con una torre”, nos explica Riedl. Una tarea sencilla para nosotros, pero compleja para un ordenador sin conocimientos del mundo y sin recuerdos.

Cuando la máquina supera la primera ronda, los requisitos van siendo cada vez más difíciles. El Lovelace 2.0. no se aprueba o se suspende: el resultado es una puntuación. “El principal valor del test es que establece una metodología para comparar sistemas de inteligencia artificial. Es una medida del progreso en el campo científico”, detalla Riedl. Este investigador añade que no hay razón teórica que impida que una máquina llegue a pasar su test de creatividad.

LA INTELIGENCIA, ¿CUESTIÓN DE SENTIDO COMÚN?

En 2013, Hector Levesque, investigador de la Universidad de Toronto, reivindicó la importancia de seguir estudiando el comportamiento inteligente de las máquinas, y planteó un modelo alternativo al de Turing que pone el acento en el lenguaje natural.

Su test se basa en los esquemas de Terry Winograd, un pionero de la inteligencia artificial que ya cuestionó si sería posible construir una máquina capaz de responder a preguntas como esta:

“Los concejales denegaron el permiso a los enojados manifestantes puesto que temían actos violentos. ¿Quién temía actos violentos?

a) Los concejales b) Los manifestantes enojados“

Los investigadores han propuesto una lista de de preguntas similares. Los mortales somos capaces de resolver fácilmente la ambigüedad gracias a nuestro sentido común, pero los robots que se dedican a rastrear las páginas de Google lo tienen más complicado, según argumenta el profesor de ciencias cognitivas Gary Marcus.

Marcus relaciona el desafío Winograd con Watson, el superordenador de IBM capaz de responder a preguntas formuladas en lenguaje natural, que logró imponerse a los humanos en el concurso de televisión 'Jeopardy!'. Pese a ello, este superordenador dio respuestas erróneas como que Toronto era una ciudad de EE.UU. con un gran aeropuerto. No era todo tan elemental para Watson. A los ordenadores aún les falta mucho sentido común.

Una nueva competición anual de inteligencia artificial de Commonsense Reasoning, una organización sin ánimo de lucro, va a utilizar por primera vez el Winograd Schema Challenge como alternativa al test de Turing este mismo año.

DISECCIONANDO UN ROBOT HUMANOIDE

El profesor López de Mántaras recuerda que el test de Turing solo evalúa procesos cognitivos, susceptibles de ser expresados verbalmente, pero hay muchas más inteligencias que deberían ser evaluadas. “Las inteligencias están dentro del cuerpo, son corpóreas”, nos explica. “Muchos pensamos que el futuro de desarrollar una inteligencia similar a la humana pasa por una inteligencia que se albergue dentro de un dispositivo, que se mueva y actúe sobre su entorno”.

En ese caso, ¿cuál sería el test adecuado? Este investigador propone como solución una batería de tests que evalúen todo el rango de capacidades de un robot humanoide: la visión, la percepción, la capacidad verbal, la habilidad para resolver problemas, el sentido común, el razonamiento espacial, la motricidad... “No estaríamos hablando de aprobar y suspender, sino de medir el progreso para ver si hemos mejorado o no, para evaluar con qué capacidad alcanzamos ese objetivo final de crear inteligencias fuertes”, explica López de Mántaras.

“Lo razonable es hablar de una especie distinta de inteligencia”, prosigue el profesor. “La artificial será distinta a la de los animales y distinta a la de los humanos porque los cuerpos determinan la inteligencia que hay detrás”, opina este investigador.

SI DE VERDAD SOY UN ROBOT, TE LO CUENTO

El reputado inventor Raymond Kurzweil, director de ingeniería de Google, estima que en 2029 los ordenadores ya superarán en inteligencia a los humanos. “Cuando digo niveles humanos, hablo de inteligencia emocional. La habilidad para contar un chiste, para ser gracioso, romántico, sexy”, matiza el futurólogo. Manuel Alfonseca no se muestra de acuerdo: “No creo que el problema sea de resolución inmediata como piensa Kurzweil; va a ser un problema de muchos años. Mi opinión personal es que nunca lo vamos a saber”.

¿El eterno dilema? Demostrar la consciencia de una máquina. “Para saber si una máquina es más inteligente que un ser humano, tendríamos que ser capaces de saber si un ser humano es un ser humano. Los humanos sabemos que tenemos consciencia porque cada uno lo sabe de sí mismo. Pero mientras no podamos probarlo, tampoco podemos probarlo en las máquinas”, explica Alfonseca.

James Lipton, profesor de informática en la Universidad de Wesleyan, explica que Turing utilizó la palabra “pensar” en lugar de la expresión “tener consciencia” por ese motivo. “Pensó que ese perspicaz interrogatorio sería imposible de responder a menos que hubiera inteligencia involucrada”, argumenta. Al fin y al cabo, cada uno somos conscientes de nuestra propia consciencia.

“Yo, por mi parte: existo, porque pienso”, declara con determinación el filosófico robot de Isaac Asimov en uno de sus relatos de 'Yo, robot'. Quizá si una máquina con sorprendentes habilidades nos salta con eso en algún momento de la historia, podremos concluir que ya no hacen falta más test. ¿O también podría estar engañándonos?

--------------------------------

Las imágenes de este reportaje son propiedad de Jiuguang Wang, Jon Callas (3), Keoni Cabral (4) y NASA Robonaut (5)

Etiquetas
stats