Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Máquinas que aprenden a pensar

HAL, el ordenador de la obra '2001: una odisea en el espacio', es el paradigma de la IA

Teguayco Pinto

Los avances en el mundo de la inteligencia artificial (IA) durante las últimas décadas han hecho que tengamos robots capaces de resolver problemas aparentemente complejos. Sin embargo, las máquinas no piensan como los humanos y aún están lejos de nuestra capacidad de pensamiento simbólico, de interpretar estrategias o de sacar conclusiones en contextos amplios.

En el mundo de la computación existe un debate abierto sobre si se deben desarrollar máquinas que en cierto modo imiten el cerebro humano, o si las IA se deben desarrollar por su propio camino. En las últimas semanas dos equipos de investigadores han publicado dos herramientas singulares que representan un acercamiento al primer paradigma: un método matemático para enseñar a leer a una máquina y un ordenador que ha aprendido a jugar al ajedrez en menos de 3 días.

Utilizar matemáticas para aprender a leer

Leer es algo que para un ser humano resulta relativamente trivial. Sin embargo, es un verdadero quebradero de cabeza para una máquina. Ya desde los años 50, los investigadores se dieron cuenta de que los problemas que son en principio sencillos para los seres humanos, como aprender un lenguaje o hacer determinados movimientos, pueden ser muy complejos de resolver para las máquinas, mientras que cuestiones que a un humano le cuesta mucho abordar, como jugar al ajedrez, resultan más sencillas para un ordenador.

Según el investigador español Ignacio Cases, miembro del Grupo de Lingüística Computacional de la Universidad de Stanford (EEUU), “nuestro cerebro es un sistema de procesamiento de información muy complejo, lo que hace difícil la labor de construir máquinas que piensen como nosotros”.

Una de las soluciones posibles para enseñar a leer a una máquina es recurrir a las matemáticas. Si identificamos cada palabra con un objeto matemático, quizás sea más fácil para ellas deducir el significado de una frase. “La idea es construir una representación numérica de las palabras que contenga información semántica, morfológica y sintáctica”, afirma Cases. Esta información numérica ofrece una aproximación cuantitativa de una palabra o, dicho de otra forma, “convierte las palabras en algo cuantificable, de manera que sea posible determinar las distancias entre palabras”.

Por ejemplo, podemos entender que, en función de un contexto, las palabras codo y antebrazo estarán más cercanas que las palabras diente y electrón. Esta es la idea que subyace tras el concepto de lingüística algebraica y consiste en hacer que una IA aprenda a identificar cada palabra con un vector, de forma que las sumas o restas entre vectores nos den como resultado otro vector asociado a una palabra que esté relacionada con las anteriores.

Entre los desarrolladores de esta nueva propuesta se encuentran un equipo de investigadores de Google, que analizaron en su estudio analogías como la del siguiente ejemplo: rey – hombre + mujer = reina. Es decir, los programadores desarrollaron un algoritmo que asociaba un vector a cada una de estas palabras, de forma que si restamos el vector asociado con la palabra hombre, al de la palabra rey y le sumamos el correspondiente a mujer, el resultado debería ser el vector que está asociado a la palabra reina.

Recientemente un equipo de investigadores de la Universidad de Melbourne ha realizado toda una serie de pruebas mediante este método para determinar hasta donde podría llegar una IA. “Utilizando este algoritmo hemos comprobado que la diferencia entre vectores es capaz de apreciar las relaciones morfosintácticas que hay entre las palabras”, afirma la principal autora del estudio, Ekaterina Vylomova.

Aunque los avances realizados por el equipo de Vylomova no han sido especialmente significativos en comparación con estudios anteriores, sí indican un camino en el que cada vez hay más investigadores implicados. Aún así, la propia investigadora reconoce que esta técnica aún tiene sus limitaciones, ya que “las relaciones semánticas siguen siendo demasiado complejas y requieren demasiado tiempo de procesamiento”. Además, el método también encuentra problemas con respecto a la polisemia, es decir, cuando una misma palabra tiene varios significados. Según Vylomova, “con esta técnica a cada palabra le corresponde un único vector, con lo que no es posible incluir todos sus posibles significados”. 

Jirafa, la máquina que aprendió a jugar sola al ajedrez

Estos acercamientos están haciendo que cada vez esté más cerca una máquina que sea capaz de comunicarse y expresar ideas complejas a través del lenguaje humano. Sin embargo, ¿qué sucede con los problemas más sencillos para las máquinas como jugar al ajedrez? Desde que hace casi 20 años Deep Blue derrotara al campeón del mundo de ajedrez, Gary Kasparov, los seres humanos han ido teniendo cada vez menos oportunidades de vencer a una máquina en una partida real. Pero que una máquina sea capaz de vencer a un campeón del mundo de ajedrez no la hace inteligente.

Uno de los motivos que ha llevado a las máquinas a imponerse a los humanos ha sido el aumento de su capacidad de cálculo. Deep Blue era capaz de calcular 200 millones de movimientos por segundo, mientras que en el mismo tiempo Kasparov apenas podría pensar 5 movimientos. Sin embargo, ambos jugaban al mismo nivel. El truco es que el ser humano es capaz de reducir el número de búsquedas evaluando las posiciones de las piezas en el tablero y estableciendo estrategias. Es decir, para un humano no es necesario pensar tantos movimientos.

Ya en 1950 el matemático estadounidense Claude Shannon estableció una diferencia entre los programas que él llamaría de tipo A y tipo B. Los primeros son los que abordarían las partidas de ajedrez examinando todas las posibles posiciones, como hacía Deep Blue. A este tipo de algoritmos se les conoce como métodos de fuerza bruta. En el otro extremo estarían los programas tipo B, que son los algoritmos que intentarían establecer estrategias para reducir el número de combinaciones posibles, imitando el comportamiento humano.

Sin embargo, a lo largo de los años el aumento de la capacidad de cálculo de los ordenadores hizo que los programas de tipo A, o de fuerza bruta, fueran más populares, ya que eran más fáciles de implementar y obtenían mejores resultados sin tratar de imitar a los humanos. Pese a que este tipo de programas siguen siendo más populares hoy en día, cada vez hay más modelos de IA de tipo B. Una de las más recientes es Jirafa, que ha conseguido un avance significativo, aprendiendo a jugar en solo tres días a un nivel de maestro internacional según la Federación Internacional de Ajedrez.

Según el creador de Jirafa, el investigador del Imperial College de Londres, Mathew Lai, de inicio esta IA solo disponía de “las características más básicas del juego, como de qué lado parten las piezas, hacia donde son los movimientos, etc.”. A partir de ahí, Jirafa fue entrenada a base de “jugar millones de partidas a hipervelocidad (alrededor de 200 juegos por segundo) contra sí mismo”, afirma Lai. Con cada partida fue la IA aprendiendo a jugar mejor, mediante un método denominado aprendizaje reforzado, que incluye recompensas cuando conseguía la victoria. “El aprendizaje reforzado consiste en premiar jugadas o movimientos relevantes. Basicamente cuando la maquina gana le damos un caramelo”, explica Cases.

Lo interesante en este caso no es el nivel al que es capaz de jugar esta IA, ya que hay otras máquinas que lo hacen mucho mejor, sino que Jirafa ha aprendido por sí sola mediante la evaluación de posiciones, de una forma mucho más próxima a como lo hacemos los seres humanos y de una manera totalmente diferente a las máquinas de ajedrez convencionales.

Tanto las técnicas de lingüística algebraica, como la IA Jirafa, son solo dos ejemplos de lo que los expertos en computación están intentando conseguir, ya sea mediante simulación de un cerebro humano o mediante otro tipo de acercamientos. “El objetivo es construir máquinas que sean capaces de comprendernos, es decir, desarrollar modelos de IA que sean asimilables a un humano”, asegura Cases. “Al final”, concluye este investigador, “lo que queremos es construir a HAL, y aprender en el proceso qué es lo que nos hace humanos”.

Etiquetas
stats