La portada de mañana
Acceder
El jefe de la Casa Real incentiva un nuevo perfil político de Felipe VI
Así queda el paquete fiscal: impuesto a la banca y prórroga a las energéticas
OPINIÓN | 'Siria ha dado a Netanyahu su imagen de victoria', por Aluf Benn

Los límites actuales de la inteligencia artificial

Los fascinantes avances en el campo de la robótica –impulsada en los últimos años por el abaratamiento de los sensores, así como por un aumento de la conectividad y la capacidad de procesamiento– invitan a fantasear con un futuro robotizado, con tanto entusiasmo como lo han hecho durante el siglo XX cientos de novelas de ciencia ficción. Tanto es así que a veces la inteligencia artificial pasa por sinónimo de robots con forma humanoide y cualidades inspiradas en los seres humanos.

El matemático Alan Turing, pionero en este terreno, definió el concepto haciendo referencia a la imposibilidad de distinguir a una persona de una máquina en una conversación a ciegas. Hoy no hay una definición tan drástica, aunque subyace la misma idea de que las máquinas acaben comportándose como se comportan los seres humanos. “Que parezcan inteligentes o que realmente lo sean”, apunta Alberto García, autor del blog divulgativo sobre inteligencia artificial divertimentosinformaticos.com. En realidad, la inteligencia artificial nos rodea y se encuentra presente de forma mucho más cotidiana de lo que nos hemos parado a pensar.

Las líneas de investigación en inteligencia artificial

En ocasiones, la inteligencia artificial queda definida por las muestras más futuristas. Así, los coches autónomos, de los que están previstos varios modelos para 2020, los drones, las smart cities o la robótica en general son lo que más llaman la atención, pero esto no quiere decir que en la actualidad sean lo más relevante. “Ahora mismo estamos muy centrados en reconocer patrones, reconocer objetos o el habla, y el reto es no sólo diferenciarlos sino comprenderlos. No sólo reconocer el lenguaje, sino comprender la semántica del lenguaje”, destaca Alberto García.

El reconocimiento de patrones está relacionado con el campo del data mining (o minería de datos), que trata de extraer información útil de toda una masa desestructurada de datos. Twitter es un buen ejemplo de cómo ingentes cantidades de información sin hilo conductor aparente pueden servir para prever tendencias de consumo y otros comportamientos, incluso para detectar epidemias y proyectar su expansión. “Es como si un ser humano tuviera una capacidad de procesamiento brutal y acceso a una cantidad de información brutal”, resume así Alberto García los dos pilares básicos que dan pie a este proceso.

Sin embargo, aun con la gran capacidad de procesamiento que han alcanzado las máquinas y toda la información que está disponible, las limitaciones se dejan notar. En un experimento que hizo Google, pusieron una red neuronal de 16.000 procesadores a ver vídeos de YouTube. Su misión era identificar gatos. Lograron prácticamente duplicar el porcentaje de aciertos obtenido hasta el momento, a pesar de lo cual sólo reconocieron a los mininos un 16% de las veces. El objetivo de la inteligencia artificial en este terreno –aún por alcanzar y precisar– no es sólo que una máquina sea capaz de reconocer un gato o cualquier otra forma en una escena de una película, sino que pueda comprender la escena y darle un significado completo.

Normalmente se trabaja a un nivel más bajo y precisamente a este nivel la inteligencia artificial está presente en muchos ámbitos de la cotidianidad. El reconocimiento de patrones está por todas partes. Los bancos, por ejemplo, lo utilizan continuamente para comprobar si una transacción es correcta o fraudulenta, sirviéndose de un software que usa toda la información acumulada sobre fraudes y movimientos correctos. De hecho, estos sistemas puede predecir cómo serán los casos futuros, es decir, los algoritmos tienen la capacidad de generalizar. El profesor de Inteligencia Artificial de la Escuela Politécnica Superior (EPS) de la UAM Manuel Sánchez-Montañés equipara esta cualidad al aprendizaje. “Las máquinas hoy en día pueden aprender en ese sentido: amoldarse a problemas, desarrollar la capacidad de extraer patrones o predecir casos nuevos”.

El cerebro como un modelo a imitar

La simulación del cerebro es otra de las líneas de investigación vigentes. La propia Unión Europea ha financiado con 1.000 millones de euros el Human Brain Project, un plan para crear un modelo del cerebro humano que permita usarlo para controlar robots y también para hacer pruebas médicas. Esta dicotomía se refleja constantemente cuando se trata de estudiar el sistema nervioso.

“Hay algoritmos de inteligencia artificial que fueron inspirados simulando el cerebro. Pero también hay ingenieros que trabajan con neurocientíficos o gente que estudia el cerebro, como psicólogos. Simulan el cerebro y comprueban si lo que se conoce por la psicología puede explicar cosas sobre el funcionamiento del cerebro cuando lo simulas en un ordenador”, explica Sánchez-Montañés, haciendo hincapié en que sólo son fragmentos del órgano lo que se imita.

“No hay ni modelos enteros del sistema nervioso de animales sencillos. Lo primero es que nos falta toda esa información del cerebro real y lo segundo es cómo metes esto en una máquina”, apunta Sánchez-Montañés, que matiza que no es viable replicar neurona a neurona un cerebro con la tecnología de hoy en día. Su colega Pablo Varona, profesor de Ciencias de la Computación e Inteligencia Artificial en la EPS de la UAM, especializado en neurociencia computacional, expresa la magnitud de la tarea: “El cerebro es un órgano que tiene miles de millones de neuronas, todas procesando información en paralelo, y la tecnología actual en neurociencia es capaz de registrar sólo unas pocas de esas miles de millones de neuronas”.

Aunque Varona destaca la importancia de profundizar en el conocimiento del cerebro, del que beben tanto la inteligencia artificial como la medicina, la biología y otras disciplinas, reconoce que la simulación precisa de la totalidad del órgano está aún muy lejos. A la enorme complejidad de la actividad que desarrolla se suman otros aspectos. Sin ir más lejos, la capacidad de autorregulación que tienen las neuronas. “En cualquier ordenador, si se rompe un transistor, lo más seguro es que el ordenador no pueda funcionar y, sin embargo, a nosotros se nos mueren neuronas a diario y en principio eso no afecta”, puntualiza el especialista en neurociencia computacional.

Por qué no veremos pronto un androide caminando entre nosotros

Las preocupaciones reales muestran, por tanto, que la inteligencia artificial entendida como máquinas que actúen y se comporten como las personas está lejos de ser una opción viable en un futuro cercano. El recurrente sueño de la ciencia ficción de un robot casi indistinguible de un ser humano seguirá teniendo forma de sueño por el momento.

“Ahora mismo somos muy buenos logrando que un ordenador realice algo concreto, como jugar al ajedrez, pero somos bastante incapaces de soltarlo en un medio que no conoce y que sea capaz de adaptarse”, señala Alberto García. La Deep Blue, argumenta, que batió al entonces campeón del mundo de ajedrez Gary Kasparov, en 1997, basó su éxito en una alta potencia de cálculo y algoritmos de búsqueda muy especializados, un cóctel que no serviría para dar autonomía a una máquina. “Tenemos muy claras cuáles son las reglas del ajedrez, pero no tenemos tan claras las reglas del entorno –especifica García–. Podemos decirle a una máquina: tienes que ir por el suelo, si llegas a una escalera tienes que poner un pie delante, etcétera, pero a lo mejor llega a una piedra y no sabe cómo tiene que actuar”.

Siguiendo este razonamiento, habría que decirle a la máquina absolutamente todas las situaciones que se puede encontrar en el medio, algo inviable hoy en día y por lo que es tan determinante incorporar una capacidad de aprendizaje avanzada, uno de los motivos por los que se intenta simular el cerebro. Sánchez-Montañés coincide en la importancia de este factor a la hora de imitar a un ser humano. “Desde el punto de vista del software, para mí lo fundamental es la capacidad de adaptarse a situaciones nuevas. Los humanos, cuando nos desarrollamos, nos caemos al suelo; cometemos un montón de errores y poco a poco vamos refinando el comportamiento porque tenemos la capacidad de aprender. A la máquina le tienes que poner esa capacidad de aprendizaje en base a errores, y en base a aciertos también”, afirma el profesor de Inteligencia Artificial.

No hay que olvidar que este proceso de aprendizaje en los humanos dura años, por no hablar de que tenemos guías y modelos en los adultos. Sánchez-Montañés puntualiza que el germen para aprender ya está presente en las máquinas, pero esta capacidad tendría que ser mucho mayor. A partir de ahí, el conocimiento que adquiera un robot se podría pasar a la siguiente generación de robots, por lo que éstos no empezarían otra vez de cero, como las personas, si bien nunca se podría dejar de lado la capacidad de aprender.

Pero las dificultades para construir un androide no se ciñen al aprendizaje. “Desde el punto de vista del hardware, sé que es un problema muy complejo porque en las piernas y en los pies tenemos cientos de músculos. Es una obra de ingeniería muy complicada. Y desde el punto de vista del software, también sería muy complicado coordinar esos cientos de músculos. Por eso las máquinas andadoras que hay ahora mismo tienen ese andar un poco extraño porque tienen muchos menos elementos que nosotros”, comenta Sánchez-Montañés, quien insiste en que el presente de la inteligencia artificial está en el software.

¿Y el futuro? Sánchez-Montañés lo tiene bastante claro. “Nuestro mundo va cada vez más hacia el software, es cada vez más virtual. El límite siempre lo va a marcar el hardware principalmente, porque hoy hay algoritmos de inteligencia artificial que tienes que dejar corriendo varios días hasta que llegan a unas conclusiones. Si tuvieras máquinas más potentes, seguro que podías dar con conclusiones más potentes”.

Imagen: Dallas1200am