“Mientras que el machine learning trata sobre las herramientas, la inteligencia artificial trata, precisamente, sobre inteligencia”. Jeremiah Harmsen, líder del Departamento de Investigación de Google en Europa pronunciaba esas palabras casi al inicio de su charla. Él es la máxima autoridad de la compañía en nuestro continente relacionada con aprendizaje profundo, redes neuronales e inteligencia artificial.
Google celebró hace unos días su primer evento de machine learning en España. Bajo el nombre The magic in the machine (La magia en la máquina), la multinacional preparó una serie de conferencias para explicar cómo aplica la inteligencia artificial a sus herramientas como Maps, Translate, Fotos, Gmail o las búsquedas por voz en Internet. Según datos de la compañía, un 25% del desarrollo de reconocimiento por voz que llevan a cabo se realiza en base al deep learning.
Harmsen también dio una breve explicación sobre cómo funcionan las redes neuronales profundas, más relacionadas con la búsqueda de algoritmos que luego se utilizarán en las diferentes aplicaciones Google. Puso como ejemplo dos fotos, una de un gato y la otra de un perro, e hizo la pregunta: “¿Cómo sabe el sistema que un gato es un gato y un perro es un perro?”. Las redes neuronales funcionan a base de capas. Cada una de ellas hace un trabajo diferente para reconocer ciertos aspectos de la foto en cuestión, esto es, que cada nivel hace una cosa más compleja que el anterior.
“Para que el sistema sepa que esto es un perro, le enseñamos fotos de perros”, explicaba Harmsen. “Si dice que esto es un perro pero en realidad no, tiene que entender que se ha equivocado”. La red neuronal profunda tiene que ser lo suficientemente inteligente para saber que está errando en base a la experiencia adquirida para que así, la próxima vez, acierte en su resultado.
Machine learning y redes neuronales
Machine learningSin embargo, el desarrollador avisa de que “estamos todavía en los inicios del machine learning: incluso a nosotros, los expertos, nos cuesta pensar qué va a haber en el futuro”. Puso un ejemplo generacional para explicar lo que significa la tecnología: “Para nuestros abuelos habría sido totalmente inimaginable tener un el bolsillo un teléfono que nos permite comunicarnos a través de la voz y que a su vez, nos entiende”, dijo refiriéndose a los smartphones.
Harmsen también habló de cómo el desarrollo del aprendizaje automático, en un futuro próximo, “irá de la mano con el desarrollo de algoritmos cada vez más potentes”. El de Google puso otro ejemplo, esta vez relacionado con la sanidad, para ilustrar cómo el uso de redes neuronales juega un papel clave en el desarrollo de las técnicas de diagnóstico. “Es ahí donde es importante la figura del médico, que también será muy importante en el futuro, ya que la máquina tiene que tener la posibilidad de poder decidir junto al criterio humano”.
Cuestionado sobre el caso de Libratus (la IA que ganó a cuatro profesionales jugando al póker) y AlphaGo (la máquina que desarrolló DeepMind y que ganó al mejor jugador de Go de la última década, Lee Se-dol), Harmsen reconoció que “a día de hoy los ordenadores en algunas tareas son ya mucho más inteligentes y más capaces que los seres humanos”.
Sobre estas dos inteligencias artificiales, el de Google explicaba a eldiario.es que existen “determinados juegos en los que se han generado sistemas que permiten que la capacidad de la máquina esté ya la altura de la capacidad de los seres humanos”. Tampoco negó que ese tipo de IA cuestan “muchísimo esfuerzo, muchísimo tiempo”, aunque sí reconocía que aún es difícil “trasladar lo que existe en materia de un determinado juego como el ajedrez a otro ámbito de juego como pueda ser el Go”.
Después de la presentación de Harmsen intervino Sergio Guadarrama, ingeniero de software de Google. Durante su ponencia presentó TensorFlow, la herramienta de código abierto de machine learning en la que trabaja.
A continuación, varias empresas contaron su experiencia con la herramienta y se mostraron ejemplos prácticos, como el del japonés Makoto Koike y su granja de pepinos (que utiliza machine learning para clasificarlos por tamaños) o el del la oceanógrafa Amanda Hodgson. Ella pretende encontrar a todos los leones marinos de una zona determinada a partir de fotografías tomadas desde un aeroplano. Como los animales apenas se distinguen cuando están dentro del agua, Hodgson utiliza TensorFlow enseñando fotos de leones marinos a la herramienta, a los que después detecta en las imágenes globales del océano.