¿Realidad o ficción? Inteligencia artificial que nos engaña como por arte de magia
“Nuestros enemigos pueden hacer que parezca que alguien dice algo en cualquier momento, incluso si nunca lo ha dicho”, afirma un vídeo de Barack Obama. “Podrían hacerme decir cosas como que [...] el presidente Trump es un total y completo idiota”. Aunque nuestros ojos nos hagan creer que el expresidente estadounidense está pronunciando esas palabras, lo cierto es que en realidad estamos escuchando la voz del cineasta Jordan Peele, ganador del Oscar a Mejor guion original por Déjame salir.
Estas inquietantes imágenes han sido generadas con FakeAppFakeApp, una herramienta basada en la librería de código abierto TensorFlow de Google. El controvertido sistema de aprendizaje automático —ha sido usado para crear vídeos porno con celebrities e incluso Reddit ha tenido que prohibir la comunidad deepfakes— no es el primero que muestra cómo los algoritmos pueden crear vídeos falsos como por arte de magia.
El año pasado, investigadores de la Universidad de Washington demostraron que podían sincronizar los movimientos de la boca de Obama con el audio de algunos discursossincronizar los movimientos de la boca de Obama que había dado anteriormente: para lograrlo, entrenaron una red neuronal (un algoritmo que simula el comportamiento de nuestro cerebro) con decenas de horas de sus vídeos presidenciales.
Después, el sistema de machine learning convertía los diferentes sonidos en formas básicas de la boca y mezclaba el resultado con el vídeo para que fuera difícil darse cuenta del engaño. El exmandatario se pasaba de serio, eso sí, ya que los investigadores aún no son capaces de modelar emociones. Según los expertos, entrenar el algoritmo con otros humanos puede hacer que en el futuro tengamos la oportunidad, por ejemplo, de charlar con una figura histórica en realidad virtual.
El auge de los vídeos falsos creados con inteligencia artificial está haciendo que algunos investigadores se centren en crear algoritmos para identificarlos. DARPA, la agencia tecnológica militar del Departamento de Defensa estadounidense, va a financiar un proyecto este verano para que se desarrollen sistemas capaces de generar vídeo, audio e imágenes falsas, así como herramientas que puedan cazar esas falsificaciones automáticamente.
No obstante, estos algoritmos no son los únicos que parecen obrar como por arte de magia: otros cuantos también nos hacen creer lo que no es de formas asombrosas.
Imágenes que no existen…
Los especialistas de DARPA están especialmente preocupados por una técnica de inteligencia artificial ideada recientemente por Ian Goodfellow, investigador de Google Brain: las redes generativas antagónicasredes generativas antagónicas (GAN por sus siglas en inglés), que dotan a la inteligencia artificial de una suerte de sentido de la imaginación.
En esencia, se trata de dos redes neuronales entrenadas con el mismo conjunto de datos. Una crea variaciones en las imágenes que ya ha visto, mientras que la otra ha de identificar si la imagen pertenece o no al conjunto original. Así, la primera mejora más y más, hasta el punto de que a su compañera le resulta imposible detectar la falsificación. Yann LeCun, director de investigación en inteligencia artificial de Facebook y una de las figuras más importantes del sector, ha definido las GAN como “la idea más fantástica en el aprendizaje profundo de los últimos 20 años”.
No en vano, la técnica se ha utilizado ya para desarrollar algoritmos que suenan a ciencia ficción: el año pasado, un grupo de investigadores de los Laboratorios Orange en Francia desarrolló una red neuronal que predice cómo será el rostro de las personas cuando envejezcan.
Para ello, la entrenaron con 5.000 caras de diferentes grupos de edad de la base de datos de cine IMDB y de Wikipedia. La primera máquina generaba nuevas caras y la segunda las rechazaba si no podía identificar la imagen original. Posteriormente, aplicaron la técnica a 10.000 nuevas caras con buenos resultados: el software de reconocimiento facial OpenFace determinó que se trataba de la misma persona en un 80 % de los casos. Según los investigadores, este algoritmo podría servir, entre otras cosas, para identificar a personas que hayan estado desaparecidas durante años.
Nvidia está utilizando redes GAN con ese mismo fin. El año pasado, investigadores del gigante de la electrónica publicaron un estudio en el que describían un sistema capaz de generar nuevas imágenes de rostros basándose en los datos de 30.000 celebritiescelebrities de la base de datos CelebA. Cuanto más tiempo pasaba entrenándose, mejores eran los resultados. Aunque en algunos casos se adivinaba el truco (hay a quien le falta algún rasgo facial), lo cierto es que las máquinas ya sueñan e imaginan rostros inquietantemente similares a los nuestros.
No es la única investigación en la que los expertos de Nvidia han usado esa técnica. Hace unos meses publicaron los detalles de un sistema de inteligencia artificial que permite a los ordenadores crear imágenes de una calle soleada a partir de otras de esa misma vía cuando llueve, nieva u oscurece. Los investigadores piensan que ese sistema podría ser muy útil para entrenar a los coches autónomos: los vehículos podrán 'ver' una escena lluviosa en lugar de otra soleada para aprender a conducir en las peores situaciones.
Partiendo de ese trabajo, los mismos expertos de Nvidia y un investigador de la Universidad de Cornell han desarrollado un sistema capaz de generar múltiples imágenes a partir de una que convierte instantáneas de gatitos reales en grandes felinos o en perros, y a la inversa.
Según han explicado, la red neuronal analiza varias características de cada fotografía, separando el contenido de la imagen (la postura del gato) del estilo (por ejemplo, la raza). Aunque la postura se mantiene fija, la imagen se mezcla con otra para variar ese estilo y el sistema determina si la imagen es creíble o necesita mejorar.
Por otra parte, hace solo unos días, los investigadores de la compañía han presentado una red neuronal ideada con un propósito diferente: reconstruir imágenes que están incompletas.
… y obras de arte nuevas
Los de Nvidia no son los únicos expertos preocupados por crear nuevas imágenes a partir de otras. El año pasado, investigadores de la Universidad de Berkeley hicieron público un sistema capaz de convertir imágenes veraniegas en otras invernales cambiando tonalidades, caballos en cebras añadiendo las características rayas (un usuario de Reddit transformó a Putin en ese animal usando la icónica imagen del mandatario ruso sin camiseta a lomos de un corcel) o fotografías en cuadros con el estilo de Monet o Van Gogh.
En realidad, los investigadores llevan tiempo haciendo que las máquinas se interesen por el mundo del arte. En 2015, expertos de diferentes centros de investigación alemanes presentaron un sistema que consigue que una foto cualquiera imite el estilo de La noche estrellada de Van Gogh o El grito de Munch. Esos mismos investigadores han creado una herramienta, DeepArt, para que nuestras propias imágenes o vídeos repliquen el estilo de distintas obras de arte.
El año pasado, expertos de Facebook y de la Universidad de Rutgers (Nueva Jersey) desarrollaron una máquina aún más creativa. En ese caso, el sistema se entrenó con 81.500 pinturas de WikiArt para diferenciar obras de arte y hasta distinguir su estilo. Por si fuera poco, más allá de crear obras imitando los estilos anteriores, el sistema es capaz de 'pintar' cuadros más imaginativos que no responden exactamente a ninguno de los estilos existentes.
La máquina que crea nuevos niveles de Doom
Doom Además de crear obras de arte, las GAN se están aplicando con increíbles resultados incluso en el mundo de los videojuegos. Un grupo de expertos de la Universidad Politécnica de Milán acaba de publicar una técnica para crear nuevos niveles del mítico Doomcrear nuevos niveles del mítico Doom. Tras estudiar 1.000 niveles oficiales del videojuego y otros 9.000 creados por la comunidad de jugadores, el sistema comenzó a crear pantallas más o menos creíbles.
Poco a poco, los algoritmos que aprenden de la realidad o de las obras humanas son cada vez más imaginativos y se vuelven capaces de crear desde vídeos falsos o rostros que no existen hasta obras de arte o videojuegos. Sin embargo, que sus resultados nos engañen cada vez mejor hace que algunos expertos estén preocupados por saber cómo podremos separar la realidad de esa ficción que crean sus mejorados trucos de 'magia'.
-------------
Las imágenes son propiedad, por orden de aparición, de Nvidia, Orange Labs y DeepArt.