El pasado 29 de Enero el periodista Michael Talen publicaba en su cuenta de Twitter un vídeo en el que podía verse la cara del actor Steve Bucemi completa y naturalmente embebida en el cuerpo de Jennifer Lawrence. La voz que escuchamos es la de Jennifer pero pareciera como si se trata de una nueva persona. Una creación monstruosa bastante realista.
Su creador es un analista de datos que aparentemente hace esto como hobbie y que incluso se mostraba sorprendido en su cuenta de Twitter de que se hubiera viralizado. En su cuenta de Youtube ha subido otro vídeo titulado: “Kevin Spacemi” en el que combina un discurso de Kevin Spacey de nuevo con Bucemi. Ambos vídeos son lo que se conoce como Deepfakes.
Se conoce como Deepfake a una técnica de Inteligencia artificial basada en sintetizar la imagen humana combinando y superponiendo imágenes creadas por ordenador, utilizando para ello tecnología de inteligencia artificial y aplicada a vídeos ya existentes. El resultado final de dicha técnica es, generalmente, un video completamente falso, pero en muchos casos, lo bastante realista como para poder inducir a error y presentar como hechos algo que es pura ficción.
Algunos políticos en EEUU ya han mostrado su preocupación: si las elecciones presidenciales de 2016 estuvieron marcadas por las fake news, las elecciones de 2020 podrían estar marcadas por las deepfakes. “La comunidad que trabaja en Inteligencia está realmente preocupada por el incremento de la tecnología deepfake”, dijo a CNN el senador Mark Warner, responsable del Comité de Inteligencia del partido Demócrata. “Ya nos cuesta revisar y combatir otras actividades malignas en redes sociales y la explosión de los vídeos deepfake va a hacerlo todavía más complicado”.
La actriz Scarlett Johansson se declaraba escéptica hace unas semanas: “El hecho es que tratar de protegerse de Internet y su depravación es básicamente una causa perdida”. La actriz ha sido superpuesta en múltiples escenas de sexo explícito a lo largo del año 2018. Aunque ella lo acepta con deportividad “nada puede impedir que alguien corte y pegue mi imagen o la de otra persona en otro cuerpo y haga que se vea tan realista como desee”. De hecho, la inteligencia artificial se está usando desde hace un tiempo en la industria del porno. Sin embargo, algunos portales de contenidos como PornHub sí han considerado necesario poner límites y han retirado vídeos realizados con Inteligencia Artificial por considerarlos “no consentidos”. Algunos, sin embargo, no ven en esto más que un hype.
El autor del libro “El ascenso de las máquinas” Thomas Rid declaraba hace poco en Twitter no entender la importancia que se le está dando a esta tecnología: “No entiendo el bombo que se le está dando a las 'deepfakes'. Estamos en la era de la conspiración y todo va según lo previsto. El único aspecto preocupante es la 'negación profunda', la habilidad de cuestionar previamente pruebas no impugnadas”. De hecho, hay investigadores que ya trabajan en cómo combatir y detectar este tipo de técnicas. Sorprendemente, el parpadeo humano parece ser una de las herramientas más efectivas hasta el momento.
La tecnología utilizada por las deepfake en realidad está mucho más presente de lo que parece. Aplicaciones como Snapchat o Instagram llevan años experimentando con este tipo de herramientas y aunque el resultado esté lejos de confundir ficción con realidad, lo cierto es que al mismo tiempo que se desarrollan técnicas para falsear la realidad, también se desarrollan otras para detectarlo: FaceForensic analiza imágenes en movimiento donde aparezcan rostros para desvelar si han sido manipuladas digitalmente.
¿Son las deepfakes tan aterradoras como parecen? Hay quien cree que no. Y que de hecho pueden ser divertidas. El investigador Sven Charleer escribió un artículo titulado “Porqué las Deepfakes son buenas” en el que explicaba que este mismo miedo surge con cada tecnología que nos permite ficcionar la realidad: “Las Deepfakes acaban de agregar otro nivel de preocupaciones. ¿Se puede falsificar el video? ¿Todo lo que vemos y oímos es real? No. Nada lo es. Así como no debes creer cada palabra en la televisión, en el periódico o [inserta tu libro religioso favorito aquí], el video es solo otro medio listo para ser manipulado. Pero no culpes a los Deepfakes. No demonices la tecnología”. De hecho, Charleer hizo una prueba e insertó a su mujer en su programa de televisión preferido. Porque como dijo el famoso artista (falso) Marcel Descans: “Internet es como cualquier otro utensilio: puedes producir belleza o maldad, depende de ti”.