El haryanvi es uno de los más de 1.600 dialectos que se hablan en la India, cuya constitución reconoce 22 lenguas oficiales. Manoj Tiwari no lo habla, pero sí buena parte de la población inmigrante de las regiones del oeste del país que vive y trabaja en Delhi, el estado de la capital. El 7 de febrero, un día antes de las elecciones a la asamblea legislativa de Delhi, un vídeo de Tiwari hablando haryanvi se viralizó en WhatsApp. Tiwari, actor de Bollywood y miembro del partido que gobierna la India a nivel nacional, criticaba en él al actual gobernante de Delhi, de una formación rival. Pero el vídeo no era real: fue el primer uso oficial de un deepfake en política.
Los deepfakes son vídeos o audios fabricados con inteligencia artificial que muestran a personas hablando o moviendo el cuerpo de formas que ellos en realidad nunca hicieron. Fuentes del Bharatiya Janata, partido de Tiwari, han reconocido a ViceVice que emplearon esta tecnología para producir el vídeo y poder dirigirse a los hablantes de haryanvi en su lengua natal:
“Kejriwal [gobernante de Delhi] nos engañó a base de promesas. Pero ahora Delhi tiene la oportunidad de cambiarlo todo. Presiona el botón del loto [logo del Bharatiya Janata] el 8 de febrero para formar un gobierno dirigido por Modi”, afirma Tiwari en el citado dialecto hindi. La base del deepfake fue un vídeo del mismo político emitiendo el mensaje en hindi:
En declaraciones a Vice, el responsable de redes del Bharatiya Janata desvela que la formación diseñó a conciencia una campaña para mejorar la imagen de sus candidatos mediante el uso de deepfakes, gracias a la colaboración de una firma de comunicación. “Los vídeos en haryanvi nos permiten acercarnos de forma convincente a nuestro público objetivo, incluso si el candidato no habla el idioma del votante”, defienden la misma fuente.
Los técnicos del Bharatiya Janata fabricaron otro deepfake más, en este caso de Tiwari hablando en inglés. Según sus cálculos, los vídeos falsos corrieron por unos 5.800 grupos de WhatsApp y alcanzaron a 15 millones de personas.
El potencial desinformativo y como arma de intoxicación de la opinión pública de los deepfakes han provocado preocupación y numerosos debates sobre su refulación o prohibición desde que se empezó a tener constancia de su existencia, en 2017. No obstante, hasta ahora el objetivo de la gran mayoría de ellos ha sido el porno. Actrices y mujeres famosas de todo el mundo han visto como sus caras se superponían en el cuerpo de otras mujeres en vídeos sexuales sin su permiso. Según un informe elaborado en septiembre por Deeptrace, una empresa que desarrolla una herramienta para detectar deepfakes, hasta un 96% de ellos consisten en este tipo de pornografía no consentida.
En el ámbito político, los deepfakes más virales hasta ahora han sido de propósito humorístico, como el del “Equipo E”, o intentos de manipulación más burdos sin demasiado recorrido (el viral de Nancy Pelosi, presidenta de la Cámara de Representantes de EEUU, en el que parece hablar en estado ebrio, no es un deepfake sino simplemente un vídeo cuya velocidad de reproducción fue manipulada). La manipulación del Bharatiya Janata es el primer caso en el que un partido reconoce que los deepfakes formaban parte de su campaña de promoción oficial.
El informe de Deeptrace reflejó, sin embargo, que un nuevo negocio está empezando a aflorar conforme el uso de esta tecnología se va extendiendo. En la actualidad, existen apps, páginas web y desarrolladores independientes que se ofrecen a fabricar deepfakes por muy poco dinero. Con 250 fotos de la víctima y 2,99 dólares se puede producir un vídeo falso sencillo. Por 29,17 dólares, la voz Donald Trump pronuncia las 50 palabras que el pagador elija.
Los deepfakes no engañan, pero aumentan el cinismo
La acción del partido indio, destapada esta semana, ha coincidido con la publicación del primer estudio sobre el impacto de los deepfakes en el ciudadano. “Hemos demostrado que los deepfakes políticos no necesariamente engañan a las personas, pero pueden sembrar incertidumbre que puede, a su vez, reducir la confianza en las noticias y las redes sociales”, revela la investigación, publicada este miércoles en la revista científica Social Media + Society.
Los autores, dos investigadores de la Universidad de Loughborough (Reino Unido) observaron las reacciones de una muestra representativa de 2.005 británicos a los que se mostró varios cortes de uno de los primeros y más virales deepfakes, que muestra a un falso Barack Obama pronunciando un discurso y al cómico Jordan Peele revelando que todo se trata de un engaño al final del vídeo. Un grupo visionó la versión original, incluyendo a Peele; a otro le mostraron un corte de cuatro segundos en el que el falso Obama dice “el presidente Trump es un total y completo imbécil”; mientras qua al último grupo se le expuso a una versión de 26 segundos del falso Obama, incluyendo también esa cita sobre Trump.
Solo un 48% de los participantes que vieron uno de los vídeos que solo incluían al falso Obama afirmó sin dudar que se trataba de una manipulación. “Este hallazgo es sorprendente dado que esa declaración [sobre Trump] es altamente improbable”, reseñan los investigadores. La cifra de engañados en esos mismos dos grupos, “no demasiado alta pero reseñable”, fue de un 15,5% de media, aunque casi un par de puntos más alta en el grupo que visionó el deepfake de 26 segundos. El resto de los participantes, en torno a un 35%, se sintió “inseguro” respecto a la veracidad del contenido.
Aunque los resultados muestran que “las personas tienen más probabilidades de sentirse inseguras que ser de engañadas por los deepfakes”, estos “pueden contribuir a generar una incertidumbre generalizada y aumentar el cinismo”, detalla el estudio. Los investigadores destacan que esto supone un reto más a la hora de entablar “un debate público relevante”, y citan a la prestigiosa filósofa alemana Hanna Arendt (1906-1975) como resumen del problema: Un pueblo que ya no puede creer en nada, no puede decidir por sí mismo. Está privado no sólo de su capacidad de actuar, sino también de su capacidad de pensar y juzgar. Y con un pueblo así, puedes hacer lo que quieras.