El porno artificial contra Taylor Swift evidencia que las tecnológicas siguen sin proteger a las mujeres (ni la democracia)
Taylor Swift es posiblemente la mujer más famosa del planeta. No lo es solo por representar el mayor suceso musical del momento, sino también por darle un nuevo sentido al fenómeno fan, enfrentarse a la industria discográfica en favor de los derechos de los cantantes o regrabar sus propias canciones para escapar de sus condiciones abusivas. Una persona tan expuesta, tan sumamente conocida, ha tenido que ver pasar más de una semana antes de que las tecnológicas hayan podido parar un flagrante ataque de violencia sexual contra ella.
La cantante ha sido la última víctima de los deepfakes porno, una tecnología que utiliza inteligencia artificial (IA) para crear imágenes y vídeos falsos en los que se inserta el rostro de una persona en escenas pornográficas sin su consentimiento. La misma que utilizaba la herramienta que unos menores emplearon para desnudar a sus compañeras de instituto en Almendralejo a comienzos de este curso.
Según una investigación de 404 Media, las imágenes se crearon con una aplicación de Microsoft capaz de desarrollarlas a partir de un texto aportado por el usuario. Luego se compartieron primero en el foro 4chan, conocido por su nula moderación, y en un grupo de Telegram dedicado a compartir este tipo de porno generado con IA.
En muchos aspectos, los grupos de Telegram y 4chan son los bajos fondos de Internet. La ausencia de controles los hace guarida común de discursos extremos o abusos como los deepfakes. Pero en esta ocasión, las imágenes de Swift salieron a la red más pública. Varios usuarios los compartieron en X, la red social que todo el mundo conoce como Twitter. Ahí comenzó una situación de descontrol al viralizarse varias de esas publicaciones. Una sola de ellas llegó a tener más de 45 millones de visualizaciones antes de que la plataforma la eliminara. Para entonces ya había cientos de ellas.
El boca a boca produjo que las imágenes falsas sobre la cantante se convirtieran en tendencia y muchas cuentas crearan las suyas propias o republicaran las que habían aparecido en los perfiles dados de baja. X, Instagram, Reddit o Threads (el Twitter de Facebook) tuvieron que bloquear todas las búsquedas que incluyeran las palabras “Taylor Swift” para intentar parar la bola de nieve.
El escándalo ha hecho que el director ejecutivo de Microsoft, Satya Nadella, haya tenido que dar explicaciones. “Esto es alarmante y terrible y, por lo tanto, sí, tenemos que actuar”, ha declarado en una entrevista con la NBC: “Hay mucho que hacer y mucho que se está haciendo. Podemos hacerlo, especialmente cuando la ley, las fuerzas del orden y las plataformas tecnológicas se unen, creo que podemos controlarlo mucho más de lo que pensamos y de lo que nos creemos”.
Microsoft ha anunciado que revisará la herramienta que se sospecha que se usó para la creación de las imágenes y que prohibirá en sus términos de uso que se utilice para crear este tipo de contenidos abusivos. Sin embargo, ninguna de las tecnológicas implicadas tanto en la generación como en la viralización puede mostrarse sorprendida de que haya ocurrido algo así. Según uno de los últimos informes sobre los deepfakes porno, elaborado por Home Security Heroes, este tipo de contenidos aumentaron un 464% de 2022 a 2023.
El mismo estudio reseña que el 70% de las webs porno tienen imágenes deepfake. En las diez webs para adultos más visitadas, este tipo de vídeos sumaron unos 25 millones de vistas el año pasado. El 99% de ese porno no consentido muestra a mujeres. La causa de esta explosión es que muchas de las herramientas para generarlo son gratuitas y que un vídeo de 60 segundos puede generarse en unos 25 minutos. Son aplicaciones tan fáciles de utilizar que hasta un niño puede hacerlo, como evidencia el caso de Almendralejo.
Autorregulación
“La lectura que puede hacer cualquier mujer de cualquier edad y posición ideológica cuando ve esto es que si le ha pasado a Taylor Swift, ¿qué me podría pasar a mí? Es una sensación terrible de indefensión”, dice Lucía Caro, investigadora especializada en redes sociales, feminismo y comunicación política de la Universidad de Cádiz.
“No es casualidad que la manosfera esté desarrollando este tipo de estrategias de acoso hacia las mujeres y especialmente hacia las activistas feministas”, señala la profesora, que recuerda que aunque Tylor Swift no ha hecho bandera del activismo feminista, “sí se ha señalado en ese sentido”. “Y, simplemente, hay muchísimos hombres que no soportan que de repente una mujer sea la portada de la revista Time como persona del año”.
Aunque Swift es una artista más dada a hablar a través de sus canciones que con entrevistas, sí que está en el punto de mira de una parte de los votantes republicanos de EEUU. De la parte más conspiranoica, para ser exactos, que la considera una agente del Pentágono y asegura que trabaja en favor de la reelección de Joe Biden.
Caro es coautora de un reciente estudio sobre el activismo digital junto a dos profesores de la Universidad de Málaga publicado en la revista científica Profesional de la Información. Una de las principales conclusiones es que los activistas y las personas que se posicionan políticamente en redes están cada vez más expuestos y desprotegidos.
“Es evidente que los activistas se sienten cada vez más indefensos y que están huyendo a otros espacios minoritarios como Mastodon. Esto es un problema gravísimo para la democracia”, expone la experta, recordando la decisión de Elon Musk de despedir a todos los moderadores y equipos contra el abuso de Twitter tan pronto como se hizo con la empresa.
“Esto además está afectando especialmente a las mujeres, que somos las que más recibimos estrategias de acoso de una manera absolutamente organizada”, sigue Caro. “En el estudio planteábamos que los gobiernos y las instituciones supranacionales, sobre todo la UE, son quienes deberían abordar esta cuestión más allá de las promesas de autorregulación que siempre acaban triunfando, como hemos visto recientemente en la Ley de Inteligencia Artificial, gracias al lobby de grandes tecnológicas”.
Uno de los principales debates en esa ley, que resulta clave en la cuestión de los deepfakes, fue la regulación de lo que se conoce como modelos fundacionales. Estas son las inteligencias artificiales que sirven de base a aplicaciones con funciones concretas. En el caso de ChatGPT, por ejemplo, el modelo fundacional es la IA llamada GPT de OpenAI. ChatGPT es una de sus aplicaciones, como también lo es el asistente de Bing, el buscador de Microsoft.
Las dos posturas enfrentadas eran a favor y en contra de regular lo que los modelos fundacionales son capaces de hacer. Los primeros defendían que, sin reglas, nada impide que las IA produzcan monstruos como los deepfakes. Los segundos alegaban que los modelos fundacionales no están pensados para su uso por el público general y que regularlos implicaría coartar la capacidad de innovación de las empresas. En su opinión, la regulación debía quedarse en las aplicaciones dirigidas al usuario. Es decir: no debería prohibirse que GPT sepa cómo elaborar un panfleto racista, pero sí filtros que impidan que un usuario elabore un panfleto racista con ChatGPT.
Ganó la segunda opción. La opción que permite que la IA generadora de imágenes de Microsoft cree desnudos falsos de Taylor Swift, que Microsoft asegura que corregirá con más y mejores filtros en el futuro.
7