Los pedófilos usan inteligencia artificial para generar nueva pornografía infantil

La generación de imágenes con inteligencia artificial (IA) ha explotado en los últimos meses gracias la aparición de herramientas cada vez más sencillas de utilizar pero capaces de crear contenidos indistinguibles de uno real. Desde retratos hiperrealistas a diseños que pueden adaptar el estilo de cualquier artista a situaciones inverosímiles. Un campo revolucionario en el que las imágenes que más impacto han causado no han sido producidas por sistemas impulsados por grandes empresas como OpenAI, Google o Microsoft, sino por usuarios anónimos que a partir de bromas hicieron creer a miles de personas que el papa tiene abrigos de Balenciaga o que Donald Trump había sido detenido.

Estos modelos son conjuntos de algoritmos de aprendizaje automático entrenados con millones de imágenes, de los que aprenden patrones para generar contenidos nuevos. Algunos están siendo desarrollados en código abierto, lo que permite a cualquier persona con un buen equipo informático descargarlos gratuitamente y modificarlos a voluntad. Una vez en el ordenador del usuario, también es posible suministrarles imágenes propias para que creen nuevo contenido a partir de ellas.

Esto abre por completo el abanico de posibilidades de estas herramientas, que pueden llevar a cabo desde las creaciones más imaginativas e inesperadas hasta el lado más oscuro de la humanidad. Según han alertado varios investigadores y expertos, los pedófilos están utilizando estas IA de licencia libre para generar nueva pornografía infantil y compartiendo con otros ese contenido.

El último en avisar de ello ha sido el neerlandés Henk van Ess, asesor de la Red Internacional de Verificación de Datos y miembro de Bellingcat, una organización de investigación especializada en las fuentes abiertas. Van Ess revela que se topó con este contenido “sin siquiera buscarlo” navegando por los canales de Discord donde los usuarios comparten las imágenes que han creado con uno de estos modelos de inteligencia artificial de código abierto. A diferencia de las IA de las grandes empresas, que ponen límites a lo que sus sistemas pueden hacer, los sistemas abiertos “no tienen palabras prohibidas ni términos vedados, se pueden crear cosas terribles sin restricciones”, denuncia Van Ess.

Es algo que tampoco ha pasado por alto para las fuerzas de seguridad. En España ya ha habido un presunto pedófilo detenido por la Policía que “utilizaba IA para crear material de abuso sexual infantil de extrema dureza”, informó el organismo en un comunicado. Era “la primera vez que los agentes encontraron material de abuso sexual infantil creado mediante el uso de la IA”.

La operación se llevó a cabo en noviembre de 2022, aunque la Policía no informó de ello hasta varias semanas después. Para entonces, los agentes aún no habían podido cuantificar con exactitud la “enorme cantidad” de archivos que almacenaba el detenido, lo que puede indicar que los estaba generando artificialmente.

“El investigado utilizaba una herramienta informática de licencia libre que cuenta con una base de datos de millones de imágenes a partir de las cuales, y tras añadir una descripción de texto, se generan nuevas imágenes. En este sentido, el autor de los hechos producía pornografía infantil a partir de imágenes reales sintetizadas de menores y de acuerdo a preferencias que él mismo introducía mediante texto”, informó la Policía.

IA sin filtros

El modelo de IA que se usó para crear las imágenes denunciadas ahora por Van Ess es Openjourney, una emulación abierta de Midjourney, la IA con la que se generaron las imágenes hiperrealistas del Papa moderno o de Trump detenido. Es uno de los modelos más usados del mundo, con unas 340.000 descargas solo en el último mes.

En las comunidades privadas donde se comparten creaciones con Openjourney hay espectaculares personajes de películas que nunca se grabaron, animales antropomorfizados que podrían haber salido de la producción más avanzada de Píxar o paisajes que serían imposibles en la tierra. Pero como ocurre con otros modelos, algunas de sus comunidades se centran en el contenido extremo o en los deepfakes pornográficos, contenido artificial que desnuda a mujeres o las muestra en actos sexuales inventados. La cantante Rosalía ha sido la última víctima de esta práctica. Según denuncia Van Ess, navegando por esos canales se puede llegar incluso a la pornografía infantil.

Openjourney fue entrenada por PromtHero, una web especializada en la ingeniería de prompts, como se denomina a los comandos de texto que se introducen en la IA para que devuelva una determinada imagen (o comentario, en el caso de las basadas en texto como ChatGPT). “Nosotros lo entrenamos y cedemos los archivos, y la comunidad nos ayuda a mantenerlo actualizado. Nosotros mismos financiamos todo el entrenamiento del modelo y lo liberamos para su uso gratuito”, explican desde PromtHero, gestionada por los ingenieros españoles Javier Rueda y Javier Ramírez.

“Sí, es cierto que está escalando mucho”, reconoce Rueda al ser preguntado por elDiario.es por el contenido ilegal generado con modelos de aprendizaje automático de código abierto como Openjourney, que “no están capados”. “Desde PromptHero estamos totalmente en contra de CSAM [siglas en inglés de 'material de abuso sexual infantil'] y para nada se generó con esa intención. Queríamos ofrecer una alternativa gratuita que generase imágenes de la calidad de Midjourney”, destaca.

El ingeniero recuerda que los entrenadores de un modelo abierto no pueden controlar lo que sus usuarios hacen con ellos. “Es como si se acusa al fabricante de martillos de que lo han usado para realizar un homicidio”, expone.

“Aún así entendemos las consecuencias que está teniendo y estamos filtrando el contenido que puede generar Openjourney para que sea SFW [siglas en inglés de 'seguro para el trabajo', en relación a los contenidos no límite que pueden ser visualizados en cualquier ocasión] y evitar el uso indebido”, adelanta Rueda en conversación con este medio.

Es delito

La llegada de la inteligencia artificial ha sobrepasado los límites concebidos en algunas regulaciones que no se concibieron pensando en las capacidades que tiene esta tecnología, como ha ocurrido en el área de los derechos de autor. No sucede lo mismo en el ámbito de la pedofilia, según los expertos consultados por este medio. “Si las imágenes son indistinguibles de la realidad son pornografía infantil aunque no haya menores reales involucrados”, afirma el abogado Carlos Sánchez Almeida.

El jurista apunta a una circular de la Fiscalía de 2016 que deja claro este punto. Se redactó pensando en la inteligencia artificial pronto podría hacer “imposible distinguir entre imágenes reales e imágenes generadas por ordenador”, por lo que especificó lo que pasaría a considerarse “pornografía virtual” ilegal: “Es aquella en la que la imagen del menor es una creación artificial pero realista, elaborada por ordenador u otro medio”, reza el texto.

Imágenes realistas serán imágenes cercanas a la realidad, a la que tratan de imitar. Dicho de otro modo, serían imágenes que no son reales pero lo parecen. Podrían abarcar imágenes alteradas de personas existentes e incluso las imágenes generadas mediante ordenadores”, ejemplificaba la Fiscalía. Una definición en la que entraría de lleno la generación de material de pornografía infantil mediante las nuevas herramientas de IA.

“No deberán los Sres. Fiscales entender incluidos dibujos animados, manga o representaciones similares, pues no serían propiamente imágenes realistas, en tanto no perseguirían ese acercamiento a la realidad”, avisaba en cambio el organismo.

Más accesible

El presunto pedófilo detenido por la Policía a finales de 2022 que había empezado a utilizar IA para generar pornografía infantil no era un principiante. “Contaba con un alto nivel de conocimientos informáticos y llevaba desde 2011 utilizando distintos programas de descargas, e incluso la red Tor, para obtener archivos de abusos a bebés y agresiones sexuales a niños de corta edad”, apuntaron los agentes. La red Tor es la herramienta que se usa para acceder a la dark web, la web oscura oculta a los buscadores donde se intercambian contenidos extremos o se compravenden artículos ilegales.

Aunque como apunta Rueda, no se pueda considerar culpables a todas las IA generativas de licencia libre de las imágenes ilícitas y abusos que crean algunos de sus usuarios, lo que sí han hecho es facilitar su generación a personas sin demasiados conocimientos técnicos. “No es que sea de botón gordo, pero casi”, resume Marc Almeida, ingeniero informático especialista en ciberseguridad: “Con algo de hardware puedes hacer lo que quieras de forma relativamente sencilla”.

Conceptos como entrar a la dark web o la necesidad de contactar con otros poseedores de contenido ilegal desaparecen con estas herramientas. Almeida expone que él mismo pudo descargar un modelo de aprendizaje automático y agregarle imágenes de una amiga suya para que (con su consentimiento previo) creara imágenes de índole sexual. Este tipo de sistemas entrenados en una habilidad específica por los usuarios se denominan LoRA (Low-Rank Adaptation) y en la actualidad se comparten libremente en múltiples páginas web.

De nuevo, solo una pequeña parte de los LoRA han sido entrenados con datos potencialmente abusivos como imágenes de personas que no han dado su consentimiento para ello, pero visitando las webs donde se comparten se puede apreciar que el número de ellos que tienden a la pornografía es elevado. Un gran número de ellos se han especializado en generar imágenes de contenido sexual de series de dibujos animados, videojuegos o anime. “A la que te despistas un poco llegas a ese tipo de imágenes, simplemente navegando”, cuenta el ingeniero.

No obstante, es posible que los LoRA sí caigan en el terreno de lo ilegal en poco tiempo. Así lo ha propuesto el Parlamento Europeo en su última votación sobre el Reglamento de la Inteligencia Artificial que negocia la UE. La norma aún tiene que pasar la negociación con el Consejo y la Comisión, aunque se espera que se rubrique de forma definitiva en la segunda parte de este año, durante la presidencia española de la UE.