La Guardia Civil investiga a tres menores por manipular fotos de sus compañeras con IA para crear contenido pornográfico
LEER ESTE TEXTO EN CATALÁN
La Guardia Civil investiga en Felanitx (Mallorca) un caso de manipulación pornográfica de imágenes con inteligencia artificial que afecta a menores, según han confirmado a Europa Press fuentes próximas al caso. Como ha adelantado el periódico 'Última Hora', los presuntos autores serían tres menores que habrían manipulado fotos de compañeras de instituto para convertirlas en escenas sexuales, y después las habrían compartido por Internet.
Según esta información, los menores imputados tienen edades de entre 14 y 16 años y los archivos manipulados -escenas pornográficas en un gimnasio de las tres compañeras- se difundieron masivamente por las redes sociales y llegaron a otros institutos de Mallorca. La denuncia fue interpuesta el sábado de la semana pasada en el cuartel de la Guardia Civil después de que los padres de las víctimas fueran informados de lo que ocurría.
Los imputados habrían cogido la cara de las menores, de 14 años, a través de fotografías de Instagram, según este mismo diario. Este también apunta que la Guardia Civil investiga el caso como un posible delito de pornografía infantil, que uno de los investigados tiene 14 años y que es, por lo tanto, inimputable, y que la Fiscalía de Menores ha abierto diligencias contra ellos y han sido citados a declarar.
Casos como éste se han dado antes en otros puntos de España, como Zaragoza y Badajoz. En el primero fueron investigados 7 menores -aunque la trama era de 13, pero seis de ellos eran menores de 14 años y, por lo tanto, inimputables- tras difundir fotografías sexuales de otras menores que fueron manipuladas con Inteligencia Artificial. Las víctimas se dieron cuenta que estas fotografías estaban circulando por grupos de mensajería móvil entre varios menores del instituto al que pertenecían, que incluso ofrecían la posibilidad de adquirir cada imagen por cinco euros.
En el segundo caso, la Policía Nacional asumió la investigación de los hechos. Chicas menores de edad denunciaron que circulaban fotografías suyas desnudas manipuladas con inteligencia artificial por parte de un grupo de menores de Almendralejo. La app que usaron los investigados no prevé ninguna medida para bloquear su uso cuando el usuario no sea mayor de 18 años ni cuente con el consentimiento de las personas para utilizar las imágenes.
El papel de la Agencia de Protección de Datos
En estos casos, la Agencia Española de Protección de Datos (AEPD) podría actuar para defender a las víctimas. Los menores pueden ser sancionados por infringir la normativa de protección de datos a partir de los 14 años. Desde esta edad hasta los 18, serán sus familias las que deberán hacer frente a la multa. Estas pueden llegar hasta los 10.000 euros.
En el caso de Badajoz, la AEPD inició una investigación de oficio para recabar todos los detalles del caso de las menores desnudadas con inteligencia artificial. La imagen de una persona se considera parte de sus datos personales, por lo que su recogida, manipulación y distribución sin su consentimiento puede acarrear una violación de la normativa de privacidad.
En este caso, la AEPD puede además actuar sin denuncia previa gracias a La ley de garantía de libertad sexual, más conocida como ley del solo sí es sí, que le encomienda la misión de “garantizar una protección específica de los datos personales de las mujeres en los casos de violencia sexual, especialmente cuando esta se perpetúe a través de las tecnologías de la información y la comunicación”.
Asimismo, el Senado aprobó en octubre una moción del Partido Popular que aboga por ampliar la definición legal de pornografía infantil para tipificar las imágenes generados por IA que presenten a menores en conductas sexualmente explícitas o que afecten a su intimidad.
0