Los identificados por los 'deepfakes' sexuales de Almendralejo, que acumulan ya 22 denuncias, tienen entre 12 y 14 años
La Policía investiga al menos 22 denuncias por la generación de imágenes de niñas desnudas mediante el uso de la inteligencia artificial o deepfake, y su posterior difusión en Almendralejo (Badajoz). Los presuntos responsables identificados hasta ahora son de la misma localidad, del entorno de las víctimas y también menores, con edades entre los 12 y los 14 años, la edad que marca la posibilidad de ser imputado por un ilícito penal. Alguno de ellos sí habría cumplido 14, por lo que sería imputable conforme a la ley penal del menor. El caso está siendo investigado por la brigada Local de Policía Judicial de Almendralejo, que presentará sus conclusiones a la Fiscalía cuando concluya unas pesquisas que siguen abiertas.
Algunos de los chicos generaron las imágenes mediante el uso de un programa de inteligencia artificial, y el resto las distribuyeron en grupos de Whatsapp y Telegram. Fueron familiares de algunas víctimas las que dieron la voz de alarma. Hasta ahora, la Policía no tiene constancia de que las imágenes hayan trascendido los grupos en los que se volcaron, pero la investigación sigue abierta, según ha informado Javier Izquierdo, jefe del Grupo de Protección al Menor de la Unidad Central de Ciberdelincuencia, que ha advertido de la dificultad de controlar la difusión de imágenes una vez traspasan ese límite: “Una vez que entra en internet es muy difícil de retirar de forma completa”. La Policía rastrea la red por si fuera el caso.
Los presuntos autores son “menores entre 12 y 14 años, algunos de ellos ya con los 14 años cumplidos. Por lo tanto, serían imputables conforme a la ley penal del menor”, ha aclarado Izquierdo.
Aunque existe un vacío en la tipificación de la generación de imágenes con connotaciones sexuales de adultos (que podría constituir un delito de descubrimiento y revelación de secretos o contra la integridad moral), Izquierdo ha explicado que el Código Penal sí tipifica la generación de imágenes sexuales de menores mediante inteligencia artificial como delito de pornografía infantil, “siempre que sean realistas”.
Un delito creciente
La Unidad Central de Ciberdelincuencia de Madrid es la responsable de la investigación a nivel nacional de este tipo de delitos, que crece en paralelo a la popularidad de la inteligencia artificial, si bien hasta ahora las Fuerzas y Cuerpos de Seguridad del Estado lo investigan con discreción para evitar el efecto llamada. “Es algo que venimos analizando ya desde hace un tiempo”, ha admitido Izquierdo, que estos días participa en Málaga en un congreso internacional contra el fraude online y la explotación sexual infantil mediante nuevas tecnologías.
Se trata de un nuevo tipo de violencia machista, consistente en difundir desnudos ficticios de mujeres creados sin el consentimiento de la víctima. Le ocurrió hace pocas semanas a Laura Escanes o a Rosalía, que no dudó en calificarlo de violencia. También lo califica el Instituto Europeo de Igualdad de Género, que engloba las deepfakes en la categoría de ciberviolencias. Las expertas destacan que el objetivo es exponer la sexualidad de las mujeres sin su consentimiento para ridiculizarlas, señalarlas y atacar su libertad sexual.
“Ya no es la persona que descarga pornografía infantil de la Dark Web o de un foro oculto en Internet o a través de redes tipo peer to peer. Eso obviamente es algo que se sigue produciendo, pero ahora los nuevos retos a los que nos enfrentamos es el acceso de menores de manera tan temprana como en este caso”, ha advertido Izquierdo, que ha detallado esta nueva tipología criminal: generación de imágenes por inteligencia artificial, uso del metaverso, retransmisiones mediante streaming de agresiones sexuales a menores...
En el caso de Almendralejo y en otros similares, los presuntos autores son nativos digitales, con un dominio avanzado de la tecnología y acceso común a los dispositivos, y entre quienes el mal uso de programas informáticos o de la inteligencia artificial puede extenderse por el boca a boca. En este contexto, las restricciones de acceso son, por ahora, una entelequia. “Poner limitaciones a empresas generadoras de software que a priori no sabemos ni dónde están ubicadas es muy complicado”, admite el inspector.
Tampoco es sencillo restringir la difusión, porque los límites pueden tropezar con el delicado campo del secreto de las comunicaciones. “La Unión Europea trabaja en el en el desarrollo de un nuevo reglamento de protección del menor para poder monitorizar todas las comunicaciones que los ciudadanos realizan, de forma automatizada a través de los servicios de telecomunicaciones, algo que ya se hace por las empresas de telecomunicaciones, por Microsoft, por Facebook, Instagram, por Google”.
Investigación de la Agencia de Protección de Datos
El caso de Almendralejo también está siendo investigado de oficio por la Agencia Española de Protección de Datos (AEPD). La imagen de una persona se considera parte de sus datos personales, por lo que su recogida, manipulación y distribución sin su consentimiento puede acarrear una violación de la normativa de privacidad, con multas que pueden llegar a los 10.000 euros.
Desde que se aprobó la Ley de Garantía de la Libertad Sexual (más conocida como Ley del solo sí es sí), la AEPD puede actuar sin denuncia previa para “garantizar una protección específica de los datos personales de las mujeres en los casos de violencia sexual, especialmente cuando esta se perpetúe a través de las tecnologías de la información y la comunicación”, como es el caso.
Familiares de las menores están expresando su temor a que las imágenes salgan de los grupos en los que originalmente fueron distribuidas para difundirse en Internet. La AEPD ofrece un canal prioritario para solicitar la retirada inmediata de contenidos sexuales o violentos publicados sin el consentimiento de las personas que aparecen en ellos.
44