La portada de mañana
Acceder
Sánchez rearma la mayoría de Gobierno el día que Feijóo pide una moción de censura
Miguel esprinta para reabrir su inmobiliaria en Catarroja, Nacho cierra su panadería
Opinión - Cada día un Vietnam. Por Esther Palomera

Rebelión de técnicos y expertos contra la idea de la UE de escanear todos los mensajes para detectar pornografía infantil

“La comunidad académica ha tardado un poco de tiempo en actuar porque no pensábamos que fuera a ser necesario. Esta propuesta no tiene ningún sentido. Nadie, ni uno solo de los expertos en ciberseguridad y privacidad del mundo, ha considerado por un momento que construir un sistema así pueda ser una buena idea”.

Carmela Troncoso, una de las mayores especialistas en privacidad digital del mundo, se esforzaba este martes en Bruselas por expresar hasta qué punto la nueva iniciativa de la Comisión Europea contra la pornografía infantil es una mala idea. “Es imposible que esta tecnología funcione de la forma en la que nos quieren hacer creer que va a funcionar”, insistía.

Troncoso es profesora en la Escuela Politécnica Federal de Lausana (EPFL) y recibió varios premios tras liderar el desarrollo de la tecnología de rastreo de contactos del coronavirus. Es una de las especialistas que ha participado en un evento organizado por European Digital Rights (EDRi) en la capital comunitaria para alertar sobre la nueva Ley de seguridad infantil online que se negocia en Bruselas.

La propuesta obligaría a plataformas digitales y portales de videojuegos online a establecer algoritmos de vigilancia capaces de detectar cualquier indicio de pornografía infantil. Esto implicaría que servicios como WhatsApp, Telegram, Instagram, Facebook o TikTok tendrían que escanear constantemente los mensajes privados de todos sus usuarios, aunque no sean sospechosos de ningún delito, para interceptar esos contenidos. 

El texto lleva la firma de la comisaria de Interior, Ylva Johansson, que defiende que este escaneo de mensajes puede a su vez respetar la privacidad de los ciudadanos gracias a la inteligencia artificial. Los especialistas avisan que para para permitir que la IA analice los mensajes, fotos y vídeos que intercambian los usuarios, las plataformas tendrían que abrir un agujero en sus sistemas de cifrado de mensajes de extremo a extremo, la única tecnología que asegura la confidencialidad de las comunicaciones digitales.

Un agujero que, una vez abierto, podría ser explotado por todo el mundo. Desde servicios de inteligencia que operan sin orden judicial (con programas como Pegasus) hasta ciberdelincuentes. Más de 500 académicos han firmado una carta que pide a la Comisión que retire la propuesta. Una misiva similar ha sido rubricada por más de 80 ONG, que alertan de que las más perjudicadas serían las personas vigiladas por gobiernos autoritarios o el crimen organizado.

“Aseguran que no van a romper el cifrado porque no van a tocar el cifrado. Desde una perspectiva técnica, es verdaderamente sorprendente que puedan proponer algo así y demuestra desconocimiento sobre cómo funciona la confidencialidad y el cifrado”, expone Troncoso: “Para intentar explicarlo en términos humanos: si tu miras un mensaje cifrado, deberías ser absolutamente incapaz de saber qué contiene. Por eso, si eres capaz de detectar la pornografía infantil en él, es que has roto el cifrado”. 

Votación clave la semana que viene

El texto desató todas las alertas de organizaciones de defensa de los derechos digitales desde que Johansson lo presentó en mayo de 2022. Sin embargo, la campaña contra él se ha intensificado a medida que se acerca su primer examen importante. Será este 4 de octubre, cuando la propuesta se votará en la Comisión de Libertades Civiles del Parlamento Europeo.

La presión contra la iniciativa no llega solo desde fuera de las instituciones comunitarias. El director del Consejo de Protección de Datos Europeo, Wojciech Wiewiórowski, ha declarado esta semana que su aprobación cambiaría “los fundamentos de Internet y de la comunicación digital tal y como lo conocemos”. “Sería como cruzar un Rubicón”, ha añadido. 

Otras voces se han sumado a los especialistas en ciberseguridad. “Yo no soy una experta en tecnología”, ha confesado en el acto de EDRi Dunja Mijatović, comisaria de Derechos Humanos del Consejo de Europa, “pero sí sé que el cifrado es una herramienta básica para ejercer los derechos fundamentales como la privacidad y la libertad de expresión”. 

“Es muy importante entender que esto no es solo tecnología. No es solo un aspecto técnico. Tiene un impacto profundo en los derechos de las personas. Los ataques contra el cifrado digital son casi tan viejos como el propio Internet. Defenderlo es un pilar fundamental de la lucha contra la vigilancia masiva y el ejercicio de derechos en la red”, continuaba Mijatović.

“La pornografía infantil es una excusa para acabar con el cifrado”

Johansson ha cargado contra los críticos de su propuesta por intentar boicotear una medida para reforzar la lucha contra la pornografía infantil. “Las organizaciones de privacidad hacen mucho ruido, pero alguien tiene que pensar en los niños”, ha declarado.

En términos similares se ha expresado el ponente de la propuesta en la Comisión de Libertades Civiles, el español Javier Zarzalejos (PP). “El cifrado se mantiene. La tecnología que se aplica es extraordinariamente fiable y actúa de manera muy parecida a la que detecta el spam. No hay acceso al contenido de la comunicación”, ha declarado.

Los participantes en el acto de EDRi han criticado que Bruselas se escude en la lacra de la pornografía infantil para defender una iniciativa que consideran peligrosa para con otros derechos. “Ha habido mucha guerras cripto. Esta es la cuarta, si no recuerdo mal. Los intentos de tumbar el cifrado de las comunicaciones son constantes. Pero cuando recurres a un tema tan difícil y doloroso como el abuso infantil, generas un contexto diferente”, ha denunciado Meredith Whittaker, presidenta de la Fundación Signal, la organización que sostiene la app del mismo nombre, considerada una de las más seguras del mundo.

“Es un contexto en el que la gente es menos propensa a hacerse preguntas sobre si esta tecnología funcionará o no para el propósito para el que quiere emplearse, que es combatir la pornografía infantil. Pero la realidad es que no lo hará, la tecnología que defiende la Comisión no existe y para los abusadores será muy fácil sortearla. Por el camino, los servicios de inteligencia y las compañías tecnológicas que venden este tipo de IA habrán conseguido su objetivo de derribar de una vez el cifrado”, ha continuado Whittaker.

Vínculos con partes interesadas

Una investigación periodística publicada este lunes por elDiario.es y otros medios europeos reveló una estrecha colaboración entre la comisaria Ylva Johansson y organizaciones partidarias de restringir derechos fundamentales en el combate contra la pornografía infantil. 

Una de esas organizaciones es Thorn, fundada por los actores Demi Moore y Ashton Kutcher en 2012. “Hemos compartido muchos momentos en el camino hacia esta propuesta”, escribía la política sueca a Julie Cordua, directora de Thorn, en una carta enviada poco antes de la presentación del texto de Johansson en mayo de 2022.

“Ahora me dirijo a ti para que contribuyas a convertir esta iniciativa en un éxito”, continuaba la comisaria de Interior en su misiva a la responsable de Thorn, una organización que además de sus trabajos de lobby para reforzar las leyes anti pornografía infantil también desarrolla algoritmos para detectarla. La misma tecnología que tendrían que implantar las plataformas digitales en caso de que la propuesta salga adelante.

Pero los vínculos entre la protesta de Johansson y estas organizaciones van más allá de la propia comisaria. Uno de los más altos cargos de su gabinete, Antonio Labrador Jiménez, es miembro de la junta directiva de WeProtect Global Alliance, una fundación que está haciendo lobby para que la propuesta salga adelante.

WeProtect Global Alliance recibió casi un millón de euros de la Dirección General de Johansson, lo que eleva las dudas sobre cómo la Comisión Europea utiliza esta fundación para impulsar su propia propuesta desde una fundación supuestamente independiente. Bruselas ha rechazado esta posibilidad y ha asegurado que Labrador “no recibe ningún tipo de compensación por su participación en el consejo de administración de WeProtect”.