“Creo que si alguien propusiera obligar a todos los constructores de Europa a poner una cámara vigilando lo que hace la gente en sus casas, todo el mundo se horrorizaría. Para mí, esto es exactamente lo mismo que la Comisión Europea propone para que los servicios digitales detecten la pornografía infantil”. Es la “mejor analogía” que encuentra Will Cathcart, el director de WhatsApp, para hablar de la nueva ley europea para la seguridad online de la infancia que se negocia en Bruselas.
“Las empresas debemos ser reguladas para aumentar la seguridad de nuestros servicios, no para disminuirla”, ha enfatizado Cathcart en una reunión con periodistas de elDiario.es y de Le Monde en la que el máximo directivo de la app de mensajería ha avisado de los peligros de la propuesta europea. “Exige que cada comunicación privada enviada en Europa sea escaneada por una empresa en busca de actividad ilegal. Poner una cámara siempre encendida a supervisar lo que hace la gente en su sala de estar no es aumentar la seguridad”.
Las regulaciones sobre Internet redactadas por departamentos no especializados en política digital suelen ser problemáticas. El paquete de medidas para frenar el abuso infantil en la red elaborado por la comisaria de Interior de la UE, Ylva Johansson, no ha sido una excepción. El texto, que obliga a las plataformas digitales a revisar los mensajes privados de sus usuarios con una inteligencia artificial capaz de detectar pornografía infantil, ha puesto en pie de guerra tanto a empresas como a expertos en ciberseguridad por su impacto en la privacidad.
Todos los grupos del Parlamento Europeo han rechazado apoyar la idea de Johansson, pero la comisaria sueca no se plantea modificarla. Sabe que cuenta con el apoyo de varios países del Consejo que son partidarios de aumentar sus capacidades de vigilancia. Según documentos filtrados, uno de ellos es España. La clave ahora serán los trílogos, las negociaciones a tres bandas entre Parlamento, Comisión y Consejo europeos, de los que saldrá el texto definitivo.
Un agujero en el cifrado
El debate gira alrededor de la protección de las comunicaciones que incluyen la mayoría de grandes plataformas, conocido como cifrado de extremo a extremo. Es un proceso que hace que el contenido de los mensajes sea ilegible para cualquier persona excepto para los destinatarios. Es como escribir una carta con un código secreto que convierte cada palabra en un conjunto de letras, números y símbolos sin sentido aparente excepto para el receptor, que conoce la clave para descifrarlo.
El método utiliza algoritmos matemáticos para asegurar la confidencialidad y la integridad de lo que se envía a través de Internet. La Comisión Europea y los partidarios de la propuesta (organizaciones de protección a la infancia que se han mostrado partidarias de recortar el derecho a la privacidad a cambio de más seguridad) defienden que una inteligencia artificial podría analizar el contenido de los mensajes sin interferir en el cifrado.
La propuesta prohíbe específicamente utilizar esta tecnologías para cualquier otro fin que no sea la detección del abuso sexual infantil online
Johansson asegura que su propuesta busca “el equilibrio”: “Está concebida para obligar a las empresas, en primer lugar, a prevenir los abusos y, como último recurso, a detectarlos. Se trata de garantizar el equilibrio adecuado para todos los derechos fundamentales: el derecho a la intimidad y el derecho de los niños a no ser objeto de violencia sexual”.
“El texto se basa en el Reglamento General de Protección de Datos y otros requisitos legales. Prohíbe específicamente utilizar las tecnologías de detección para cualquier otro fin que no sea la detección del abuso sexual infantil online. Utiliza exclusivamente indicadores verificados de abuso sexual infantil proporcionados por un centro de la UE”, manifiesta la comisaria.
Las empresas y los expertos en ciberseguridad lo niegan y avisan de que supondría abrir un agujero en la seguridad de los mensajes: ahora se asoma la IA, pero quién sabe quién podría hacerlo en el futuro. “Aseguran que se puede respetar el cifrado de extremo a extremo gracias a una pieza mágica de software que escanea todos los mensajes. No es así”, asevera Cathcart en su conversación elDiario.es y Le Monde.
Están proponiendo leer los mensajes de todo el mundo . El hecho de que se use un 'software mágico' de inteligencia artificial para hacerlo no te libra de eso
“Creo que intentan usar terminología tecnológica para eludir el punto clave de la encriptación de extremo a extremo, que es que una fuente puede enviarles a ustedes un mensaje, o pueden llamar a un médico, o a su pareja y sólo ustedes dos saben lo que se está diciendo. Una vez que abres un agujero en el software para mirar lo que se dice, ya no es privado”, continúa el ejecutivo.
“Para volver a la analogía de una cámara en la sala de estar. Es lo mismo si se dice, voy a poner una cámara en la sala de estar de cada ciudadano, pero no se preocupen, la cámara tendrá un software que hará que solo se encienda cuando se esté infringiendo la ley. Inmediatamente surgirían un montón de preguntas: ¿qué es ese software? ¿Cómo está escrito? ¿Qué errores comete? ¿Podría cambiarse para activar otras circunstancias? Están proponiendo leer los mensajes de todo el mundo o escuchar las llamadas de todo el mundo. Y el hecho de que se use un 'software mágico' de inteligencia artificial para hacerlo no te libra de eso”, explica.
Otras medidas
Cathcart afirma que las plataformas digitales pueden tomar otros caminos para seguir luchando contra la distribución de pornografía infantil online. “Europol ha hecho recientemente una encuesta sobre los 11 tipos de información relevante para una investigación digital. Y en realidad el contenido era sólo el séptimo. Descubrieron que cosas como los tipos de conexión, la dirección IP, etc. son más importantes. Podemos ofrecer un servicio en el que tengamos eso sin escanear los mensajes de todo el mundo”, destaca.
“Creemos que ese es un modelo que puede hacer grandes progresos, donde las empresas pueden ser reguladas para hacer más, pero también reguladas para ofrecer más seguridad en lugar de menos. Nosotros estamos disponibles para cualquier debate y es esperanzador ver que hay un montón de instituciones de la UE que han dado un paso adelante para defender la privacidad y el cifrado”, manifiesta el director de WhatsApp en referencia a órganos como el Comité Europeo de Protección de Datos, que han criticado el plan de Johansson.
“La UE ha liderado el mundo en el campo de la privacidad online. Creo que esta es una oportunidad para demostrar que podemos hacer cosas para ayudar a combatir el abuso infantil sin sacrificar la seguridad. Pero si sale mal, creo que sería muy malo para todo el mundo, porque también establecería un modelo hostil a la privacidad”, ha concluido Cathcart.