Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

La Eurocámara rechaza el escaneo de todos los mensajes de WhatsApp y redes sociales en busca de pornografía infantil

Pedofilia IA

Carlos del Castillo / Irene Castro

26 de octubre de 2023 14:02 h

0

La polémica propuesta que quería establecer un sistema para escanear todos los mensajes digitales de los ciudadanos para detectar pornografía infantil no ha pasado el primer filtro del Parlamento Europeo. Los diputados de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior han decidido eliminar del borrador de la nueva ley de seguridad online de la infancia todo lo referente a este punto en una votación que ha tenido lugar este jueves.

La posibilidad de realizar el escaneo de las comunicaciones estaba incluida en la propuesta original de la Comisión Europea, firmada por la comisaria de Interior Ylva Johansson (Grupo socialdemócrata). La medida había desatado una fuerte campaña en contra por parte de tecnólogos, asociaciones de derechos digitales e incluso del Comité Europeo de Protección de Datos, que denuncian que su puesta en práctica requeriría abrir un agujero en el cifrado digital de los mensajes. El cifrado o encriptación de las comunicaciones es la única herramienta que asegura su privacidad e impide que puedan ser interceptados y leídos por terceros.

“Hemos hecho todo lo posible para presentar un borrador equilibrado entre la protección de los niños en la esfera digital y el respeto de los derechos fundamentales”, ha manifestado el ponente de la ley ante el Comité de Libertades Civiles, José Antonio Zarzalejos (PP europeo). “No se puede escanear de manera general la red ni tampoco abrir puertas de atrás en el cifrado”, ha declarado, explicando que la posición final del Parlamento ha tenido el respaldo de todos los grupos.

“Sí tenemos la obligación moral de que haya instrumentos legales para combatir estos crímenes odiosos que vemos en Internet con el material de abuso sexual a niños”, ha continuado: “Lo que queremos es que haya normas uniformes. Todos los proveedores de servicios de Internet van a tener que responder a la circulación de estas imágenes y van a tener que detectar y retirar todas las imágenes que sean fruto de abuso”.

La decisión de la Comisión de Libertades Civiles no tumba definitivamente la posibilidad de que la nueva ley de seguridad infantil incluya el escaneo de mensajes o una medida similar. Pero sí define la posición respecto a ella del Parlamento de cara a las negociaciones con la Comisión y el Consejo europeos que se darán en los próximos meses y que terminarán de perfilar el texto. Esta posición deberá ser ahora ratificada por el Pleno de la Eurocámara.

En el caso del Consejo de la UE, donde están representados los gobiernos, aún no han fijado una posición precisamente por el debate entre la seguridad y la privacidad. La presidencia española hizo una propuesta hace unos días, pero no fue validada por los ministros del Interior, aunque Fernando Grande-Marlaska se mostró convencido de que lograrían un punto de encuentro pronto. 

“Creemos que estamos cerca de un acuerdo”, afirmó tras la reunión con sus homólogos, a los que presentó “una propuesta para limitar el ámbito de aplicación de la orden detección al material de abuso sexual” en la que se prevé “una cláusula de activación y una revisión para el material nuevo”, según explicó.

Una IA para el escaneo de mensajes

Según la propuesta original de la Comisión, todas las plataformas digitales que permitieran el envío de mensajes a sus usuarios, desde las redes sociales, apps de mensajería o incluso videojuegos online, debían implantar un nuevo sistema de detección de la pornografía infantil. Para ello, debían permitir que una inteligencia artificial pudiera sortear el cifrado de todos los mensajes y llevar a cabo un análisis en busca de fotos, vídeos u otros contenidos que pudieran contener este tipo de abusos. La ley no hacía discriminación entre ciudadanos o plataformas, ya que todos debían someterse al escaneo.

El foco del debate, además del hecho de que las comunicaciones digitales de millones de personas que no han cometido ningún delito fueran escaneadas, era esa inteligencia artificial y el cifrado. Los defensores de la propuesta aseguran que el sistema no implicaba una violación del cifrado porque los únicos que iban a revisar esos mensajes serían los algoritmos, no personas. Los críticos alegan que una vez abierto un agujero en el cifrado, sería imposible saber quién se asoma por él.

Las organizaciones que habían criticado la propuesta de la comisión han felicitado a los eurodiputados por no sacarla adelante. “Es positivo que el Parlamento haya reconocido la amenaza que suponía esta ley para la integridad del cifrado de extremo a extremo, y haya introducido cambios para salvaguardar dichos sistemas”, ha expuesto en conversación con elDiario.es Ella Jakubowska, portavoz de European Digital Rights (EDRi).

“También parece que han fijado un umbral para escanear únicamente sobre la base de una sospecha razonable, con el fin de hacer frente a las medidas de vigilancia masiva propuestas por la Comisión. Al mismo tiempo, es preocupante que el Parlamento quiera avanzar con rapidez, a pesar de varias acusaciones en curso de conflictos de intereses y microsegmentación ilegal de anuncios contra la unidad responsable, la Dirección General de Interior”, ha avisado.

Publicidad segmentada para promocionar la propuesta

La comisaria Johansson respondió a estas críticas con una defensa a ultranza de su propuesta, llegando a atacar a sus críticos por no preocuparse por los abusos infantiles. “Las organizaciones de privacidad hacen mucho ruido, pero alguien tiene que pensar en los niños”, aseguró.

Las acciones de la política sueca tanto en la redacción como en la promoción de la propuesta están siendo investigadas. Por un lado, una extensa investigación reveló estrechos vínculos entre miembros su equipo y asociaciones de protección a la infancia que defienden abiertamente la relajación del derecho a la privacidad en favor de un mayor control de los abusos. Las revelaciones expusieron también las comunicaciones directas que Johansson tuvo con Thorn, una organización estadounidense contra el abuso infantil que se ha especializado en desarrollar la tecnología de detección con IA que la propuesta de la comisaria hacía obligatoria.

Johansson está siendo investigada por la Comisión Europea por, presuntamente, haber llevado a cabo una campaña de anuncios segmentados hacia algunos ciudadanos para promocionar su propuesta, una práctica prohibida por las normas de publicidad política de la UE. Según reveló un tecnólogo contrario al texto, los anuncios hacían una defensa de la ley de protección a la infancia sin hacer referencia a las críticas que ha recibido y se programaron para impactar en ciudadanos que no hubieran expresado una preocupación por la privacidad (como las interesadas en Julian Assange, por ejemplo) o que se hayan mostrado interesadas en el brexit o 'spanexit' (salida de España de la UE).

En esta situación, Johansson ha publicado una entrada en el blog de los comisarios europeos en la que da algunos detalles sobre cómo vio la luz su propuesta. “Está concebida para obligar a las empresas, en primer lugar, a prevenir los abusos y, como último recurso, a detectarlos. Se trata de garantizar el equilibrio adecuado para todos los derechos fundamentales: el derecho a la intimidad y el derecho de los niños a no ser objeto de violencia sexual”, defiende.

“Creo firmemente que la propuesta consigue el equilibrio adecuado”, continúa la política sueca, que la defiende como “tecnológicamente neutra”: “El texto se basa en el Reglamento General de Protección de Datos y otros requisitos legales. Prohíbe específicamente utilizar las tecnologías de detección para cualquier otro fin que no sea la detección del abuso sexual infantil en línea. Utiliza exclusivamente indicadores verificados de abuso sexual infantil proporcionados por un centro de la UE”.

Etiquetas
stats