Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.
La portada de mañana
Acceder
Un día 'normal' en la zona cero: “Dormimos con un cuchillo bajo la almohada”
El material arrastrado por la DANA pudo aumentar hasta un 50% su poder destructivo
El 'Que te vote Txapote' no sirve para gestionar catástrofes. Por José Precedo

ONGs de derechos humanos piden que no se reactive la tecnología “racista” que vigila la frontera con Marruecos

Un niño camina por un tejado junto a la frontera de Ceuta

Carlos del Castillo

13 de enero de 2022 09:07 h

0

La expansión del reconocimiento facial y la vigilancia de personas con inteligencia artificial ha quedado muy acotada en las ciudades europeas, después de que la UE señalara estos sistemas como de alto riesgo y la ONU avisara de que son una amenaza para los derechos humanos. Sin embargo, las fronteras exteriores del continente se rigen por otras normas. España, por ejemplo, utiliza el reconocimiento facial para registrar la cara de las personas que atraviesan los pasos fronterizos de Ceuta y Melilla y rastrear sus movimientos. El Ministerio del Interior lo denomina “frontera inteligente”.

Ante la posible reapertura de la frontera terrestre con Marruecos tras la crisis sanitaria, más de 40 ONG y asociaciones de apoyo a las personas migrantes piden al Gobierno que no reactive este tipo de sistemas peligrosos. “La aplicación de la 'frontera inteligente' como un elemento de lucha contra el terrorismo supone un peligro de discriminación y criminalización y la convierte en un nuevo dispositivo racista dentro del Estado Español”, denuncian en una carta publicada este jueves a la que ha tenido acceso elDiario.es.

Las organizaciones recuerdan que los algoritmos de reconocimiento facial bajan su efectividad cuando trabajan con personas no caucásicas, debido a que son minoría en las bases de datos con las que se entrenan estas inteligencias artificiales. Un mayor porcentaje de falsos positivos en los sistemas de vigilancia fronteriza “podría suponer graves consecuencias para personas identificadas erróneamente como sospechosas de actos terroristas”, avisan.

La petición, rubricada por Oxfam Intermon, Rights International o Caminando Fronteras, también destaca que este tipo de controles vulneran el derecho a la privacidad de las personas que cruzan la frontera, que ven como los datos de su cara o sus huellas dactilares se recogen y almacenan en ficheros sobre los que no tienen control. “Los datos biométricos son datos intrínsecos a las personas. Su recopilación sin pasaporte europeo no cumple con el principio de proporcionalidad”, avisa la carta.

Transparencia

Para evitar estos efectos perniciosos, las organizaciones piden al Gobierno que habilite mecanismos de transparencia y control externo. Estos deben permitir tanto a las personas afectadas como a organizaciones de la sociedad civil evaluar si los algoritmos de Inteligencia Artificial funcionan como las autoridades publicitan o, por el contrario, “suponen un peligro de vulneración de derechos humanos, discriminación, criminalización y violación de la privacidad” para los que cruzan las fronteras de Ceuta y Melilla.

A su vez, solicitan la “incorporación sistemática de observadores de derechos humanos en las actuaciones en frontera” que puedan dar cuenta de lo que sucede en las tripas de esos sistemas de vigilancia, así como eliminar de las normas europeas la excepción que permite utilizar el reconocimiento facial en contextos de seguridad.

Vigilar a la máquina vigilante

La Inteligencia Artificial aplicada a contextos de vigilancia de personas queda cada vez más en entredicho. Desde hace dos años se han producido movimientos sociales destinados a sacarla de circulación por los problemas de sesgo y efectividad que lleva aparejados. Uno de los primeros se desencadenó en las protestas en torno a Black Lives Matter y consiguió que se impusieran moratorias a la venta de esta tecnología a la policía por parte de las empresas que la desarrollan, como Amazon o IBM.

Este tipo de reclamaciones se basan en el trabajo de especialistas como Cathy O'Neal (en su libro Armas de destrucción matemática) o Virginia Eubanks (en La automatización de la desigualdad), que alertaron de cómo la Inteligencia Artificial se reviste de una “falsa neutralidad matemática” y esquiva el escrutinio al que sí se somete a las decisiones humanas. La realidad, avisaron, es que puede ser tan racista, machista o clasista como las empresas o programadores que la desarrollan.

España ha tomado cartas en este sentido con una Agencia para la Supervisión de la Inteligencia Artificial que se creará este 2022 tras ser incluida en los presupuestos. Su misión es auditar el funcionamiento de estos sistemas. No obstante, como explicaron algunos expertos a este medio, uno de sus mayores retos será aplicar esta lógica de transparencia a los algoritmos que utiliza la administración pública y que, como en el caso de las fronteras de Ceuta y Melilla, pueden ser tan opacos como los que usan las empresas privadas.

Etiquetas
stats