Madrid, 2 may (EFE).- La decisión de la Comisión Europea (CE) de limitar el uso de los sistemas de inteligencia artificial de alto riesgo, como la identificación facial, ha sido respaldada por los expertos que alertan de que, aunque estas tecnologías pueden proporcionar beneficios, pueden atentar contra los derechos de los ciudadanos.
El citado reglamento, aprobado el 21 de abril, no prohíbe directamente la vigilancia masiva de personas en tiempo real en lugares públicos, pero limita su uso a determinadas circunstancias previamente autorizadas por un juez: buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o enjuiciar al sospechoso de un delito grave.
De esta manera, Europa quiere permitir que se utilice el reconocimiento facial pero solo bajo orden judicial, nunca como rutina.
Para la directora de la Agencia Española de Protección de Datos, Mar España, el nuevo reglamento permitirá crear un “entorno tecnológico sostenible a largo plazo” con relación a la Inteligencia Artificial (IA).
“Con un desarrollo tecnológico armonizado, en particular con los derechos y libertades de las personas, tendremos más oportunidades de que la sociedad que estamos construyendo sea sostenible en todas las dimensiones, desde la social a la personal”, explica España a Efe.
UNA TECNOLOGÍA EN DESARROLLO
Y es que, la IA es una tecnología que se encuentra en pleno desarrollo y que tiene sesgos y fallos importantes, además de ser muy intrusiva con la privacidad de las personas.
Por eso, permitir la videovigilancia con cámaras de reconocimiento facial en los espacios públicos podría vulnerar el derecho de las personas a la privacidad, avisa en declaraciones a Efe la experta en Ética y miembro del equipo de expertos del Observatorio de Inteligencia Artificial del Parlamento Europeo, Idoia Salazar.
De hecho, en algunos países, como China, usan esta tecnología “para vigilar y puntuar a sus ciudadanos en los semáforos y otros espacios públicos”, y otros, como la policía de Londres que utilizan la videovigilancia para combatir el crimen, recuerda Salazar.
En la UE, el empleo de sistemas de videovigilancia en lugares públicos, en el que se incluirían los sistemas que realicen tratamiento biométrico, está regulado por el Reglamento General de Protección de Datos (RGPD), que impide el uso indiscriminado de los datos privados con fines lucrativos.
En España, cuando se aprobó la Ley de Seguridad Privada, la Agencia Española de Protección de Datos (AEPD) emitió un informe en el que mostraba su preocupación por la posibilidad de que esta norma permitiera usar sistemas de reconocimiento facial, advertía de los riesgos que implicaba contra los derechos y libertades fundamentales de las personas y apuntaba que los errores cometidos por los sistemas biométricos podían tener “graves consecuencias” para una persona.
Y es que, mediante un software informático, esta tecnología compara los rasgos faciales y la “actitud” corporal de una persona con una base de datos previamente programada, es decir, podría buscar nuestra imagen en una base de datos de delincuentes comunes. Si nos confunde, puede identificarnos como un criminal.
“El problema está en que esta tecnología aún no es perfecta y tiene sesgos que hay que controlar”, lo que significa que una determinada alerta por parte del sistema de IA “puede ser real” o puede que se base en prejuicios (de raza o de clase, por ejemplo) adquiridos durante el entrenamiento del algoritmo, reconoce Salazar.
“Aún estamos aprendiendo el impacto que tienen estos algoritmos y, en ningún caso, deberíamos dejar a estos sistemas sin supervisión humana”, advierte la experta.
¿UNA NORMATIVA SUFICIENTE?
Para la AEPD el enemigo no es la IA, que proporciona grandes beneficios, sino las malas praxis que pueden atentar contra los derechos y libertades o conducir a situaciones de abuso; por eso, este organismo ya ha publicado dos guías con orientaciones prácticas para afrontar desafíos tecnológicos como la biometría o el 5G, entre otros.
Salazar también piensa que el RGPD es suficiente para proteger nuestra privacidad, pero también que estas tecnologías avanzan con rapidez y amenazan aspectos determinados de nuestra vida que tienen que ser regulados específicamente, por eso, la propuesta de reglamento es buena y llega en buen momento “porque hay una clara necesidad de ella”.
De momento, las empresas y organizaciones que usan estas tecnologías se están rigiendo por la normativa vigente como el RGPD y los códigos de conducta y ética pero hay determinadas cuestiones que deben de quedar “muy claras” (no solo sujetas a la ética) y ser reguladas con penas o multas: “Todas aquellas que puedan vulnerar, de una manera u otra, los derechos fundamentales de los ciudadanos”, subraya Salazar.
Y ya que Europa ha perdido el tren para competir en desarrollo tecnológico de IA frente a los líderes actuales como China y Estados Unidos, es bueno que, a cambio, apueste por avanzar en este sector “de una manera ética y responsable, sin tanto impulso pero con más cabeza”, razona la experta.
Por Elena Camacho