Por qué es importante la Ley de Inteligencia Artificial
El desarrollo cada vez mayor de tecnologías de inteligencia artificial, junto con su uso en ámbitos que involucran derechos fundamentales de las personas, ha hecho que se disparen las alarmas en torno a los alcances y peligros que podrían encerrar este tipo de herramientas.
Hace tiempo que los sistemas de IA se utilizan en cuestiones que van más allá de simples aplicaciones móviles, mapas en línea o funciones automatizadas para coches. En la actualidad, se aplica inteligencia artificial en ámbitos tan sensibles como servicios sociales y sanitarios, vigilancia policial, control de fronteras y acceso a la justicia, entre otros.
En el libro La automatización de la desigualdad, herramientas de tecnología avanzada para supervisar y castigar a los pobres, su autora, Virginia Eubanks, realiza un detallado análisis sobre cómo en Estados Unidos el uso de sistemas de decisiones automatizadas basados en minería de datos está castigando a las clases trabajadoras en general, y mujeres y personas racializadas precarizadas en particular, quienes muchas veces no logran acceder a una ayuda o vivienda por “decisión” del algoritmo.
En otros lugares del mundo la situación no es muy diferente. El informe publicado el año pasado por AlgoRace, Una introducción a la IA y la discriminación algorítmica para movimientos sociales, recoge numerosos ejemplos de usos discriminatorios de inteligencia artificial a nivel europeo, desde el caso del programa SyRI en Reino Unido, con el que el Ministerio de Asuntos Sociales de este país determinaba qué personas eran más proclives a defraudar al Estado -y cuyo uso fue suspendido por el Tribunal de La Haya en 2020 al establecer que discriminaba a personas migrantes y de rentas bajas-, hasta el ejemplo de VioGén, el sistema de predicción de riesgo de violencia de género implementado por el Estado español desde 2007, y que ha sido objeto de numerosas críticas por subestimar el riesgo para las víctimas, dejándolas sin protección policial o con protección insuficiente.
Lo que dice la Ley de Inteligencia Artificial
Todas estas situaciones han hecho que desde la sociedad civil se levante un movimiento de lucha contra el uso desmesurado y sin vigilancia de herramientas de IA, y también contra el imaginario de confianza ciega que se ha creado en torno a ellas.
Un paso importante en esta dirección es el texto de la Ley de Inteligencia Artificial aprobado por el Parlamento Europeo en mayo de este año -y que actualmente se encuentra en fase de negociación-, el que surgió justamente para supervisar y controlar el desarrollo y uso de estas tecnologías.
Básicamente, lo que hace la ley es clasificar los sistemas de IA según el riesgo que éstos suponen para las personas: inaceptable, alto, limitado y mínimo.
Entre los aspectos positivos destaca que se incluyeran como riesgos inaceptables, y por tanto se prohiba su uso, los sistemas de puntuación social que sirven para clasificar la “confiabilidad” de las personas, los sistemas automatizados de prestaciones sociales, la policía predictiva basada en perfiles y comportamientos delictivos anteriores, y los sistemas de identificación biométrica, que implica la prohibición tanto de la vigilancia masiva en espacios públicos como del reconocimiento facial en tiempo real. A esto se suma la creación de una base de datos públicas para toda la UE que registrará sistemas de IA de alto riesgo y la obligación de los Estados miembros de contar con una autoridad nacional de supervisión en la materia.
Sin embargo, a pesar de estos avances, la ley cuenta con importantes fallos. Por ejemplo, mientras que prohíbe la identificación biométrica por implicar una violación de derechos fundamentales, permite su uso en frontera bajo la justificación de la lucha contra el terrorismo. Es decir, que personas que ya se encuentran en situación de vulnerabilidad serán todavía más discriminadas en comparación con el resto de la población, a los que sí se respetará su derecho a la intimidad y a la propia imagen. Todo esto, sin contar con el peligro implícito que representan los algoritmos de reconocimiento facial, que suelen arrojar grandes errores en rostros de personas no caucásicas, tal como demostró en un estudio el Instituto Nacional de Estándares y Tecnología de Estados Unidos.
Por otro lado, en cuanto a los riesgos clasificados como altos, la ley permitirá que sean las propias empresas desarrolladoras o proveedoras de tecnologías de IA quienes determinen si una herramienta implica o no un riesgo alto para la población. Desde diversas organizaciones sociales denunciamos que este punto permitirá que desarrolladores y empresas se salten la ley simplemente afirmando que sus servicios no suponen este peligro, y por ello pedimos que en esta fase de negociación en la que actualmente se encuentra la ley se restablezca el proceso original de clasificación de riesgos de la Comisión Europea, que consideraba de alto riesgo cualquier sistema que fuese a ser utilizado en áreas sensibles y críticas, recogidas en el anexo III de la propuesta.
El texto final, que se espera que se apruebe a finales de 2023, podría perfectamente incorporar estas demandas en las reuniones tripartitas que están manteniendo la Comisión, el Parlamento y la Presidencia del Consejo, ejercida por España desde julio de este año.
Allí veremos de qué lado se posiciona el Parlamento Europeo, si de parte de los colectivos que se pueden ver vulnerabilizados con esta ley o de parte del lobby de los desarrolladores de IA. Cuestión sumamente relevante si tomamos en cuenta que el uso de IA está automatizando la desigualdad al reproducir relaciones históricas de poder en las que se ven beneficiados los mismos grupos privilegiados de siempre, en contraste con la discriminación que estos sistemas están suponiendo para las mujeres, las clases trabajadoras y las personas racializadas.
4