El Gobierno ha presentado este miércoles de forma oficial la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), que echa a andar con la misión de vigilar la aplicación de esta tecnología y sus efectos en empresas e instituciones públicas. “La AESIA es pionera en Europa y sus funciones son clave para avanzar hacia una IA confiable y ética”, ha declarado el ministro de Transformación Digital, José Luis Escrivá, en A Coruña, donde se ubicará su sede.
El organismo pretende controlar la acción de estos sistemas automatizados igual que se supervisan los alimentos o los medicamentos. El nuevo Reglamento Europeo de la IA le encarga en concreto el análisis de todos los algoritmos de la categoría de “alto riesgo”; entre los que se encuadran el reconocimiento facial o cualquier otro que se base en datos biométricos, los que detectan emociones humanas, los que se usen para la educación o los que se empleen en entornos laborales, ya sea para la contratación o para decidir las tareas de los trabajadores.
Sin embargo, el ámbito de actuación de la AESIA está mucho menos explorado que el de otros reguladores y se encuentra en plena evolución. Por eso, el Ejecutivo planea que una de sus principales funciones sea también el de laboratorio de ideas, “anticipando tendencias, divulgando conocimiento y dinamizando el debate social sobre las posibilidades y límites de la IA”. En esta línea, en sus primeros años también establecerá “entornos de prueba sectoriales” donde las empresas puedan testar sistemas de inteligencia artificial de manera controlada.
Su director será Ignasi Belda, profesor en biomedicina y bioingeniería en la Universitat Internacional de Catalunya. Belda, que también fue director general del Parc Científic de Barcelona y es el fundador de una empresa que desarrolla dispositivos de detección de cáncer colorrectal, ha sido elegido por un comité independiente de expertos.
A partir de ahora la AESIA se centrará en la contratación de personal “altamente especializado y multidisciplinar” hasta completar un equipo inicial de unas 80 trabajadores. Este verano se dedicará a “establecer relaciones con el ecosistema del sector nacional e internacional”, mientras que su etapa como regulador comenzará en septiembre. “Tendrá mucha importancia en España”, confía Escrivá.
Protestas de la sociedad civil
Mientras el ministro daba el pistoletazo de salida para el nuevo organismo en A Coruña, una coalición de 17 organizaciones de defensa de los derechos digitales protestaba frente a la sede del Ministerio en Madrid, así como en la propia ciudad gallega. Piden una mayor transparencia en la implantación de esta tecnología y aumentar las protecciones incluidas en el Reglamento Europeo de la IA para los colectivos vulnerables que pudieran quedar afectados por ella.
“Necesitamos saber qué inteligencia artificial se está utilizando y para qué. Necesitamos formar parte de su proceso de implantación, así como de los procesos de auditoría para tener la posibilidad de exigir reparación en el caso de que se produzcan daños”, ha pedido en declaraciones a elDiario.es su portavoz, Paula Guerra, de Algorace, una organización que combate los sesgos racistas de la inteligencia artificial.
La coalición ha colocado una instalación efímera para pedir una regulación española de la IA con claridad y transparencia, respeto de los derechos humanos, igualdad y no discriminación, así como reparación de datos, supervisión y control.
Denominada IA Ciudadana e integrada por Oxfam Intermón, Algorights, Lafede.cat o Amnistía Internacional, entre otros, se queja de que la constitución de la AESIA no ha tenido en cuenta a la sociedad civil. “Hemos echado en falta una mayor participación de la sociedad civil. Hemos tenido algunas reuniones con la Secretaria de Estado anterior, pero que finalmente no se tradujo en nada concreto. No se tradujo en una participación nuestra en ningún debate de fondo”, afean.
Queremos poder auditar estos algoritmos e incluso exigir que se dejen de usar en el caso de que se compruebe que están reproduciendo discriminaciones históricas
La coalición recuerda que “los aspectos negativos de los sistemas de inteligencia artificial están ampliamente comprobados y documentados” y que estos se han dado incluso en territorio europeo. Uno de ellos ocurrió en Países Bajos, donde un algoritmo para conceder ayudas públicas terminó invadiendo la privacidad de las personas que las solicitaban, accediendo a datos confidenciales que nada tenían que ver con las subvenciones. O en el Reino Unido, donde ante la imposibilidad de realizar exámenes durante la pandemia el Gobierno utilizó una IA para calcular quién debía acceder a la universidad. “Se vio que esto terminó perjudicando al alumnado de clases obreras y favoreciendo a los de clases más pudientes, ya que no solo tenía en cuenta la nota sino también el ranking del colegio entre los centros educativos del país”, explica Guerra.
“Queremos un compromiso real del Gobierno de que estos sistemas se van a utilizar con pleno respeto los derechos de todas las personas. De las personas migrantes, con discapacidad, mujeres y grupos vulnerabilizados, que es lo que más nos preocupa”, ha la activista: “Queremos poder auditar estos algoritmos e incluso exigir que se dejen de usar en el caso de que se compruebe que están reproduciendo discriminaciones históricas”.
Fuentes del Ministerio de Transformación Digital han invitado a la coalición a participar en el “debate social que canalizará la AESIA” a partir de ahora. “Respetamos todas las peticiones y manifestaciones, pero el compromiso del Ministerio con una IA ética y responsable es indudable”, añaden las mismas fuentes a elDiario.es, recordando que España ha sido el país que ha servido de campo de pruebas del Reglamento Europeo y el primero en poner en marcha su organismo regulador.