70 catedráticos y expertos piden al Gobierno que actúe ante el reconocimiento facial “por sus graves deficiencias y riesgos”
Un grupo de 70 expertos en inteligencia artificial ha enviado una carta al Gobierno para solicitarle que suspenda cuanto antes el empleo de sistemas de reconocimiento facial por parte de organismos públicos y privados. Los firmantes, entre los que hay catedráticos, investigadores y profesionales especializados, recuerdan que esta tecnología todavía tiene “graves deficiencias y riesgos”, como la ausencia de evidencia científica para algunas de sus categorizaciones, su alto índice de error, la opacidad sobre por qué toman cada una de sus decisiones o su potencial discriminador. “Están en juego cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión”, avisan en la misiva.
Los sistemas de reconocimiento facial se están extendiendo por todo el mundo como métodos de vigilancia basados en inteligencia artificial capaces, según sus desarrolladores, de hacer predicciones sobre el comportamiento que tendrán las personas analizadas. Entre las características que dicen poder detectar se encuentran aspectos como el estado de ánimo, aplicable al nivel de nerviosismo de un sujeto ante un control de seguridad, la frustración de los clientes de una tienda o la atención de los alumnos en una clase. Estos sistemas también se están empleando en aplicaciones como detectores de mentiras o en recursos humanos, para medir la adecuación de un candidato a un puesto de trabajo.
Esta implantación cada vez más extensiva del reconocimiento facial choca contra la evidencia científica. “No hay modelos científicos aceptados en psicología, antropología o sociología que indiquen que un tipo de nariz, un rictus particular o una manera de andar sean predictores adecuados de comportamientos individuales futuros”, destacan los investigadores. Pese a que estos problemas que implica el uso de esta tecnología han sido “ampliamente documentados y discutidos por la comunidad científica”, se corre el riesgo de que cuando los poderes públicos quieran actuar ya sea tarde.
Nos parece necesario que el Gobierno intervenga de manera rápida antes de que estos sistemas continúen expandiéndose
“Nos parece necesario que el Gobierno intervenga de manera rápida antes de que estos sistemas continúen expandiéndose y se conviertan en estándares de facto, a pesar de la intromisión que suponen en la esfera privada de las personas sin su consentimiento explícito”. Por ello, piden al Ejecutivo que impulse una comisión de investigación que analice la posibilidad de imponer una moratoria en su uso y comercialización. Una prórroga que impida que el reconocimiento facial se siga extendiendo “hasta que las Cortes Generales y las instituciones legislativas europeas debatan cuáles, de qué manera, en qué condiciones, con qué garantías y con qué objetivos debe permitirse, si cabe, el uso de estos sistemas”.
Evitar que casos como el de Renfe pasen desapercibidos
Como ejemplo a evitar, los firmantes de la carta citan lo ocurrido recientemente con Renfe. La operadora ferroviaria abrió un concurso público para contratar un sistema de vigilancia para detectar si los viajeros llevan mascarilla, el aforo o la distancia interpersonal entre unos y otros. No obstante, también solicitaba a las empresas que quisieran hacerse con los más de 700.000 euros del concurso que su software pudiera interpretar “conductas antisociales” o predecir “comportamientos anómalos” de los usuarios del servicio, así como su etnia o el tipo de ropa que usan. Renfe tuvo que retirar el pliego de condiciones solo unas horas después de que saliera a la luz “para revisarlo”.
El objetivo que perseguía la empresa pública con su sistema de vigilancia puede agravar prácticas de seguridad discriminatorias, en especial contra colectivos que ya la sufren, recuerdan los firmantes. “Hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos 'problemáticos', capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas y/o sexistas”. Por otro lado, “que una persona sea clasificada en una categoría o perfil determinados no determina su comportamiento futuro, esto viola la idea fundamental de que los seres humanos tenemos libre albedrío”, recalcan.
Los firmantes exponen a su vez que esta tecnología adolece de otros problemas asociados al panorama digital actual, como la opacidad de sus algoritmos (lo que hace imposible fiscalizarlos), o su poca capacidad de adaptación a contextos que no estaban presentes en su entrenamiento.
Hay suficientes evidencias que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas de vestir a posibles comportamientos 'problemáticos' puede resultar en clasificaciones racistas, clasistas y/o sexistas
Las conclusiones de la carta no son ni mucho menos inéditas. Ya en 2019 el Instituto AI Now de la Universidad de Nueva York, una de las instituciones de referencia en el estudio de la Inteligencia Artificial, pidió a las autoridades que prohibieran algunos de los usos que se le dan a esta tecnología. Entre ellos, todos los que se centraban en una “predicción del comportamiento”. Otro estudio más reciente, elaborado por la organización Article19, avisaba que este tipo de sistemas de vigilancia se está extendiendo gracias a empresas chinas que los desarrollan con su gobierno como financiador y cliente, a pesar de que “son pseudociencia”.
Por el momento, el Gobierno no ha expresado voluntad de impedir el uso del reconocimiento facial más allá de las actuales leyes de privacidad y protección de datos. El Ministerio de Defensa, de hecho, acaba de imponerlo en un hospital militar para controlar el horario de los trabajadores, pese a que los sindicatos lo consideran una “tecnología desproporcionada”. La Estrategia Nacional de Inteligencia Artificial, presentada por Pedro Sánchez el pasado mes de diciembre, tampoco hace ninguna referencia al reconocimiento facial.
2