Te necesitamos
Si te gusta nuestro trabajo, apóyanos para poder seguir. Ahora más que nunca se demuestra que la desinformación debilita la democracia. Ayúdanos a combatir las mentiras.
El sesgo racial no es la única controversia que rodea a la tecnología de reconocimiento facial. Diversos estudios han detectado que estos algoritmos de identificación no solo funcionan peor con caras de personas negras, sino con cualquier rostro racializado. También se equivocan más con las mujeres que con los hombres. Además, su uso por la policía en entornos abiertos es cuestionado por organizaciones de defensa de los derechos digitales, que denuncian que “es como ponernos a todos en una rueda de reconocimiento constante”. Las dudas se acumulaban desde hace años, pero cuando IBM argumentó el lunes que abandonaba toda relación con esta tecnología por “justicia y equidad racial” en pleno auge del movimiento Black Lives Matter, muchos lo vieron como el primer dedo que señala a un emperador desnudo.
“IBM empieza, muchos más deben seguirla”, adelantó Joy Buolamwini, investigadora del MIT y autora de uno de esos estudios que han destapado las vergüenzas de este tipo de inteligencia artificial. “Supone un reconocimiento de que la tecnología de reconocimiento facial, especialmente la implementada por la policía, se ha utilizado para socavar los derechos humanos y dañar específicamente a las personas negras, así como a las personas indígenas y otras personas de color”, recalcó Buolamwini, fundadora de la Liga de la Justicia Algorítmica.
“No hay justicia sin justicia algorítmica” es el mantra de esta organización, que denuncia cómo la inteligencia artificial puede profundizar sistemas discriminatorios sexistas o racistas. Para IBM era más fácil sumarse a este discurso que para su competencia. Aunque estaba en la carrera, su tecnología de reconocimiento facial no tenía una gran cuota de mercado. Otras como Microsoft, Facebook, Google o Amazon la han desarrollado y vendido más intensamente. Pero su potencial era ser el primero de una serie de movimientos en cadena que empujara a las demás.
Así se ha demostrado cuando Amazon, uno de los principales proveedores de estas tecnologías a policías y agencias de seguridad en todo el mundo, ha decretado un año de moratoria para usar su servicio en estos ámbitos. “Abogamos por que los gobiernos establezcan regulaciones más estrictas para regular el uso ético de la tecnología de reconocimiento facial” durante ese período, ha pedido la multinacional en un escueto comunicado dos días después de que IBM diera el primer paso.
El movimiento Black Lives Matter ha desencadenado “la tormenta perfecta” contra los algoritmos de reconocimiento facial, expone Gemma Galdón, consultora tecnológica y fundadora de la Fundación Éticas. “Lo que está pasando ahora es solo la puntilla. Hay problemas de mucho más calado que el sesgo racial con el reconocimiento facial, porque es una tecnología fallida en algunos ámbitos. Puede funcionar con 'niveles aceptables' en entornos cerrados (y con 'niveles aceptables' quiero decir con tasas de error del 30%) pero en entornos abiertos estábamos viendo tasas superiores al 90%, por lo cual básicamente es una tecnología inútil”, concluye.
Sobre la decisión de IBM y Amazon, la experta afirma que “es evidente que el motivo principal no es ético, pero han leído bien el momento actual para cambiar el paso”. Por un lado, “IBM tiene una tecnología que ahora mismo no es competitiva, por lo que corta una línea de inversión que tampoco estaba muy claro que funcionara apuntándose un tanto en temas éticos y de privacidad”, expone. Amazon, por su parte, se adelanta a un movimiento que las autoridades podrían obligarla a realizar igualmente, ya que el reconocimiento facial se encuentra “en un vacío legal” que podría resolverse con la prohibición de uso policial.
El Congreso estadounidense está analizando esta cuestión. No solo está empujado por la denuncia de la sociedad civil y el discurso corporativo de las empresas que se han sumado a ella. También está respaldado por expertos técnicos. “El uso policial de tecnología de reconocimiento facial debería ser prohibido en este momento”, ha expuesto Timnit Gebru, científica de datos y colíder del equipo de inteligencia artificial ética de Google, en una entrevista con el New York Times.
Los motivos van más allá de que esta tecnología funcione peor en unas personas que en otras. “Hay otro llamado sesgo de automatización. Si la intuición le dice a una persona que el sistema no ha reconocido bien a un sujeto, pero el ordenador le dice que es él con un 99% de precisión, es más probable que crea en el ordenador que en su propia impresión”, explica. “También hay un desequilibrio de poder. El reconocimiento facial puede ser completamente preciso, pero aún así puede usarse de una manera que sea perjudicial para ciertos grupos de personas si se implementa sin transparencia”.
España es uno de los dos únicos países de Europa, junto a Bélgica, donde no está autorizado el uso de reconocimiento facial por parte de la policía o en investigaciones judiciales, según un análisis de la organización Algorithm Watch de diciembre de 2019. No obstante, en Marbella se prueba una tecnología denominada “reconocimiento corporal”: “Estos sistemas utilizan el estilo de caminar o la ropa de las personas para rastrearlos. Podrían reconocer caras, pero la función está deshabilitada por ahora, a la espera de una autorización legal para activarla”, explicó la organización.
Si te gusta nuestro trabajo, apóyanos para poder seguir. Ahora más que nunca se demuestra que la desinformación debilita la democracia. Ayúdanos a combatir las mentiras.