El sistema de reconocimiento facial de Amazon cree que hay 28 criminales en el Congreso de los EEUU
Se llama Amazon Rekognition System y, salvo en Irlanda, en el resto de Europa aún no está disponible. En EEUU sí, por eso la American Civil Liberties Union (ACLU), la organización por los derechos civiles estadounidense, ya lo ha probado y el resultado no podía haber más desastroso. El sistema de reconocimiento facial de Amazon pincha en hueso: de 535 caras, ha identificado 28 como de sospechosos criminales. Nada raro si no fuera porque esos 535 son los miembros del Congreso de los EEUU.
Según la ACLU, “construimos una base de datos de caras y una herramienta de búsqueda usando 25.000 fotos públicas de criminales”. Después, cruzaron las caras de su base de datos con las imágenes (también públicas) “de cada miembro actual del Senado y la Cámara de Representantes”. El resultado fue que, según el software de Amazon, 28 de esos congresistas eran criminales.
“Ser identificado -tanto si es de forma precisa o no- podría costarle a la gente su libertad e incluso su vida”, explica la ACLU. “El Congreso debería tomarse estas amenazas en serio, pisar el freno y promulgar una moratoria sobre el cumplimiento de la ley cuando se usa reconocimiento facial”, continúa la asociación.
Un sistema racista e impreciso
El Amazon Rekognition System es “un servicio de reconocimiento de imágenes con tecnología de aprendizaje profundo que detecta objetos, escenas y rostros; extrae texto, reconoce a personas famosas e identifica contenido inapropiado en imágenes”, tal y como explican en su página web. El algoritmo de los chicos y chicas de Jeff Bezos “permite encontrar rostros parecidos en una gran colección de imágenes”, de tal forma que pueden ser buscadas de forma “rápida y precisa” para obtener “los rostros que más se parecen al rostro de referencia”.
El medio especializado The Verge ha contactado con Amazon, que atribuye los resultados a una “pobre calibración” a la hora de usar el sistema. La ACLU, en su experimento, utilizó las opciones por defecto del software, que proporciona un umbral de confianza del 80%. Amazon dice que lo hicieron mal y que tenían que haber aplicado un margen del 95%.
La ACLU ha encontrado también que el algoritmo usado por Amazon es racista, aunque no es el único. 11 de los 28 falsos positivos (casi la mitad) eran negros; en porcentaje, casi el 40% de los “criminales” que identificó el software. Si echamos un vistazo al Congreso de los EEUU, solo el 20% son negros; lo que indica que el sistema les perjudicó más a ellos que a los blancos.
La policía paga por saber quién eres
A todo esto se suma también el incidente del pasado mayo, cuando también la ACLU descubrió que Amazon estaba vendiendo su software a la policía de varios estados de los EEUU, como Orlando y Oregón. En el condado de Washington (Oregón) pagan entre 6 y 12 dólares al mes por contar con la tecnología. El departamento del Sheriff puede así escanear y cotejar, en tiempo real, las imágenes de los criminales con lo que muestran las cámaras de videovigilancia repartidas por la ciudad.
Amazon dijo entonces que su tecnología tenía “muchas aplicaciones útiles en el mundo real” y que “nuestra calidad de vida sería mucho peor hoy si criminalizásemos cada nueva tecnología porque alguien puede elegir abusar de ella”. Nada se ha vuelto a saber de su uso por parte de la policía estadounidense, pero el canal británico Sky News sí lo utilizó para identificar a los miembros de la boda real entre el príncipe Harry y Meghan Markle. La marca Motorola Solutions también es cliente habitual de Amazon en este aspecto.
A la ACLU le ha costado 12,33 dólares (10,60 euros) utilizar el software de Amazon, “menos que una pizza familiar”, dicen. El sistema de reconocimiento facial no está disponible en España y dependiendo de la localización geográfica donde nos encontremos cuesta más o menos dinero. Por cada mil imágenes que procese el algoritmo hay que pagar 1 dólar. Pero por hacer lo mismo en Tokio, el precio es 1,30 dólares. Además, Amazon ofrece descuentos a partir del millón de imágenes analizadas al mes. Todo un negocio por la cara.