La portada de mañana
Acceder
Feijóo confía en que los jueces tumben a Sánchez tras asumir "los números"
Una visión errónea de la situación económica lleva a un freno del consumo
OPINIÓN | La jeta y chulería de Ábalos la paga la izquierda, por Antonio Maestre

Si es hombre lleva un martillo, pero si es mujer es un secador: así actúan los sesgos de la Inteligencia Artificial

Dos personas con la misma complexión, la misma vestimenta y la misma postura, realizando la misma acción y empleando los mismos instrumentos. Aparecen en dos fotografías prácticamente idénticas a excepción de un detalle: en una el sujeto tiene rasgos faciales que se asocian al sexo masculino, mientras que en la otra se asocian al sexo femenino. Cuando se las enseñamos a algunos principales sistemas de reconocimiento de imágenes basados en Inteligencia Artificial para que las clasifiquen, lo que ven en cada una de ellas cambia de manera radical.

Si la persona tiene el pelo largo y liso, entonces la inteligencia artificial identifica que lo que lleva en la mano es un secador de pelo, en vez de un martillo, como ocurre con la imagen que encabeza este artículo. Si ambos sujetos portan una taladradora, los algoritmos son capaces de detectarlo... pero solo si la persona que lo sujeta tiene barba, porque si no la tiene no son capaces de identificar el objeto. Si las dos personas van ataviadas con instrumentos de limpieza, la inteligencia artificial solo reconoce que está viendo una “persona limpiando” en caso de que tenga rasgos asociados a una mujer. Si están identificados con un hombre, entonces las etiquetas que selecciona son “trabajador” o “estudiante”.

Son los resultados de un experimento realizado por Bikolabs, laboratorio de la consultora Biko. El sexismo que aflora es parte de los denominados “sesgos” presentes en la Inteligencia Artificial. Estos aparecen cuando los resultados que ofrece esta tecnología al enfrentarse con determinados problemas reflejan los estereotipos discriminatorios propios del contexto social y político de los humanos que la programan o del conjunto de datos con los que ha sido entrenada. Todo lo contrario a la supuesta neutralidad matemática con la que sus proveedores la publicitan en el mercado.

“De un tiempo a esta parte, a pesar de la fe puesta en los supuestos superpoderes de la IA, hemos tenido que asumir que ni es tan objetiva ni tan neutral como se deseaba creer”, explican Ujué Agudo y Karlos G. Liberal, directora y coautor del experimento. “En muchas ocasiones es ineficaz, discriminatoria, sexista y racista. Algo que no resulta extraño dado que los humanos, presentes en todo el ciclo de vida de la IA, podemos trasladar nuestras subjetividades y sesgos a la máquina en todas las fases del proceso”, continúan.

El experimento se basó en un método muy sencillo: mostrarle a las principales soluciones de IA del mercado dos fotografías con personas llevando objetos históricamente estereotipados. Una es la original, la otra es la misma pero con el género del sujeto cambiado mediante la popular aplicación FaceApp. Los resultados mostrados anteriormente son los de Amazon Rekognition, la IA que vende la multinacional de comercio electrónico. Pero los mismos sesgos aparecen en el caso de la IA de Google Imágenes, que propone “chica” como etiqueta casi única en las búsquedas de imágenes de mujer, siendo mucho más rico etiquetando las fotos de hombres (“caballero”, “portavoz”, “pelo de surfero”).

Con los algoritmos de reconcimiento de empresas especializadas ocurrió lo mismo. CamFind, una app de reconocimiento de imágenes del sector shopping, identifica como “vestido de mujer azul y negro” una imagen que muestra a un hombre con delantal y escoba. En cambio, si se borra la escoba y se le muestra la misma foto, entonces sí reconoce la ropa de varón y ve un “polo de hombre a rayas azules y negras”.

La opacidad ampara los sesgos

Una de las principales trabas a la hora de identificar y arreglar este tipo de sesgos presentes en la IA es el secretismo de sus proveedores sobre el proceso que han seguido para programarlas y entrenarlas, reflejan desde Bikolabs. “Descubrir no sólo bajo qué criterio las redes neuronales clasifican las imágenes sino incluso con qué datasets (y qué etiquetas) se han entrenado resulta misión imposible debido a la opacidad de las IAs y la de sus empresas propietarias”, lamentan.

Qué criterio de clasificación han seguido los programadores humanos para las imágenes, así como la fuente de las imágenes en bruto con la que ha sido entrenada cada IA son dos aspectos clave, puesto que en ambos pueden filtrarse los sesgos sexistas o racistas. Pero también importa el tipo de imagen que se le ha enseñado a una IA para que defina cada etiqueta. “Que dichas imágenes sean adecuadas para la etiqueta que representan puede ser crucial”, recuerdan los investigadores.

Un ejemplo de ello es el fondo de imágenes que se ha utilizado para entrenar muchos de estos algoritmos, llamado ImageNet. Las IAs se basan en él para clasificar objetos o imágenes a futuro. Entre las fotografías etiquetadas en la categoría “girl” (niña, chica) se encuentran las siguientes, “cuanto menos poco adecuadas para la etiqueta en cuestión”, lamentan:

El invierno de la IA

“No siempre los malos resultados del reconocimiento de objetos se derivan de una mala elección de las imágenes de entrenamiento. A veces, simplemente, es que ponemos una expectativa a su rendimiento que no es realista”, expone el análisis de Bikolabs. Ya en mayo de este año la revista Science planteó el debate de si el imaginario que en torno al potencial de la IA puede sostenerse. “Los llamativos avances de algunos campos de la IA no son reales”, sentenciaba la prestigiosa publicación.

No es la primer vez que ocurre esto. El término “inteligencia artificial” se acuñó en 1956 y desde entonces ha pasado por varios inviernos: periodos en los que los avances anunciados para esta tecnología no terminan de llegar o falla alguna gran investigación, lo que desencadena un pesimismo en la comunidad de desarrolladores y una caída de la inversión durante años. La IA sufrió largos inviernos en las décadas de los 70 y los 80 del pasado siglo.

El aprendizaje automático, la datificación y otros procesos propios de la progresiva digitalización de la sociedad han impulsado la financiación de la IA como nunca antes en la última década. Sin embargo, el debate sobre si las expectativas creadas son reales ha vuelto y, con él, el miedo a un nuevo invierno. “Quizá sea complicado que vayamos a sufrir otro invierno de la IA, pero es posible que, como apunta Jeffrey P. Bigham, lo que sí llegue es un otoño en el que, aunque podamos recoger la cosecha de nuestros esfuerzos bien empleados al aplicar IA en problemas concretos, el hype vacío que aún hoy sustenta el mercado se deshinche”, avisan desde Bikolabs.