Inteligencia Artificial feminista contra algoritmos paternalistas: auditorias, bases de datos sin estereotipos e inclusión

Los algoritmos paternalistas, en palabras de la licenciada en Psicología e investigadora de la Universidad de Deusto, Ujué Agudo, son aquellos mitos que llevan a creer que la Inteligencia Artificial (IA) es superior a los humanos. Y, por ello, se le deja participar en la toma de decisión, cuando no debería. “Vivimos una especie de realidad paralela. Somos conscientes de que la Inteligencia Artificial tiene sesgos, que no funciona siempre adecuadamente, pero a la vez creemos que es más eficaz que los humanos, más objetiva e incluso más neutral. Y así tenemos Inteligencia Artificial utilizada por el ejército israelí para decidir qué bombardear en Gaza, hay algoritmos en cárceles para averiguar las probabilidades que tiene un preso de reincidir y o deciden quien es -y quien no- merecedor de una ayuda social”, ha destacado Agudo durante la jornada Género y comunicación de la Ciencia, celebrada este jueves en Bilbao y organizada por la Cátedra de Cultura Científica de la Universidad del País Vasco (UPV/EHU).
A lo largo de la jornada, más de una decena de expertas de distintos ámbitos frente a un público casi en su totalidad femenino, han analizado cuestiones como los sesgos de género presentes en los algoritmos de la IA, el lenguaje como herramienta del cambio social o las alternativas feministas a estos dispositivos tecnológicos que comúnmente se ligan al progreso, pero pueden estar lejos del avance. “La IA es un sistema tecnológico que toma nuestras decisiones o influye significativamente en ellas (a menudo de forma opaca y sin nuestro pleno consentimiento) con el argumento de que así se obtienen mejores resultados para nosotros. Conlleva la merma de nuestra autonomía y capacidad de elección. De algún modo, como tiene una alta capacidad de almacenamiento de la información, se cree que la IA es superior a los humanos y eso la hace más eficaz, objetiva y neutral, pero parece que nos olvidamos de que la IA tiene un dueño”, ha recalcado Agudo.
Por eso, según señala la investigadora, desde la Unión Europea están planteando leyes para que la IA no tome decisiones sola en los considerados casos de alto riesgo. “A modo de ejemplo de alto riesgo está el predecir la tasa de reincidencia de un preso, dar ayudas sociales o el acceso al sistema educativo. Todas esas se consideran decisiones de alto riesgo y un humano debería supervisar el proceso de decisión en el que se instala una IA. Tiene lógica, pero es contradictorio porque se cree que la IA es superior a los humanos, pero un humano tiene que supervisar la IA. Y la Ciencia lo que dice es que no estamos haciendo bien el proceso de supervisión de la IA”, ha lamentado.
Las tecnologías nacen en contextos sociopolíticos muy determinados y, por tanto, reproducen lo que quieren quienes las diseñan, las desarrollan y las adoptan
“Tenemos que pensar cuál es la tecnología que queremos construir y usar. Durante años hemos creado la narrativa de que los humanos somos malos tomando decisiones, tenemos sesgos, cometemos errores, tenemos poca fuerza de voluntad, y esa idea de que la IA es mejor que nosotros, hace que deleguemos la toma de decisiones. La automatización vino a eliminar ciertas tareas que no nos gustaban, en teoría iba a ser para eliminar tareas aburridas, sucias y peligrosas. Si hiciese todas esas cosas todos estaríamos contentos, pero no se hacen todas esas tareas gracias a la IA y, sin embargo, se está entrando en otras tareas que no hemos decidido como sociedad. ¿Queremos un algoritmo que decida a quién se le da un bono social o no? No lo hemos debatido, pero ya está instaurado. Si aceptamos esas narrativas lo que ocurre es que no estamos participando en el debate”, ha sentenciado.
En otra conferencia durante la jornada, pero que se puede tomar a modo de solución a la problemática que tanto Agudo como otras investigadoras han planteado, la física, filósofa e investigadora en Ética y Gobernanza de la Inteligencia Artificial (IA) en la Universidad Autónoma de Madrid, Lucía Ortiz de Zárate ha lanzado una serie de propuestas para conseguir una IA feminista.
“Se trata de un reto por desgracia muy importante. Cuando pensamos en cómo crear una IA feminista debemos pensar antes en qué tipo de sociedad queremos construir y después evaluar críticamente qué tecnologías son compatibles con ese modelo de sociedad y desarrollarlas de tal modo que se amolden a los valores y objetivos establecidos. Ser neutral no es algo deseable, todos hablamos hacia un lugar y en el camino hacia la igualdad de género uno no puede ser tibio. El problema que tenemos en Occidente es haber creído que la tecnología era neutral y creer que lo de que la tecnología no es buena ni mala, depende de en manos de quién está. Pues no, las tecnologías nacen en contextos sociopolíticos muy determinados y, por tanto, reproducen lo que quieren quienes las diseñan, las desarrollan y las adoptan. Por lo que nunca son neutrales”, ha apuntado.

Según ha explicado Ortiz de Zárate, para construir una IA feminista, lo que hay que hacer es “convertir a las tecnologías, abrirlas y poner de relieve que son un campo de disputa política y ética, e insertarle valores que promuevan la igualdad de género”. “Si seguimos pensando que son neutrales, lo que van a hacer es reproducir los valores machistas y de desigualdad que todos conocemos. Otro mito es la asunción de que tecnología es igual a progreso, pero no son lo mismo. El progreso tiene que ver con la mejora de las condiciones de vida de las personas, ya sean condiciones materiales, políticas o en materia de derechos. Las tecnologías pueden ayudarnos sustancialmente a conseguir ese tipo de sociedad, pero por sí solas no lo van a hacer”, ha subrayado la investigadora, que ha puesto de ejemplo China, un país en el que “la tecnología no se usa para ampliar libertades, sino para restringirlas”.
Entre los problemas que detecta la investigadora relacionados con las IA no feministas están “los sesgos en datos y algoritmos, la reproducción de estereotipos de género presentes en el hardware, el impacto diferenciado en el empleo por cuestiones de género”. “Sabemos que la IA va a sustituir los trabajos más precarios, que son los que mayoritariamente realizan las mujeres y esos puestos de trabajo van a quedar obsoletos. En ningún caso la situación se soluciona con meter a mujeres, algo que llevamos haciendo durante décadas, sino que pasa por reorientar estas tecnologías que ya están entre nosotros para que nos ayuden a construir una sociedad feminista”, ha recalcado.
Si seguimos pensando que son neutrales, lo que van a hacer es reproducir los valores machistas y de desigualdad que todos conocemos
“Para desarrollar una IA feminista necesitamos un análisis con perspectiva de género integral que aborde tanto los aspectos de carácter técnico como político y que tenga en cuenta la totalidad de la cadena de suministro que hace posible el funcionamiento de los sistemas de IA. Auditorías de datos para asegurar que los sistemas no se rigen por estereotipos, bases de datos representativas para que todo el mundo esté representado, equipos de programadores diversos y medidas de conciliación en las empresas tecnológicas”, ha insistido.
En esta cuestión a modo de ejemplo ha puesto las instalaciones con gimnasios y sala de juegos que tienen empresas como Google para que sus trabajadores pasen el mayor tiempo posible en su trabajo. “¿Sabéis qué no tienen esas grandes empresas? Guarderías. ¿Quién puede pasar todo el día ahí? Los hombres. La inclusión de cuestiones organizativas tan básicas como tener un espacio de cuidado para los menores de edad es una forma de asegurarse de que las mujeres, que todavía somos las que asumimos la mayor parte de los cuidados, podamos dedicar -tema también cuestionable- una gran parte de nuestro día a trabajar”, ha asegurado. Por último, ha concluido explicando que la solución pasa también por las cuestiones políticas y de regulación. Así ha abogado por crear una “alfabetización digital, aprender críticamente sobre la tecnología, una regulación, políticas públicas con perspectiva de género y medidas globales para la igualdad de género”.
0