De cómo la tecnología también discrimina por género al entrenar con el patrón “hombre blanco”

Una persona maneja varios dispositivos tecnológicos. (PIXABAY)

Jennifer Jiménez

0

“El gran gol que nos ha metido la tecnología es hacernos creer que tomará mejores decisiones y no siempre es así”. Es una de las conclusiones de la ingeniera informática Lorena Fernández, directora de Identidad Digital de la Universidad de Deusto, que explica que las decisiones que toma un algoritmo están sujetas a condicionamientos humanos, a estereotipos y, por tanto, también puede ser machista. Uno de los ejemplos que remarca es el traductor de Google que al traducir de idiomas con sujeto neutro como el turco deduce frases como “ella es cocinera”, “él es policía” o “ella es limpiadora”. Lo hace porque el traductor se ha estado alimentando durante años de publicaciones online, libros … Y, de hecho, recuerda que un estudio sobre los libros de los años 20 a los 90 analizó los adjetivos que aparecían referidos a los hombres y a mujeres y concluyó que durante décadas a ellos se les ha definido como “honorables” y a ellas como “encantadoras”. 

Hay diferentes formas para que entre el “sesgo algorítmico”, es decir, esa discriminación que puede ser por género, racial, por orientación sexual… Una es precisamente como la que le ocurre al traductor, que recolecta la información para que la inteligencia artificial genere un patrón y esa información puede reflejar los prejuicios de la sociedad existente. Y otra es cuando se entrena esa inteligencia artificial con un elemento no representativo de la realidad, por ejemplo, con el patrón “hombre blanco” dejando fuera al resto de la población. “Hay un personaje que es hombre caucásico, de mediana edad y clase media que tiene el superpoder de representar a todo el mundo”, resalta a modo irónico Lorena Fernández. Como ejemplo de ello cita los software de reconocimiento facial que tienen más probabilidades de fallar con mujeres y más aún con mujeres negras. Así lo concluyó un estudio de Joy Buolamwini, investigadora del MIT Media Lab. 

“Las mujeres somos la mitad de la sociedad pero la tecnología está pensada a día de hoy desde los zapatos de los hombres que están creando esa tecnología”, insiste Fernández. Estos sesgos pueden verse en otros ejemplos como en la forma en la que un algoritmo puede discriminar a las mujeres en un determinado puesto de trabajo. Una investigación, de hecho, reflejó cómo al crear 1.000 usuarios ficticios, la mitad como hombres y la mitad como mujeres, ellos veían 1.800 veces un anuncio de un puesto de más de 200.000 dólares de salario frente a los usuarios ficticios categorizados como mujeres, que solo lo vieron 300 veces. La ingeniera remarca que esto puede ocurrir de forma premeditada, aunque en menos ocasiones. “Si a un algoritmo le dices que aprenda si una persona es contratable en base a datos de contrataciones previas puede llegar a descartar por ser mujer, e incluso por las propias palabras que usamos en el currículum”. Explica que ya esto le ocurrió hace unos años a Amazon, cuya inteligencia artificial promocionaba las candidaturas con trabajos sin interrupciones, lo que discriminaba a las mujeres, porque tal y como ha puesto en evidencia la pandemia de la COVID-19 son ellas las que paran para cuidar no solo a los hijos sino a familiares dependientes. 

¿Es un túnel neutro? ¿Y una máquina quitanieves machista?

La directora de Identidad Digital de la Universidad de Deusto lanza preguntas como ¿es un túnel neutro? o ¿una máquina quitanieves es machista? cuando realiza alguna conferencia en este sentido, como la que impartió recientemente en la Casa de Colón de Gran Canaria en unas jornadas sobre Ciberfeminismo. Fernández explica a ahora.plus que lo hace para demostrar que la perspectiva de género debe aplicarse a todos los ámbitos y cómo los avances tecnológicos han estado marcados por la discriminación. La primera pregunta tiene que ver en que cuando se construyeron los túneles de Nueva York para conectar Manhattan con Long Island se realizaron con tan poca altura sus techos que solo podían pasar vehículos privados, lo cual dejaba fuera a todas las personas que se movían entonces en transporte público. En la segunda pregunta hace referencia a un estudio que se realizó en un pueblo de Suecia y se concluyó que precisamente estas máquinas quitanieves empiezan limpiando las principales arterias de la ciudad, dejando para más tarde aceras, carriles bici y otras calles por las que suelen moverse precisamente las mujeres. “Haciendo eso primas el modelo productivo de vehículo propio, que en la mayoría eran llevados por hombres”, remarca. 

La ingeniera va más allá y recuerda otros avances como el cinturón de seguridad, que se entrenó desde 1949 con muñecos que representaban a hombres. No fue hasta los años 90 cuando se empezaron a hacer pruebas con dummies que representasen a mujeres embarazadas. De hecho, pone como ejemplo un estudio que realizó la Universidad de Virginia en 2020 que revelaba que las mujeres que usan un cinturón de seguridad tienen un 73% más de probabilidades de sufrir una lesión grave en un choque frontal que los hombres. También, añade que estas situaciones se han vivido durante la COVID-19 ya que se han visto varios casos, como en el Reino Unido, en los que se demostró que los epis estaban pensados para hombres y no para el cuerpo de las mujeres, a las que le sobraba gran parte del traje o en el hecho de que tuviera que pasar tiempo para que se hicieran chalecos antibalas para mujeres. 

Tampoco es casual que las asistentes de tecnología como Alexa, Siri o Cortana tengan voz y nombre de mujer. “Todo esto corresponde a un estudio que hicieron y preguntaban a las personas cómo identifican las voces femeninas y masculinas. Lo que se concluyó es que normalmente en la sociedad decimos que las voces masculinas son más asertivas y las femeninas más serviciales”. Fernández recuerda otro estudio en el que se preguntó que, si tuvieran que dedicar un robot a la defensa cómo debía ser la fisionomía y lo que decían los encuestados era que preferían que tuviera rasgos masculinos, pero que si el robot se tenía que dedicar a los cuidados entonces mejor que tuviera rasgos femeninos. 

¿Cómo se pueden combatir estos sesgos de género?

La experta señala que es muy importante la diversidad en la tecnología, “de manera que si quieres hacer un sistema y quieres entrenarlo o alimentarlo con datos respondan a una diversidad” y que lo haga “por el bien del realismo”. Otro aspecto fundamental es conseguir que la tecnología responda a problemas de toda la sociedad y no solo de una minoría privilegiada, y ahí es donde entraría la interseccionalidad, clases sociales… Además, apunta a la diversidad en los equipos, es decir, personas diferentes que traigan su trayectoria vital al proyecto para que se tengan en cuenta todos los puntos de vista, desde género, raciales, por orientación sexual… 

Otro elemento importante que subraya es la diversidad de la tecnología desde las propias empresas. Y es que, la mayoría de los proyectos que se están desarrollando y que afectan a la vida de las personas son realizados por grandes compañías como Google, Amazon, Microsoft… y ahí es necesario incluir la diversidad. Se trata de un aspecto que asegura que le preocupa por noticias como los despidos de Google de dos de sus investigadoras de ética en inteligencia artificial, personas que advertían de que hay que tener cuidado con el sesgo de género y también con el impacto que va a causar en medio ambiente el hecho de tener a tantas máquinas realizando estos procesos. 

Más mujeres en ciencia

Lorena Fernández es mentora del proyecto Inspira STEAM, que busca el fomento de la vocación científico-tecnológica entre las niñas. Explica que acude a centros escolares para acercar la ciencia y concluye que si hacemos un análisis de por qué hay menos mujeres en tecnología y en el ámbito de las ingenierías “es como una tubería que gotea y por las que se nos está escapando mucho talento femenino, que casi no llega a la universidad ni al ámbito profesional”. Esos agujeros son muy diversos y van desde la falta de referentes femeninos, los estereotipos ligados a cómo nos imaginamos que es una persona que trabaja en tecnología o qué se potencia desde casa ya que “a las niñas les decimos cuando sacan buenas notas que son trabajadoras y a los niños que son más brillantes”. 

Si hay un elemento que sobresale es la “falta de confianza” desde edades muy tempranas que se mantienen de forma constante. Fernández cita un estudio publicado en Science que reveló que desde los seis años ya las niñas consideran que los hombres son más inteligentes. El estudio consistía en contarles una historia de un personaje al que no le ponían género y que era brillante y al preguntarle por el sexo a partir de los seis años las niñas decían que era un hombre. Señala también que en el ámbito profesional a las mujeres les sigue persiguiendo el síndrome de la impostora y cita el ejemplo de HP, donde descubrieron que en las promociones internas que saca la empresa, empezaron a analizar los datos y vieron que ellas no las solicitan si no cumplen el 100% de las condiciones que se piden para el puesto, mientras que los hombres con cumplir con el 60% se presentaban. 

La ingeniera destaca la importancia de visibilizar referentes todo el año, no solo el día de la Mujer en la Ciencia y cree que es necesario ir más allá de enseñar referentes como Marie Curie para no incidir en la idea de que para triunfar en ciencia una mujer debe sobresalir. “Hay que contar la historia de grandes mujeres, pero ojo con mostrar el éxito femenino como algo extraordinario”, afirma. En este sentido, “es importante mostrar modelos cotidianos, incluso cercanos geográficamente, cercanos a sus vivencias y a su clase social”, indica. Además, remarca la importancia de presentar las experiencias reales pero también que las mujeres sean representadas en la ficción y ejemplo de ello puede verse en series como Gambito de Dama, que ha supuesto que más chicas quieran apuntarse al ajedrez al ver a un referente femenino. “En la tecnología tienen que estar las mujeres”, reivindica, sin olvidar que también hay profesiones muy feminizadas y hay que “potenciar los cuidados, ponerlos en el centro” ya que estos trabajos no tienen remuneración ni prestigio social. Por ello, insiste en que hay que incorporar a los hombres en esa ecuación y pensar la tecnología desde ahí ya que “la tecnología tiene que poner en el centro lo importante”, concluye. 

síguenos en Telegram

Etiquetas
stats