Amazon despide por machista a la inteligencia artificial que seleccionaba currículums para trabajar en la empresa
Llevaba funcionando desde 2014, pero Amazon ha decidido que ya ha sido suficiente tiempo. La inteligencia artificial (IA) que revisaba los currículums de los aspirantes a un puesto de trabajo en la empresa de Jeff Bezos priorizaba a los hombres frente a las mujeres. En dos palabras: era machista.
Lo cuenta Reuters este miércoles, que ha hablado con cinco personas relacionadas con la inteligencia artificial. El sistema daba una puntuación de una a cinco estrellas al candidato, como si se tratara de un vendedor en la propia página web de la compañía: “Todo el mundo quería este santo grial”, dice a Reuters una de las fuentes.
Solo un año después de comenzar a usar el sistema, Amazon ya se dio cuenta de que algo no iba bien: no estaba puntuando a las candidatas a desarrolladoras de software ni otros puestos técnicos. Según Reuters, la culpa la tenían los modelos que usó la IA para evaluar el perfil de cada candidato, que correspondían a currículums enviados hace 10 años. La mayoría eran de hombres.
Tres años discriminando mujeres
La IA aprendió que la gente idónea para desempeñar esos puestos eran hombres. Penalizaba los currículums que contenían la palabra “mujer” e incluso puntuaba de menos a las mujeres provenientes de dos universidades estadounidenses de las que no ha trascendido el nombre.
“Ellos querían, literalmente, que fuera una herramienta en la que metes 100 currículums, que eligiese cinco y nosotros contratar a esos cinco”, continúa otra fuente de Reuters. Aunque Amazon modificó la IA para intentar hacerla neutral, según las personas entrevistadas por la agencia, tampoco eso resultó ser una garantía para que la máquina no idease otras formas de discriminar a las candidatas.
Amazon prescindió a la IA a principios del año pasado. Reuters cuenta que varios directivos perdieron la fe en el proyecto. La empresa de Bezos asegura que sus responsables de personal nunca confiaron en la herramienta: “Nunca fue usada para evaluar a los candidatos”, dicen.
Otro caso más de una máquina cuyos prejuicios le impiden ser neutral. No hay que olvidar que, al ser programadas por humanos, estos son susceptibles de verter sus propios prejuicios o fobias; ya sean racistas, homófobas o machistas, como en este caso.