Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Los sesgos de los algoritmos en la banca: créditos más caros para ellas y diferentes ofertas de productos

Un hombre abandona una sucursal del BBVA en Ponferrada.. EFE/ Ana F. Barredo

Diego Larrouy

8 de marzo de 2021 14:03 h

1

Los algoritmos toman cada vez un mayor protagonismo en distintos sectores, entre ellos el financiero, donde el conocimiento del riesgo de una operación toma una relevancia clave. Estos programas recogen datos y adaptan las ofertas y los productos de un banco en función del historial de un cliente y de otras circunstancias sectoriales. Sin embargo, lejos de ser objetivos, arrastran sesgos de género presentes en la sociedad y que se traducen en diferentes condiciones al conceder un crédito o al lanzar ofertas según se trate de un hombre o una mujer, según se concluye en un foro organizado este lunes por la asociación de consumidores Asufin.

“Un algoritmo bien entrenado puede facilitar la vida por su capacidad de proceso masivo de datos puede facilitar la vida y son fantásticos si los usamos bien. Pero eso no siempre es así”, ha apuntado Gemma Galdón, analista de políticas públicas especializada en el impacto de las tecnologías intensivas en datos personales y en la auditoría de algoritmos. “Hay indicios de mal funcionamiento, en muchos casos en el sector bancario”, ha añadido señalando que hay “evidencia” sobre la discriminación que se produce en la actividad financiera por motivos de género.

Galdón señala el origen de esta discriminación en que en el apartado de datos históricos, existe una ausencia de representación de la mujer, debido a que tradicionalmente era el hombre el que trataba con las entidades. “Si al algoritmo no se le advierte de esta infrarrepresentación, el algoritmo asigna más riesgo”, ha señalado. “La discriminación del pasado nos revictimiza ahora. Si no se corrige ese riesgo, lo que hace es reproducirlo”, ha incidido la consultora quien apunta que estas consecuencias se extiende no solo a la concesión de crédito sino también a las políticas comerciales de las entidades financieras. “Los productos de inversión se asignan menos a mujeres porque tenemos menos patrimonio asociado a nuestros perfiles. Hay productos que nunca se nos ofrece”, ha añadido.

Verónica López, directora de la Fundación AFI, ha recordado un caso de “sesgo machista” en el sector financiero, que fue la tarjeta de Apple con Goldman Sachs, que recibió denuncias porque concedía más nivel de crédito a mujeres que a hombres. “El algoritmo tomaba decisiones discriminatorias por cuestión de género, los algoritmos no son imparciales”, ha defendido la consultora en economía aplicada de Analistas Financieros Internacionales. “Los datos son los que son, pero depende de las gafas que se ponga uno ante un conjunto de información que está a disposición de todos”, ha apuntado.

Ambas han coincidido en apuntar que muchos de estos algoritmos están diseñados por equipos que, habitualmente, están compuestos únicamente por hombres y, además, por perfiles de formación vinculados a la ingeniería, sin la presencia de otras disciplinas. “Cualquier sociólogo, por ejemplo, podría indicar que hay dinámicas de discriminación histórica”, ha señalado Galdón, quien ha defendido la presencia de mujeres y otros perfiles formativos en estos equipos para poder hacer “algoritmos mejores” que “no sirvan para que se amplíen estructuras discriminatorias”.

El problema, ha apuntado Galdón, es que no se tienen todavía casos concretos judicializados de discriminación por culpa de algoritmos en España, pero que la experiencia en EEUU confirma este sesgo en el sector bancario. La consultora ha recordado que la ley ya obliga a que, cuando se considere que se ha producido una decisión injusta por un algoritmo, este deba ser explicado y que la decisión última debe ser tomada por una persona. “El problema es que esta garantía legal no se cumple”, ha señalado. “De momento no tenemos datos de que los bancos hayan comenzado auditorías sobre sus algoritmos”, ha señalado.

López, de AFI, advierte que, más allá de los problemas de la “injusticia” de la discriminación que tienen estas prácticas, los bancos deben atender a los “riesgos reputacionales” que tienen estos algoritmos. “Yo esperaría que todas las entidades tuvieran sobre la mesa una mejora de estas herramientas”, ha apuntado, mostrándose confiada de que las normativas europeas que se están desarrollando sirvan para urgir a estos cambios. “Tenemos leyes pero no se cumplen, hay algoritmos que están anulados en distintos países y en España hay uno denunciado [referente al modelo de cálculo del bono social eléctrico]”, apunta Galdón.

Con esto, la representante de AFI asegura que, aunque en el Gobierno hay intenciones de estudiar estos sesgos como en la Agenda 2025 del Ministerio de Economía, “no hay acciones concretas” que sirvan para hacer un futuro tecnológico “más igualitario”. López ha recordado que las estructuras del propio sector financiero ya muestran importantes diferencias de género. Por ejemplo, en cuanto al acceso de las mujeres a puestos de poder. “La mujeres llegamos a ser directivas en el sector financiero en las divisiones territoriales, no en los centros donde se toman las decisiones”, ha apuntado.

Galdón apunta que ha tenido conversaciones “de alto nivel” con organizaciones financieras para aplicar mejoras en los algoritmos que utilizan, aunque reconoce que falta que estas mejoras se apliquen en el día a día de los bancos. “Nos cuesta entrar en las estructuras intermedias”, ha añadido. Para la experta, la solución para este tipo de sesgos no debe ser “nuevos sesgos” en favor de una “discriminación positiva”, sino tener más en cuenta el “historial personal” que los datos históricos del sector. “En ámbitos históricamente machistas como el historial de crédito o el médico, reforzar los datos de experiencia propia ayudarían”, ha enfatizado.

Etiquetas
stats