Falta de transparencia, infravaloración de la violencia psicológica, preguntas “rígidas” que no permiten explicaciones o evaluaciones que tienen en cuenta los recursos policiales disponibles a la hora de asignar un nivel de riesgo a la víctima. Son algunos de los “problemas” que una auditoría externa ha encontrado en el algoritmo VioGén, un sistema automático empleado en las comisarias para calificar el riesgo personal que tiene cada denunciante de violencia de género.
“Una de las principales preocupaciones sobre el algoritmo VioGén es que aproximadamente el 45% de los casos reciben la calificación de riesgo ”no apreciado“. En el contexto de la violencia de género, la categoría de ”sin riesgo“ ya es un tema muy controvertido, ya que solo el hecho de dar el paso de denunciar puede dar lugar a reacciones violentas por parte del agresor”, detalla la investigación, elaborada por la Fundación Éticas, especializada en auditoría algorítmica, y la Fundación Ana Bella, una red de mujeres supervivientes de la violencia machista. “Esta falta de apreciación del riesgo nos lleva a pensar que existen factores que aún no se están teniendo en cuenta”, avisan.
La auditoría incluye un análisis de los datos públicos del Ministerio del Interior, que desarrolla VioGén desde 2007. A ellos se añade un estudio cualitativo con entrevistas a 31 denunciantes y 7 abogados especializados, así como un enfoque cuantitativo que profundiza en las calificaciones de riesgo VioGén con 126 mujeres que fueron asesinadas después de haber puesto una denuncia contra su agresor.
Esta segunda parte de la investigación se ha realizado de manera externa dada la negativa de Interior a facilitar acceso a las bases de datos de VioGén para realizar una auditoría interna, algo que Éticas señala que se ofreció a hacer de manera gratuita “en varias ocasiones desde 2018”. Fuentes del Ministerio han confirmado a elDiario.es que estas peticiones se denegaron y afirman que el informe “carece de rigor académico al basar su estudio y sus conclusiones en un universo estadístico insignificante de tan solo 31 entrevistas frente a las más de cinco millones de valoraciones de riesgo realizadas desde 2007”.
Calificación de riesgo para la violencia de género
VioGén (acrónimo de Sistema de Seguimiento Integral en los casos de Violencia de Género) entra en acción cuando una víctima de violencia machista acude a la comisaría a poner una denuncia. Se basa en un cuestionario predeterminado que los agentes rellenan con las respuestas de la denunciante. En base a ellas el algoritmo evalúa el riesgo de que su agresor atente contra ella, calificándolo como “no apreciado”, “bajo”, “medio”, “alto” o “extremo”. A partir del riesgo “medio” la denunciante tiene derecho a protección policial. Los agentes pueden modificar el nivel de riesgo asignado, pero solo para aumentarlo. No obstante, la auditoría refleja que en el 95% de los casos no lo hacen.
Es en esa primera evaluación donde la investigación detecta muchos de los problemas del sistema. “El 80% de las entrevistadas reportaron diferentes problemas con el cuestionario VioGén. Esto significa que la calidad de los datos introducidos en el sistema algorítmico podría verse comprometida en este momento, generando fuentes de sesgo y tergiversación dentro del sistema”, recoge. Entre los fallos señalados por las denunciantes está la falta de transparencia, puesto que muchas no fueron informadas de la valoración de riesgo que VioGén las asignó.
El contexto que rodea a la realización del cuestionario también se muestra problemático. Una de las participantes lo recuerda como “un momento turbio con preguntas absurdas donde se cometen errores al llenar el cuestionario”, calificando la situación que vivió de “surrealista”. Las encuestadas afirman que les resultaba difícil recordar todo lo sucedido en el momento de la entrevista, organizar sus pensamientos y proporcionar respuestas detalladas a las preguntas de VioGén. Las fundaciones recuerdan que “muchas mujeres que sufren violencia de género llegan a la comisaría y presentan la denuncia justo después de un incidente violento”, por lo que “se encuentran en estado de shock”.
A esto se une que el sistema solo admite respuestas binarias. Si la denunciante no es capaz de ofrecer una, son los agentes quienes deben interpretar qué deben introducir en el sistema. Los abogados especialistas en violencia de género entrevistados coinciden en que las preguntas son “rígidas” y no permiten explicaciones. Uno de ellos señaló que la forma en la que están formuladas hace que el nivel formativo de la denunciante también sea clave: “El nivel de estudios facilita entender lo que se pide y explicar cómo se siente y sufre, siempre que no sea un maltrato grave y esté bloqueada o aterrorizada”.
De las 31 mujeres entrevistadas para la investigación, 15 evaluaron negativamente su experiencia con vioGén; 10 señalaron aspectos tanto negativos como positivos y 6 calificaron positivamente su experiencia general. Otro de los puntos en los que coinciden víctimas y abogados es en que “VioGén subestima la violencia psicológica y las formas más nuevas de violencia no física (como el acoso a través de las redes sociales), poniendo el énfasis en la violencia física”. “No hace falta una paliza, ni una agresión, para que exista el riesgo. Parece que los parámetros olvidaron el maltrato psicológico”, explica otro de los abogados.
Interior niega que el cuestionario presente problemas y recuerda que se mejora de forma permanente. “El sistema de valoración policial del riesgo (VPR) en el ámbito VioGén es un importante instrumento de apoyo en la lucha contra la violencia de género que ha demostrado su utilidad desde su implantación hace 15 años, gracias a la validación científica de cada uno de sus indicadores”, exponen a este medio fuentes del Ministerio. “Es necesario precisar que se trata de un apoyo para el trabajo de evaluación policial que realiza un experto en la materia, basándose también en otro conjunto de factores y criterios”, añaden.
Protección insuficiente en 55 casos
El análisis cuantitativo de los 126 casos de mujeres asesinadas ha detectado que 55 de ellas “recibieron una orden de protección que resultó ser insuficiente” por parte de VioGén. En este punto la investigación detecta un sesgo en sus parámetros, puesto que “a las mujeres asesinadas que no tenían hijos se les había asignado automáticamente un nivel de riesgo menor que a aquellas que sí los tenían”.
La auditoría de la parte automática del sistema ha revelado también que VioGén adapta el riesgo apreciado para cada víctima en función de los recursos policiales disponibles. “Esto significa que el sistema solo da la cantidad de valoraciones de riesgo ”extremo“ que puede permitirse, por lo que los recortes de fondos tienen un impacto directo y cuantificable en las posibilidades de que las mujeres reciban protección efectiva después de buscar protección policial”.
El sistema solo da la cantidad de valoraciones de riesgo “extremo” que puede permitirse, por lo que los recortes de fondos tienen un impacto directo y cuantificable en las posibilidades de que las mujeres reciban protección efectiva
Las fundaciones destacan que a pesar de que los casos activos en VioGén crecen año tras año, en 2021, “solo 1 de cada 7 mujeres que acudieron a la policía en busca de protección la obtuvieron”. Desde 2015, solo el 3% de las víctimas obtuvo una puntuación de riesgo “medio” o mayor y, por tanto, protección policial.
Transparencia algorítmica
VioGén fue desarrollado en 2007 por el Ministerio del Interior y ha ido perfeccionándose desde entonces. Fue un sistema pionero para integrar en una sola plataforma toda la información sobre las víctimas de violencia machista, así como unificar su protección en todo el territorio. Esto lo ha convertido en “el sistema de evaluación de riesgos con más casos registrados del mundo” con más de 3 millones, recoge la auditoría.
Sin embargo, los detalles sobre cómo funciona o por qué asigna un nivel de protección y no otro son opacos. A menudo, esta situación pasa desapercibida por la aparente neutralidad matemática de la Inteligencia Artificial, pese a los avisos de los expertos: “Los algoritmos a veces dan una falsa impresión de objetividad que aplasta los derechos de las personas”, expuso en una entrevista con este medio Carlos Preciado, magistrado del TSJ de Catalunya. “La mayoría de los estudios de VioGén han sido realizados por los mismos investigadores que contribuyeron a su desarrollo y por personas que trabajan y/o tienen intereses creados en el Ministerio y las fuerzas policiales”, destaca en este caso Éticas.
La mayoría de los estudios de VioGén han sido realizados por los mismos investigadores que contribuyeron a su desarrollo y por personas que trabajan y/o tienen intereses creados en el Ministerio
El Gobierno se ha comprometido a promover la transparencia de este tipo de sistemas de Inteligencia Artificial usados en la administración. “Se mejorará la calidad de los datos aportados y su accesibilidad, fomentando la cultura de orientación al dato, utilizando algoritmos transparentes y explicables, estrechando la relación entre la Administración y la ciudadanía”, afirma en la Estrategia Nacional de Inteligencia Artificial aprobada en 2020. Los presupuestos generales de 2022 incluyen una partida de 5 millones de euros para la creación de una agencia especializada en supervisar los algoritmos y sus posibles sesgos.
Sin embargo, el funcionamiento de la mayoría de los algoritmos que utiliza sigue siendo secreto. Además de VioGén, otro de los ejemplos es BOSCO, que regula el acceso a ayudas sociales para el pago de la luz a usuarios en situación de vulnerabilidad. En este caso, el Gobierno está pleiteando con la fundación protransparencia Civio tras negarse a dar acceso a su código fuente tras una resolución del Consejo de Transparencia que le instaba a revelar sus detalles.