Desdeelsur es un espacio de expresión de opinión sobre y desde Andalucía. Un depósito de ideas para compartir y de reflexiones en las que participar
Trabajo social e IA, ¿asistencia artificial?
Decía Rouhiainen, experto en IA y Chat GPT, que la Inteligencia Artificial es “la habilidad de los ordenadores para hacer actividades que normalmente requieren inteligencia humana”. ¿Pero qué actividades requieren inteligencia humana? ¿Es acaso el trabajo social una de ellas?
En ocasiones, la idea del Trabajo Social se entiende como innatamente humana, que requiere de empatía y sensibilidad ante las personas y la relación con su entorno; por lo que se podría decir que la función de esta disciplina es la del análisis, intervención y transformación social. Es decir, la defensa de los derechos humanos y la justicia social. Esta es la idea que, como trabajadora social, tengo en mente.
Sin embargo, la realidad trata de empujar y encajar el trabajo social en un marco asistencialista y de beneficencia, en un despacho en el que se decide si la persona puede solicitar o no una ayuda determinada. En el que se realizan tareas que ayudan a paliar con parches las situaciones más problemáticas en las que se puede encontrar una persona, pero que no aborda las causas que generan una situación así.
En este marco de trabajo, con enfoque asistencial, hay que tener en cuenta el volumen de datos generados por distintas administraciones y servicios públicos y la capacidad para gestionarlos, que ha marcado el giro electrónico del trabajo social y el uso en este ámbito del Big Data, como apuntaría el profesor de sociología de la Universidad de Málaga, Castillo de Mesa. Con lo que la IA aparentemente puede llegar para mejorar la gestión de todo ese material.
Además, las condiciones laborales a las que muchas personas nos vemos abocadas en nombre de la vocación, con jornadas interminables en contratos precarios por la falta de financiación, nos pueden llevar a pensar que esta nueva herramienta podría agilizar nuestra labor.
Sin embargo, desde mi punto de vista, la inclusión de la IA en la vida del trabajador social no es tan sencilla ni beneficiosa como parece.
Por eso, ante la llegada de la tecnología, desde el Trabajo Social me planteo dos preguntas:
¿Es la función supuestamente única del asistencialismo en el trabajo social motivo suficiente para usar la IA? La IA nos puede ayudar a acelerar labores asistenciales, pero si desde el Trabajo Social queremos desprendernos del pesado manto del asistencialismo y que se nos vea como la herramienta útil y transformadora que queremos ser, la IA nos supondrá un gran obstáculo, aunque nos seduzca con un halo de potencial utilidad.
Y otra cuestión más general: ¿Es imprescindible la IA para una trabajadora social?
Ante esta última pregunta, algunos colegas lo ven como un campo con posibilidades. Plantean que el uso de sistemas de IA nos permitiría la automatización y personalización en la asistencia, así como la predicción y prevención, desafíos éticos y de privacidad, capacitación y cambio de roles, y tendría un impacto positivo en los colectivos vulnerables.
Pero esto parte de un error de base, y es el de pensar que tanto la inteligencia artificial como las disciplinas tecnológicas son neutrales, sin ningún tipo de sesgo. Desde mi punto de vista, este es un pensamiento tan infantil como peligroso. Es más, concretamente en este ámbito de lo social, el profesor de la Universidad de Huelva, Aleix Morilla-Luchena, expone cómo la propia IA reproduce una imagen no positiva del trabajo social. No le gustamos mucho.
Obviando el sesgo, la IA podría ayudarnos a hacer predicción y prevención en casos de vulnerabilidad, nos explican. Pero hay ejemplos que ponen en cuestión esta utilidad. Es el caso de un ejemplo que proponían las compañeras de AlgoRace (entidad que se dedica investigar sobre el algoritmo, la IA y su impacto social). En su informe de 2022, si tomamos el camino de una IA predictiva (la que a partir de una información determinada predice comportamientos concretos), tenemos el caso del colegio público Blas de Infante de Málaga, donde a través de unas cámaras instaladas en clase de niños y niñas de 5 años, se captaron los niveles de atención y distracción, así como la dirección de la mirada de los niños y niñas de clase, o el bostezo. La idea era analizar qué les interesa y qué materiales pedagógicos se deberían cambiar. Pero resulta difícil saber si la causa, por ejemplo, de un bostezo en un niño es el aburrimiento o simplemente el sueño.
Otro ejemplo es el sistema de VeriPol, diseñado por el Ministerio de Interior y académicos, teniendo como fin la detección de denuncias falsas. Para ello, un solo policía etiquetó las denuncias como verdaderas o falsas que se utilizaron para entrenar el algoritmo, analizando qué palabras eran más comunes en esas denuncias en concreto. Por ejemplo, palabras como “negro”, “mochila”, “bolso” el VeriPol las considera más falsas; mientras que palabras como “barba”, “policía” o “chino” son consideradas más veraces, pero solo a juicio de un policía.
Todos estos casos nos demuestran lo problemáticos que, tanto en concepto como en desarrollo, pueden llegar a ser estos sistemas. Los sesgos de clase, género, origen, (dis)capacidad, orientación, edad o raza, entre otros, no son solo sociales sino también tecnológicos y discriminatorios en este ámbito en particular.
Así pues, si profundizamos y nos pensamos más allá de todo ello, la IA poco o nada nos aportará sin una profunda revisión tanto de la profesión de trabajadores sociales como de la sociedad.
0