Renfe ha anulado este miércoles una licitación pública mediante la que pretendía desarrollar un software capaz de detectar la edad, el género, el “origen étnico”, el “tipo de ropa” o el “estado de ánimo” de los viajeros. El sistema de vigilancia iba a usar las cámaras de vigilancia ya existentes en 25 estaciones de Madrid, Catalunya, Valencia, País Vasco y Málaga. De haber continuado adelante, la misión de la empresa ganadora iba a ser diseñar “el software personalizado” necesario para identificar los parámetros solicitados por el operador ferroviario, entre los que también estaban cuestiones relativas a los bultos (mochilas, bolsos, maletas) que porta cada viajero.
El anuncio de licitación se ha eliminado apenas unas horas después de que El Confidencial revelara las intenciones de Renfe. Fuentes del operador ferroviario han explicado a elDiario.es que el texto que resumía las condiciones que debía reunir el software de vigilancia “se ha retirado para revisarlo”, aunque la intención de contratar un sistema informático de este estilo “sigue adelante”. El documento oficial que acredita la anulación de la licitación original puede consultarse en la Plataforma de Contratación del Estado.
Este nuevo sistema de vigilancia será una ampliación del que el operador ferroviario tiene en pruebas desde verano de 2020 y su objetivo, asegura la compañía, es calcular el aforo en tornos y andenes para evitar aglomeraciones. El pliego original de condiciones para la extensión de capacidades de vigilancia estaba firmado por la Gerencia de Tecnología y Sistemas Lógicos de la Dirección de Seguridad, Autoprotección y Prevención de Riesgos de Renfe.
La salida a la luz de la licitación del software capaz de detectar la etnia o calificar la vestimenta de los viajeros ha provocado la alarma de juristas y expertos en privacidad y protección de datos, que han recalcado en redes sociales que las condiciones que pedía Renfe chocan frontalmente con la regulación europea en esta materia. Además, el factor “estado de ánimo” del viajero es igualmente polémico, dado que no está demostrado científicamente que los algoritmos de Inteligencia Artificial sean capaces de identificar con precisión las emociones humanas.
La efectividad de esta tecnología se reduce aún más en entornos abiertos, como una estación de tren. “Las expresiones faciales no siempre reflejan nuestras emociones internas. Mantener la cara seria o sonreír cuando se está triste son prácticas comunes. En otras palabras, las personas a menudo enmascaran o reprimen sus emociones, por lo que las expresiones faciales pueden decirnos muy poco sobre cuán felices, sorprendidas, disgustadas, tristes, enojadas o asustadas están”, destacaba uno de esos estudios, avisando de que instaurar este tipo de sistemas “daría lugar a perfiles raciales y religiosos, y agravaría el comportamiento discriminatorio contra aquellos que ya están marginados”.