Un nuevo informe alerta del uso de Inteligencia Artificial para detectar emociones humanas: “Es pseudociencia”
La tecnología de reconocimiento emocional se basa en el uso de Inteligencia Artificial para parametrizar las expresiones y gestos de personas. En base a ellos, sus desarrolladores afirman que pueden detectar qué siente una persona, incluso aquellas emociones subyacentes de las que esta ni siquiera es consciente. Un nuevo estudio publicado por la organización Article19 avisa que en los últimos años la industria de desarrollo y venta de este tipo de servicios a Gobiernos y empresas de todo el mundo está en auge, pese a que no ha demostrado que tenga base científica alguna: “La tecnología de reconocimiento emocional es pseudociencia y tiene un enorme potencial dañino”.
El estudio de Article19 –ONG de ámbito mundial que toma su nombre del artículo 19 de la Declaración de Derechos Humanos, sobre la libertad de expresión y de información– detalla que la industria de la IA de reconocimiento emocional se inspira en investigaciones y herramientas chinas. Su uso más frecuente es en la industria de la vigilancia, como en la protección de fronteras. Pero también se extiende en países occidentales como “detector de mentiras”, en sistemas capaces de “prever” el desempeño futuro de un candidato a un puesto de trabajo o para “medir la frustración” de los clientes de una tienda.
Esta tecnología está íntimamente relacionada con el reconocimiento facial, cuya implantación ha recibido críticas por sus sesgos racistas o machistas. Sin embargo la lleva un paso más allá, defendiendo que no solo puede servir para identificar personas, sino para descifrar lo que sienten. “Las tecnologías de reconocimiento emocional se basan en dos supuestos fundamentales”, resume Article19: “La primera es que es posible medir las emociones internas de una persona a partir de sus expresiones externas. La segunda es que esas emociones internas son discretas y se expresan uniformemente en todo el mundo. En ambos casos, ocurre lo contrario”.
Por un lado, refiere la ONG, la forma en la que se exteriorizan las emociones tiene un fuerte componente cultural y varía de unas sociedades a otras. Por otro, “las expresiones faciales no siempre reflejan nuestras emociones internas. Mantener la cara seria o sonreír cuando se está triste son prácticas comunes. En otras palabras, las personas a menudo enmascaran o reprimen sus emociones, por lo que las expresiones faciales pueden decirnos muy poco sobre cuán felices, sorprendidas, disgustadas, tristes, enojadas o asustadas están”.
La atribución de emociones como la culpa, la ira o la frustración la determina la entidad que implementa esta tecnología, que procesa la información para hacer inferencias que pueden impactar directamente en la libertad de las personas
Esta situación abunda en las potenciales violaciones de derechos humanos que entraña el uso de esta tecnología. Además del impacto en la privacidad, el estudio avisa de que el reconocimiento facial entra en conflicto directo con el derecho a no autoincriminarse y “a permanecer en silencio”: “La atribución de emociones como la culpa, la ira o la frustración la realiza y determina la entidad que implementa esta tecnología, que recopila, procesa y categoriza la información para hacer inferencias que pueden impactar directamente en la libertad de las personas”.
Como ejemplo de estos problemas, la ONG cita la aplicación de esta tecnología en la protección de fronteras y los controles de inmigración. “Al señalar a aquellas personas que consideran que la inmigración y las líneas de seguridad son más 'estresantes' que otras, la tecnología de reconocimiento emocional daría lugar a perfiles raciales y religiosos, y agravaría el comportamiento discriminatorio contra aquellos que ya están marginados”.
Los científicos piden que se prohíba
La peligrosa falta de evidencia en la que se sustenta el reconocimiento emocional ya había sido advertida desde el terreno científico. En su informe-resumen de 2019, el Instituto AI Now de la Universidad de Nueva York, uno de los más prestigiosos del mundo en el estudio de la Inteligencia Artificial, abogó directamente por la prohibición de estos sistemas: “Los reguladores deberían prohibir el uso del reconocimiento emocional en procesos de decisión importantes que impacten en la vida de las personas y el acceso a oportunidades”.
“Hay sistemas que cuentan con un amplio despliegue y que afirman poner en práctica teorías científicas comprobadas, pero que al final son poco más que especulaciones”, denunciaban los 16 investigadores del AI Now, que este año ha decidido no publicar su informe-resumen anual por la pandemia. El estudio de Article19 coincide con esta conclusión y pide a la comunidad internacional “prohibir la concepción, diseño, desarrollo, implementación, venta, importación y exportación de tecnologías de reconocimiento de emociones”. Además, señala que esta decisión debería llegar “antes de que estas tecnologías se generalicen”.
Es necesario prohibir la concepción, diseño, desarrollo, implementación, venta, importación y exportación de tecnologías de reconocimiento emocional antes de que se generalice
No obstante, recalca que la situación no solo no ha cambiado este 2020, sino que además China ha seguido consolidando su posición como punto de origen tanto de la tecnología como de los experimentos en los que se está basando la industria del reconocimiento emocional para implantarse en otros lugares del mundo. Varias agencias de seguridad oficiales del gigante asiático aplican sistemas de reconocimiento emocional y su uso se ve “legitimado” por “las afirmaciones sobre su efectividad que viajan desde trabajos de investigación académica hasta materiales de marketing de las empresas”, detalla la ONG.
Dado que “en los últimos años, las empresas tecnológicas chinas han impulsado un auge internacional en la adquisición de tecnología de vigilancia por parte de gobiernos extranjeros”, Article19 advierte de que existe un riesgo real que suceda lo mismo con el reconocimiento emocional.
1