Las multinacionales digitales se escudaron en que transcribir audios privados de sus usuarios para mejorar la capacidad de comprensión de sus asistentes virtuales ha sido una práctica habitual en el sector, pero su salida a la luz sigue provocando repercusiones. Apple ha despedido al menos a 300 trabajadores de su campus de Cork (Irlanda), cuya misión era escuchar audios de sus usuarios grabados a través de Siri, la asistente virtual de la compañía. A estos hay que sumarles una cifra indeterminada de empleados despedidos de otras sedes europeas de Apple, según ha informado este miércoles The Guardian.
Apple anunció el 2 de agosto su decisión de congelar voluntariamente el programa de escuchas al que pertenecían estos trabajadores. Un día antes, el comisario de protección de datos de Hamburgo (Alemania) ordenó a Google detener inmediatamente el suyo tras tener constancia de su existencia, como medida preventiva. Facebook y Amazon emularon a Apple y detuvieron las transcripciones antes de la intervención de alguna autoridad estatal, mientras que Microsoft optó por modificar sus políticas de privacidad e incluir un aviso más claro de que las grabaciones obtenidas a través de Cortana, su asistente virtual, o de otros servicios como Skype, podrían ser analizados por su personal.
Desde entonces, estos cientos de trabajadores han estado de vacaciones pagadas mientras Apple llevaba a cabo una “revisión exhaustiva” del programa de escuchas, al que denominaba “grading”, que ha derivado en su cierre definitivo y en el despido de estos empleados subcontratados.
La multinacional se ha disculpado este miércoles por la falla de privacidad que ha generado el programa “grading” mediante un comunicado oficial, aunque adelanta que lo retomará tras implementar mejoras de software. Seguirá usando “transcripciones generadas por ordenador para ayudar a Siri a mejorar”, pero pedirá permiso a los usuarios antes de escuchar los audios de sus peticiones a Siri, algo que a solo harán “empleados directos de Apple”.
Cuando “entrenar a Siri” lleva a escuchar a sus usuarios teniendo sexo
“Esperamos que muchas personas opten por ayudar a Siri a mejorar, sabiendo que Apple respeta su privacidad y ha instaurado fuertes controles de privacidad”, continúa la compañía, que, como ya hicieran Google, Amazon y Facebook, ha aprovechado la oportunidad para explicar por qué es necesario transcribir los audios privados de los usuarios para mejorar a su asistente virtual.
“Apple a veces usa la grabación de audio de una solicitud, así como la transcripción, en un proceso de aprendizaje automático que entrena a Siri para mejorar”, expone, asegurando que escucha “menos del 0,2%” de ellos, un porcentaje considerable teniendo en cuenta que Siri está presente en sus móviles iPhone, en sus tabletas iPad y en los ordenadores portátiles Mac.
La multinacional ha revelado que los trabajadores despedidos escuchaban los audios con las peticiones de los usuarios “para medir cómo de bien estaba respondiendo Siri y para mejorar su fiabilidad. Por ejemplo, ¿trataba el usuario de hablar con Siri? ¿Escuchó Siri la petición adecuadamente? Y, ¿respondió Siri adecuadamente a esa petición?”.
Pero los trabajadores subcontratados para tal fin escuchaban habitualmente grabaciones que afectaban a la privacidad de sus usuarios, especialmente los que provenían de las ocasiones en las que Siri se conecta sin ser requerida. Un whistleblower detalló a The Guardian a finales de julio que estos trabajadores escuchan habitualmente a parejas teniendo sexo, información médica confidencial o conversaciones referentes al tráfico de drogas.
El trabajo de Amazon no es intervenir
La cadena de revelaciones sobre la invasión de la privacidad de los asistentes virtuales comenzó en abril con Alexa, de Amazon. Entonces Bloomberg reveló que varios equipos de trabajadores subcontratados y de empleados de Amazon escuchaban miles de grabaciones de los usuarios de Alexa para ayudarla a mejorar su capacidad de comprensión de las expresiones humanas. Varias fuentes informaron al medio estadounidense de que, ocasionalmente, escuchaban audios que parecían haberse grabado durante agresiones sexuales y, tras el aviso a sus superiores, se les dijo que el trabajo de Amazon no era intervenir en esas situaciones.
Hasta entonces, Amazon no informaba en sus políticas de privacidad que las grabaciones obtenidas a través de sus altavoces inteligentes, los más vendidos del mercado, podían ser escuchados por personas. Desde entonces, la suma de publicaciones periodísticas y las peticiones de información por parte de las autoridades de protección de datos han derivado en la interrupción de este tipo de programas de escuchas, excepto por parte de Microsoft.
Los asistentes virtuales han provocado las dudas de un buen número de expertos desde que desembarcaron en Europa en 2018. “El problema es que son cerrados, son cajas negras en las que no podemos entrar. No sabemos qué está recogiendo, no sabemos cómo lo recoge, no sabemos en qué se traduce esa información en sus bases de datos”, avisaba Liliana Arroyo, investigadora del Instituto de Innovación Social de Esade en temas de vigilancia, privacidad e impacto social de la tecnología, en una información sobre los riesgos asociados a los altavoces inteligentes y los asistentes virtuales en publicada en este medio.