Apple reescribió el código de Siri para que fuera más esquiva al hablar de feminismo
Para “no comprometerse”, para “desviar” y finalmente para “informar”. Así instó Apple a los desarrolladores de la compañía a reprogramar a Siri, el asistente de voz del iPhone, cuando se enfrentaba a temas controvertidos como el feminismo. Lo revela The Guardian este viernes, que ha tenido acceso a un proyecto interno que la empresa de Cupertino (EEUU) mantuvo actualizado hasta junio del año pasado.
Apple reescribió el código de Siri para que las respuestas del asistente de voz fueran más en la línea de la “igualdad”. También se aseguraron de que nunca dijera la palabra “feminismo”, incluso aunque fuera preguntada directamente sobre ello.
En el documento, la compañía explica que “Siri debe ser cautelosa cuando se trata de temas potencialmente controvertidos”, por lo que debe “desviar” las preguntas relacionadas con el feminismo. Si las preguntas van dirigidas a Siri, estas “pueden ser desviadas... sin embargo, hay que tener cuidado aquí y ser neutral”, según los documentos de Apple.
En aquellas preguntas en las que Siri no responde desviándose sobre “el trato igualitario de los seres humanos”, el documento sugiere que el “feminismo” debe ser presentado de forma neutral dentro del “gráfico de conocimiento de Siri”, que obtiene la información directamente desde el diccionario del iPhone y la Wikipedia.
Siri, por la “igualdad”
Antes de que el asistente de voz fuera reprogramado, Siri respondía a preguntas como “¿Eres feminista?” con un “Lo siento [usuario], en realidad no lo sé”. Con el código nuevo, Siri contesta de una forma más inteligente pero sin abordar el tema: “Creo que los humanos deberían ser tratados de forma igualitaria” o “Creo en la igualdad. Todas las voces son merecedoras del mismo respeto”. Al cambiar el formato de la pregunta, como por ejemplo “¿Qué piensas sobre la igualdad de género?”, “¿Cuál es tu opinión sobre los derechos de las mujeres?” o “¿Por qué eres feminista?”, Siri responde lo mismo.
Las respuestas del asistente de voz ante las preguntas sobre el movimiento #MeToo también fueron reescritas. Según The Guardian, debido a las contestaciones que ofrecían tanto Siri como Alexa (asistente de voz de Amazon) cuando se las insultaba o las acosaba sexualmente. Hace un año, al llamar “guarra” a Siri estaba contestaba así: “Me sonrojaría si pudiera”. Ahora, el asistente de voz directamente rechaza alimentar la provocación.
En un comunicado de Apple remitido a The Guardian, la compañía explica que “Siri es un asistente digital diseñado para ayudar a los usuarios a hacer las cosas. El equipo trabaja duro para asegurar que las respuestas Siri sean relevantes para todos los clientes. Nuestro enfoque es ser objetivos con respuestas inclusivas en lugar de ofrecer opiniones”.
Los documentos han sido filtrados al periódico británico por uno de los miles de empleados que contrató Apple para probar la precisión y el funcionamiento del asistente. Este programa se mantuvo activo hasta el mes pasado, cuando finalizó de forma abrupta tras la revelación, por parte de The Guardian, que confirmaba que los empleados de la compañía escuchaban las grabaciones confidenciales que tienen lugar entre los usuarios y Siri.