El psicólogo Joy Paul Guilford propuso en los años 50 distinguir el pensamiento creativo en dos categorías: el pensamiento convergente y el divergente. El pensamiento convergente, que Guilford definió como la capacidad de responder preguntas correctamente, se basa en la memoria y la lógica. El pensamiento divergente sería la capacidad de generar muchas respuestas potenciales a partir de un solo problema o pregunta. Se asocia con la curiosidad y con la capacidad para pensar más allá de los límites de lo establecido en un marco lógico. Más tarde surgiría el pensamiento lateral, acuñado por Edward de Bono en el año 1967, que de forma general y muy resumida, es una combinación de los pensamientos convergente y divergente. ¿Cómo funcionan los algoritmos y la inteligencia artificial en relación a estos tipos de pensamiento?
David J. Malan (profesor de ciencia computacional en la Universidad de Harvard) explica en este vídeo cómo funcionan los algoritmos (y otro tipo de sistemas basados en la inteligencia artificial): “En informática, un algoritmo es una serie de instrucciones para solucionar algún problema, paso a paso. Típicamente, los algoritmos son ejecutados exclusivamente por computadoras”. Sin embargo, los algoritmos son muy humanos: “Por ejemplo, ¿Cómo harías para contar el número de personas en una habitación? Bueno, si tú eres como yo, probablemente señales a cada persona, de una por una, y cuentas desde 0: 1, 2, 3, 4 y así sucesivamente. Bueno, eso es un algoritmo”. Suena obvio, pero no debemos olvidar que aunque un sistema funcione de forma automatizada, ha sido diseñado por una mente humana. Y, en general, los algoritmos se basan en el pensamiento convergente. Especialmente a la hora de sugerir contenidos en redes sociales.
En este vídeo del canal The Science Behind (La ciencia detrás) se analiza el funcionamiento del algoritmo de Spotify para crear listados personalizados de descubrimientos musicales. “¿Cómo es un algoritmo es capaz de predecir qué canciones nos van a gustar? Existen dos factores: el mapa de gustos y las listas de reproducción”. Existen 2.000 millones de listas de reproducciones creadas por usuarios en Spotify y cada una de ellas representa un mapa de gustos diferente.
Tomando como ejemplo Spotify (pero podríamos importarlo a otras redes sociales que alojan contenidos, como Youtube por ejemplo) lo que hace el algoritmo es rastrear qué canciones son coincidentes en las listas de reproducciones de millones de usuarios para buscar canciones incluidas en dichas listas que UN usuario en concreto no haya oído. La lógica es: Si a N personas les gustan las canciones A, B y C, al usuario que le gusten y haya oído las canciones A y B pero no la C, debemos sugerirle esta última.
“Youtube ha sido transparente con respecto al funcionamiento de su algoritmo (...) Youtube presta atención a los vídeos que los usuarios ven, a los que no ven, cuánto tiempo pasan viendo cada vídeo, sus me gusta o 'no me gusta' y en el comando No me interesa”, comentan en este vídeo de la revista de marketing Hubspot titulado “How to Understand the Youtube Algorithm” (Cómo entender el algoritmo de Youtube“). Además de esto, Youtube mezcla para una búsqueda las palabras clave con las que ha sido etiquetada un contenido y la relevancia de los mismos. ”Ningún usuario vive la misma experiencia en su página de inicio. Youtube muestra las más relevantes y personalizadas para cada usuario“. Y aquí de nuevo, nos topamos con lo mismo que en Spotify: si veo vídeos de gatitos te mostraré los vídeos de gatitos que no has visto. Pero, ¿qué ocurre si tenemos una experiencia traumática con un gatito y no queremos ver vídeos de este tipo nunca más?
“La inteligencia no piensa, evoluciona”, escribe el periodista especializado en tecnología Derek Thompson en “The Spooky Genius of Artificial Intelligence” (La Inquietante Genialidad de la Inteligencia Artificial). Y añade: “Cuando la mayoría de la gente piensa en las virtudes relativas a la Inteligencia Artificial con respecto a los humanos, se suele hablar de su inteligencia convergente. Con una capacidad de memoria y potencia de procesamiento superiores, los ordenadores superan a las personas en los juegos basados en reglas, cálculos complejos y almacenamiento de datos: ajedrez, matemáticas avanzadas e identificación de peligro. Lo que les falta a las computadoras, algunos podrían decir, es cualquier forma de imaginación o curiosidad que rompa las reglas, es decir, divergencia.”
El creador de Facebook, Mark Zuckerberg, dijo en una ocasión “Saber que una ardilla muere en tu jardín puede ser más relevante para tus intereses que saber que en África muere gente”. Esta provocadora frase describe lo que se conoce como Filtro Burbuja: el resultado de una búsqueda personalizada en la que el algoritmo de una página web selecciona, a través de predicciones, la información que al usuario le gustaría ver, basándose en información sobre él mismo (según elementos como su localización, su historial de búsquedas o interacciones que haya hecho en el pasado). El resultado es peligroso: aparta a los usuarios de la información no alineada con sus puntos de vista y los aísla en burbujas ideológicas y culturales.
La investigadora y periodista Gema Valencia realizó una investigación sobre los efectos de los filtros que realizan los algoritmos. “Solo se nos muestra lo que queremos ver o, más bien, lo que un algoritmo piensa que nos interesa. Se trata de un proceso pasivo en el que se desconoce cómo se realiza ese filtrado o edición de contenido, por lo que no sabemos qué parte de la realidad nos estamos perdiendo”, matiza el estudio. Es más, los algoritmos pueden tener un diseño machista: “Si personas con perspectivas contrarias a la igualdad tienen menor acceso a contenidos feministas y están expuestas a informaciones que refuerzan sus visiones, pueden quedar atrapadas en un bucle que las lleve a una polarización machista”, tal y como señalaba en una entrevista en El País el pasado mes de marzo.
Esto puede no suceder solamente con objetos o contenidos digitales. Puede afectar también a los algoritmos de las app que median en las relaciones entre personas. La periodista Judith Duportail aborda en “El algoritmo del amor” lo que ya adelantaba superficialmente en un artículo publicado en The Guardian: que el algoritmo tiene una lógica poco azarosa y con algunos componentes claramente machistas. La aplicación utiliza un sistema que prioriza las elecciones de las personas que son consideradas populares: “Si eres una mujer hetero y soltera de más de veintiún años, ocupas la posición más precaria del mercado”. O lo que es lo mismo: los algoritmos proyectan objetividad pero en ocasiones son bastante subjetivos.
HBO y Netflix parecen dar pasos en la línea de cuestionar lo fiable de las recomendaciones basadas en el pensamiento convergente y en el big data Netflix está probando las “Colecciones”, una nueva función consistente en listas temáticas creadas por humanos. De momento solo está disponible en iOS y no en todos los países. HBO por su lado lanzó a principios de agosto una campaña titulada “Recommended by humans” (Recomendado por humanos). En su web (no disponible en España) pueden verse 36 vídeos en los que aparecen personas recomendando películas, series o documentales. Curiosamente, esto es algo que lleva años haciendo la plataforma española Filmin.es. Actualmente en su portada puede acceder a diferentes colecciones llevadas a cabo por personas y con títulos como “Los ricos también lloran”, “Boris, el del Brexit” o “Las 50 mejores películas del siglo XXI”.
Existe cada vez un conocimiento y una preocupación crecientes sobre la importancia de acceder al funcionamiento de los algoritmos. De hecho, hay activistas por los derechos digitales que llevan tiempo reclamando más transparencia y un debate público sobre estas cuestiones. Joy Buolamwini, informática y activista digital que trabaja para el MIT Media Lab y también conocida como poetisa del código, explora en una charla la misión de un colectivo que ella misma fundó: La Liga por la Justicia Algorítmica (Algorithmic Justice League): frenar una fuerza invisible que crece, lo que denominan la mirada codificada: “El sesgo algorítmico se traduce en injusticia (...) Los algoritmos, como los virus, pueden propagar sesgos a gran escala”.
Mientras esta lucha continúa y se generan elementos más humanos (entre el Me gusta y el No me gusta quizás vendría bien un No sé si me gusta) hay algo que podemos hacer además de exigir transparencia y desconfiar de la objetividad algoritmo o de la inteligencia artificial: no dejarnos llevar por la inercia y tratar de ir a buscar contenidos no afines. El pensamiento divergente nos lo agradecerá. O como dijo el ex-entrenador de fútbol Serra Ferrer en su rueda de prensa de despedida como director deportivo del Betis el pasado mes de Junio: “El Big Data es una herramienta útil pero el ojo clínico es mucho más certero”.