La inteligencia artificial también tiene prejuicios y aquí van cinco de ellos

Un humano y una máquina se diferencian en que mientras el primero es consciente de lo que hace y puede razonar, la segunda está programada y/u obedece un algoritmo. Así como confiamos en los coches de conducción automática para no tener que conducir o un empleado de banco confía en su software para calcular hipotecas, al mismo tiempo estamos dando por buena la idea de que las máquinas siempre dirán la verdad ya que sus algoritmos imparciales les empujarán a hacerlo. Y es falso.

¿Qué es mejor, una máquina con prejuicios o sin ellos? En eldiario.es ya comprobamos que muchos proyectos de inteligencia artificial que se autoproclamaban como imparciales resultaron no serlo tanto. Para muchos, las máquinas no deberían ser más empáticas de lo que les permita su rígido punto de vista de las cosas. Sin embargo, una máquina demasiado empática haría o dejaría de hacer cosas en base a determinadas convicciones. Y tanto en el primer caso como en el segundo, lo que al final deseamos es que sean objetivas.

Nada más lejos de la realidad: los sistemas de inteligencia artificial imparciales son extremadamente complejos de construir y son muy pocos. Así que por eso, Kristian Hammond, profesor de Ciencias de la Computación en la Northwestern University de Illinois (EEUU), habla de las cinco fuentes menos comunes que tiene la inteligencia artificial de dotarse, precisamente, de inteligencia.

Basado en los datos

Lo hemos comprobado gracias a la inteligencia artificial de Google que permitía detectar la ceguera en enfermos de diabetes o al software que reconocía caras pixeladas. Los sistemas de machine learning aprenden con los millones de datos con los que son entrenados. La idea principal es que cuantos más datos aprenda la máquina menor serán los prejuicios humanos que esta adquiera.

Unos prejuicios que el algoritmo de las cámaras de fotos Nikon sí adquirió: el autoenfoque no detectaba los ojos de los asiáticos en los modelos S630. Y la marca HP tampoco se salvó: hace siete años varios modelos de ordenador de la compañía tampoco eran capaces de reconocer a las personas negras para seguir los movimientos de su cabeza.

A través de la interacción

Entrenar una máquina interactuando con ella también puede convertirla en racista. Al final, son los propios programadores o desarrolladores con sus propios prejuicios quienes edifican los prejuicios que también tendrá la inteligencia artificial.

Tay fue un chatbot de Microsoft que funcionaba leyendo tuits para contestar después de forma automática, en base a lo aprendido. Como sus “profesores” le enseñaron a ser racista, misógino y sexista, Tay después contestaba así a la gente con la que se relacionaba. La compañía de Bill Gates lo desconectó después de 16 horas y tuvo que pedir perdón por el bochorno.

De manera emergente

Un sistema basado en la personalización también puede crear determinados sesgos alrededor de nosotros. Por ejemplo, compartir un estado o una noticia en Facebook contribuye a alimentar al algoritmo en base a unos determinados prejuicios. A medida que el resto de usuarios comenta o comparte el contenido, el efecto se amplifica.

El sistema selecciona por sí solo los contenidos que deseamos ver o compartir, gracias a la información con la que ya contaba. Y aunque Mark Zuckerberg asegure que su algoritmo es objetivo y que las noticias que muestra son “99% auténticas”, ya hemos comprobado que las noticias falsas han sido una parte importante de las elecciones en EEUU.

... o con el sesgo de la similitud

Al igual que la “burbuja” de información de Zuckerberg, también puede ocurrir que el sistema esté entrenado para hacer precisamente lo que fue entrenado para hacer. Por ejemplo, Google Noticias está programado para mostrar todas las historias que coincidan con los criterios de búsqueda insertados. 

Hammond habla de la “falta de control editorial” para explicar el peligro de las similitudes en la información entre varios medios a priori diferentes. Cuantos más sistemas de información proporcionen “resultados similares” (como hace Google Noticias), más adentro estaremos penetrando en la burbuja.

Las metas conflictivas y el ratio-click

Los sistemas diseñados para fines comerciales terminan teniendo sesgos completamente inesperados. Por ejemplo, un sistema que muestre las descripción de un trabajo en una web de búsqueda de empleos y que, por cada click que alguien haga en el botón “Leer más”, reporte un beneficio económico a la web. El objetivo del sistema será ganar dinero y por ello no le importará mostrar o promocionar los trabajos que obtienen mayor número de clicks, antes que los de otras profesiones.

El profesor de computación explica que la gente pinchará antes en los trabajos que satisfacen la imagen que ellos ven de sí mismos. “Por ejemplo, las mujeres que encuentren ofertas para trabajos etiquetados como 'enfermera' y 'técnico sanitario' pincharán antes en el primero porque les recuerda al estereotipo”.

La amenaza de los estereotipos sobre el comportamiento nos hace preferir los trabajos que se relacionan precisamente con un estereotipo, normalmente de raza, género o etnia. Las webs con sistemas basados en ratio de clicks, según Hammond, estarán dirigidas a presentar las oportunidades como refuerzo de estereotipos.