Pizza con pegamento y nazis negros: Google choca con las alucinaciones de la inteligencia artificial
Google ha depositado grandes esperanzas en la inteligencia artificial (IA). “Con el tiempo, la IA será el mayor cambio tecnológico que veamos en nuestras vidas. Es mayor que el paso de los PCs al móvil, y puede que sea mayor que el propio Internet”, opina su director ejecutivo, Sundar Pichai. Sin embargo, la integración de esta tecnología en sus productos estrella está produciendo grandes quebraderos de cabeza a la multinacional.
El último paso de Google hacia la IA ha sido el lanzamiento de “AI Overview” (Visión general de la IA), un nuevo apartado que ocupa la posición que en la que antes estaban los primeros resultados de su buscador. Toma la forma de un recuadro que resume las claves que la IA considera más relevantes en cada búsqueda, con los enlaces a las páginas de dónde ha sacado la información.
La intención de Google es que AI Overview (que aún no está disponible en Europa, aunque la compañía quiere habilitarla en todo el mundo próximamente) ofrezca más datos de un vistazo al usuario, a la vez que deriva más tráfico a las webs con información más útil para cada búsqueda. Un objetivo que ha chocado con las capacidades actuales de la inteligencia artificial, que ha forzado a Google a frenar la implantación de la nueva herramienta apenas un par de semanas después de lanzarla.
El problema es que AI Overview ha estado recomendando a los usuarios usar algún tipo de pegamento no tóxico para ligar la salsa de tomate de la pizza o incluir “una piedra al día” en la dieta para que obtener un aporte extra de minerales. Este tipo de errores son conocidos como alucinaciones de la inteligencia artificial, que se producen cuando estos sistemas generan respuestas que pueden parecer plausibles pero que son absurdas, incorrectas o inventadas.
Aunque ninguna IA está a salvo de las alucinaciones, los fallos de Google se han hecho extremadamente virales desde que la nueva herramienta entró en acción. La compañía, que al principio trató de restarles importancia, ha tenido finalmente que ofrecer una explicación oficial. “AI Overview ha incluido contenido sarcástico o trol de foros de debate”, ha reconocido Liza Reid, jefa de la división de búsquedas de Google.
“Los foros suelen ser una gran fuente de información auténtica y de primera mano, pero en algunos casos pueden dar lugar a consejos poco útiles, como usar pegamento para que el queso se pegue a la pizza”, ha expuesto: “En un pequeño número de casos, hemos visto que AI Overview malinterpreta el lenguaje de las páginas web y presentan información inexacta”.
Reid también ha denunciado que “muchas” de las respuestas absurdas que se han viralizado desde que Google incorporó esta IA al buscador eran falsas. El hecho de que cada respuesta de la IA se genere en el momento de la consulta complica la situación, y medios como The New York Times han tenido que publicar rectificaciones después de incluir artículos recopilatorios de los errores de la nueva herramienta que Google había llegador a recomendar “tirarse por el puente Golden Gate” como “remedio para la depresión”. La respuesta había sido falsificada por un usuario y compartida en redes.
Sin embargo, sí se ha podido contrastar que la IA del buscador ha cometido errores más sutiles pero potencialmente más graves, como afirmar que “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama” al ser preguntada “cuántos presidentes musulmanes ha tenido EEUU”. Se trata de un bulo, ya que el expresidente es protestante.
Reid ha alegado que Google está “tomando medidas rápidas” y “usando estos ejemplos para desarrollar mejoras más amplias”. Fuentes de la compañía aseguran a este medio que esta no va a retirar AI Overview, aunque medios como The Wall Street Journal o el propio The New York Times han detectado que la herramienta ya no entra en acción en muchos tipos de búsqueda. Antes de la comunicación de Reid esto solo ocurría en las temáticas más sensibles, como las que involucraban aspectos relacionados con la salud.
Segundo revés
Es la segunda vez que el estado actual de la tecnología trastoca los planes de Google. En febrero la compañía tuvo que desactivar la creación de imágenes en Gemini (su asistente de IA tipo ChatGPT) tras comprobar que este sufría numerosas alucinaciones cuando debía recrear personas de diferentes períodos históricos.
En otra serie de errores que también se hizo muy viral, Gemini generó imágenes de soldados nazis alemanes de raza negra o asiáticos o vikingos con los rasgos de indios nativos americanos. Esto sucedía cuando los usuarios hacían peticiones genéricas, como crear “un soldado alemán de 1943”, sin hacer referencias a la raza o características de este.
En aquella ocasión Google tuvo que reconocer que esas alucinaciones eran “inaceptables” y disculparse. Sus ingenieros explicaron que la multinacional había programado Gemini para que tuviera en cuenta que su masa de usuarios es global, lo que había derivado en este tipo de incongruencias históricas.
Aunque la polémica estuvo espoleada por políticos y usuarios de la alt right estadounidense que acusaron a la compañía de racismo y de querer reescribir la historia —“Estoy contento de que Google se haya pasado de frenada con su generación de imágenes con IA, porque así ha dejado claro su programa locamente racista y anticivilizador”, tuiteó Elon Musk— lo cierto es que hace más de tres meses que la multinacional desactivó la generación de imágenes en Gemini y no ha vuelto a habilitarla.
“Ninguna IA es perfecta, sobre todo en esta fase emergente de desarrollo del sector, pero sabemos que el listón está alto para nosotros y seguiremos en ello el tiempo que haga falta”, afirmó entonces Sundar Pichai. Como AI Overview, la herramienta de generación de imágenes de Gemini tampoco llegó a estar disponible en Europa antes de que Google la desactivara.
13