Uno de los datos más sorprendentes de la encuesta recién publicada del Instituto Reuters para el estudio del periodismo sobre la percepción de la inteligencia artificial en las noticias es que el 30% de los encuestados cree que los medios crean “siempre o a menudo” una imagen con IA para ilustrar una información. Otro 40% contesta que esto sucede “algunas veces”. Un porcentaje parecido de personas cree que los medios generan textos de manera automática siempre o a veces. Y no anda muy lejos el de quienes aseguran que hologramas generados por IA presentan noticias siempre o de vez en cuando.
Antes de seguir, esto no es verdad. La gran mayoría de los medios no utilizamos la inteligencia artificial para generar imágenes (los ejemplos más habituales son artículos que hablan de la IA, casi siempre para alertar sobre los riesgos de manipulación) ni textos de información ni presentadores de noticias. Esto no sucede ni en elDiario.es ni en la mayoría de los principales medios en España, Europa o Estados Unidos. Quienes están haciendo experimentos internos para escribir titulares o hacer resúmenes, como The Guardian, son incluso reticentes a utilizarlos.
El estudio del Instituto Reuters se basa en las respuestas de usuarios de Internet en seis países muy diferentes en cuanto a tamaño y desarrollo: Estados Unidos, Reino Unido, Argentina, Francia, Dinamarca y Japón. La familiaridad con la idea y el uso de la IA son bastante grandes considerando lo reciente de esta tecnología y sus límites. Cerca de la mitad de las personas ha oído hablar de ChatGPT, la herramienta más popular de inteligencia artificial generativa, y cerca del 30% la ha usado alguna vez.
El optimismo sobre su uso varía según los países, pero en general hay una visión positiva en cuanto a su aplicación en la ciencia y los entrevistados se fían si la herramienta está en manos de personas de la ciencia y la salud. La mayoría, en cambio, considera que tendrá un impacto negativo en la información y ya cree que su uso está generalizado de formas que le gustan poco.
Para muchas redacciones hoy, en realidad, la IA es como mucho una herramienta de traducción y un apoyo para el equipo de tecnología que hace el código para las tripas de nuestras webs. Algunos medios también están utilizando estas herramientas para analizar más rápido bases de datos gigantes y extraer información. Por ejemplo, el New York Times la usó para analizar la trayectoria del globo espía chino con las imágenes de su reflejo en el Pacífico, según contaba en esta entrevista el editor A.G. Sulzberger. Obviamente, como decía, luego estaba el trabajo “humano” de entender esos datos, revisarlos, explicarlos y contar por qué eran noticia.
Como muestra el informe del Instituto Reuters sobre el uso de la IA, la percepción de qué hay detrás de la información profesional está una vez más distorsionada por la falta de datos, la atención a los extremos o el escepticismo general hacia las noticias. Los medios claramente seguimos teniendo una cuenta pendiente para explicar mejor lo que hacemos para combatir prejuicios.
La desconfianza no es sólo un problema para los medios. La desconexión de la información genera más desigualdad y una población más vulnerable a mensajes simplistas o falsos de políticos y otros poderosos. Esto se puede acrecentar con la intervención de la inteligencia artificial: la percepción de que hay más información generada por una máquina anula la ya frágil conexión humana y aumenta la sensación de distancia y alienación en un mundo solitario. Los robots de la información ya existen -sobre todo en manos de regímenes autoritarios- y trazar una línea clara frente a ellos es ahora más esencial.
El mundo de 2024, fragmentado y marcado por redes sociales que funcionan como herramienta perfecta de odio y división, requiere más esfuerzos y más explicaciones de lo básico sobre la información. Y eso pasa también por la transparencia ahora y en el futuro sobre el uso de la tecnología. Explicarse, contar y hacerse entender es, después de todo, parte de lo que nos hace humanos.