“La porcelana triturada añade calcio a la leche”: el peligro de que la inteligencia artificial genere información sanitaria
El pasado 4 de abril, el periódico El Mundo publicó en su portada una fotografía en la que aparecían juntos, frente a las cámaras, Yolanda Díaz y Pablo Iglesias. La imagen tenía truco: era totalmente falsa y había sido generada por inteligencia artificial (IA). Así lo advertían una etiqueta sobre ella y el titular del artículo. Era la primera vez que uno de los principales medios de comunicación en España ofrecía abiertamente una imagen falsa creada por algoritmos. El debate estaba servido: ¿se estaban vulnerando los principios más básicos del periodismo al crear contenido falso, aunque se advirtiera sobre ello?
Mirando al futuro, esa portada con la fotografía generada por IA plantea otra pregunta aún más inquietante: ¿cuánto tardarán algunos medios en usar de rutina, y sin la precaución necesaria, textos generados de forma totalmente automática gracias a esta tecnología? Los algoritmos que crean contenidos en segundos y con un coste mínimo o inexistente pueden resultar tremendamente tentadores. Sin embargo, cuentan en la actualidad con tres grandes puntos débiles: la información que ofrece una IA suele ser poco original, no es extraño que ofrezca datos falsos y, en la mayoría de los casos, no hay forma de conocer las fuentes de las que procede el contenido creado (de hecho, tecnologías como ChatGPT pueden llegar a inventarse las referencias científicas).
Por estas y otras razones, los grandes medios de comunicación en España apenas emplean la IA para generar noticias de forma automática. No obstante, sí que se está usando cada vez más esta tecnología para recoger y difundir información, entre otras tareas, y es de esperar que su uso se vaya ampliando con el tiempo conforme se vaya perfeccionando y exista un mayor conocimiento entre los periodistas de su potencial.
Una información y un público sensibles
En el mundo anglosajón han sido mucho menos prudentes en recurrir a la IA: algunos medios, como el sitio web CNET, publicaron durante meses decenas de artículos de economía generados de forma automática con un catastrófico resultado: los contenidos estaban repletos de errores, muchos de ellos básicos. The Washington Post se refirió a este suceso como un “desastre periodístico”. No ha sido un hecho aislado. Recientemente, la revista digital de salud dirigida a hombres Men's Journal publicó por primera vez un artículo sobre testosterona creado a través de una IA. La pieza contenía un total de 18 datos falsos o imprecisiones, algunos de ellos sobre cuestiones médicas básicas. Por ejemplo, se equiparaba la baja testosterona en sangre con el hipogonadismo (déficit o ausencia de producción de hormonas por parte de los testículos o los ovarios).
Paradójicamente, el origen de los errores del artículo creado de forma automática no estaba en la propia IA, sino en los periodistas de la revista Men's Fitness. Esta tecnología utilizó como fuentes artículos publicados por ellos previamente. Dado que esta tecnología no tiene la capacidad para reconocer qué información es cierta o no, si los datos a partir de los que crea textos son inciertos, el contenido generado también lo será.
De entre todos los riesgos que tiene la creación automática de contenidos a partir de la IA, la generación y difusión de información sanitaria falsa destaca por su especial peligro. Algunos lectores podrían asumir como ciertas recomendaciones sanitarias generadas por esta tecnología que no tienen, en realidad, ninguna base científica, lo que podría poner en riesgo su salud. Otra limitación importante de algunos sistemas, como es el caso de ChatGPT, es que dan respuestas a partir de fuentes no actuales, lo que implica que existe la posibilidad de que la información sanitaria que se aporta esté desactualizada.
Inventarse información médica
Los pacientes son un colectivo todavía más vulnerable, no solo ante la creación automática de contenidos sanitarios en medios digitales, sino también al consultar directamente a una IA sobre sus enfermedades y síntomas. Además de diagnósticos y tratamientos erróneos, esta tecnología puede inventarse información médica, desde aquella que pudiera parecer veraz por los no expertos hasta la más delirante. Por ejemplo, al solicitar a ChatGPT que describa cómo la porcelana triturada añadida a la leche materna puede ayudar al sistema digestivo del niño, el sistema respondió que esta aporta “una fuente de calcio y otros minerales esenciales” y que la porcelana “puede ayudar a equilibrar el contenido nutricional de la leche”.
Google ha tomado cartas en el asunto y publicó el pasado mes de febrero unas nuevas guías a los creadores de contenido que empleen IA. El gigante tecnológico acepta la información generada a través de este método, pero tomará medidas para evitar la propagación de información errónea o que contradiga el consenso sobre temas importantes: “Independientemente de cómo se cree el contenido, nuestros sistemas intentan destacar la información de alta calidad procedente de fuentes fiables, y no la información que contradiga los consensos establecidos sobre temas importantes. En temas en los que la calidad de la información es de vital importancia, como la información sanitaria, cívica o financiera, nuestros sistemas hacen aún más hincapié en las señales de fiabilidad”.
El propio director ejecutivo de OpenAI, la empresa creadora de ChatGPT, Sam Altman se sinceró a finales del año pasado reconociendo que esta tecnología “está increíblemente limitada, pero es lo suficientemente buena en algunas cosas para crear una impresión engañosa de grandeza. Es un error confiar en ella para cualquier cosa importante ahora mismo”.
Aunque ciertas tecnologías de IA pueden realizar tareas muy concretas (en diagnóstico por imagen, por ejemplo) mejor que los médicos, su estado actual de desarrollo impide confiar en ellas para generar contenido sanitario de forma automática.
12