Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

La inteligencia artificial no es como la bomba atómica

Foto archivo. Fotografía facilitada de la explosión de la bomba atómica tras caer sobre la ciudad japonesa de Hiroshima (Japón) el 6 de agosto de 1945. EFE/Peace Memorial Museum
19 de noviembre de 2024 06:01 h

0

A principios de 2023 el Future of Life Institute publicó una carta en la que se pedía a los laboratorios de inteligencia artificial del mundo que suspendiesen inmediatamente y durante al menos 6 meses el entrenamiento de nuevos y más grandes modelos de IA que los ya existentes entonces, con GPT-4 de OpenAI como referente. La carta instaba a los gobiernos a intervenir e instituir una moratoria. Fue firmada por miles de personas, con nombres tan relevantes como Yoshua Bengio, Premio Turing en 2018, Steve Wozniak, uno de los fundadores de Microsoft, o el famoso historiador, pensador y escritor Yuval Noah Harari. Mi opinión al respecto la publiqué poco después en este mismo medio, así que no voy a comentarla aquí.

La carta no alertaba de un peligro existencial inminente para la especie humana, pero hay mucha gente que piensa que esto puede ocurrir y que la IA podría quedar fuera de nuestro control, con graves consecuencias para la humanidad. En el verano de 2022 fueron muy comentadas las declaraciones de un ingeniero de Google, Blake Lemoine, quien afirmó que el modelo LaMDA (Language Model for Dialogue Applications) desarrollado por su compañía, era “sintiente” y que, por tanto, se le debían respetar sus “deseos”. Google negó tales afirmaciones y lo despidió -a Lemoine, no a LaMDA, que ni era en absoluto sintiente ni tenía contrato con la compañía. 

Podríamos pensar que Lemoine no estaba quizás en sus cabales si realmente creía lo que dijo, pero personas aparentemente informadas y clarividentes, como Sam Altman, CEO de OpenAI, creadora y comercializadora de ChatGPT, afirmó en mayo de 2023 que su peor miedo era que la IA salga mal, ya que “si sale mal, puede salir muy mal”. Más allá de que parece una frase de Rajoy en sus momentos de mayor creatividad lingüística, no sé si Altman se refería a salir mal para todos o para OpenAI, que este año cerrará el ejercicio con unos 5000 millones de dólares de pérdidas. En todo caso, parecía realmente preocupado cuando lo dijo. 

A pesar de que estas y otras voces nos alertan de vez en cuando sobre la IA y apuntan a posibles riesgos existenciales para la humanidad si continuamos desarrollándola, no hay nada en el horizonte previsible, desde luego no a corto o medio plazo, que nos haga pensar que esto puede ser así. La IA no tiene los riesgos de la energía nuclear, en particular cuando se ignoraba casi todo de ella. Remontémonos al Proyecto Manhattan, creado para desarrollar la bomba atómica. Antes de realizar la primera prueba, conocida con el nombre de “Trinity,” existía el temor entre algunos de los científicos implicados en el proyecto de que la explosión de la bomba pudiera provocar la fusión de los núcleos de nitrógeno de la atmósfera, provocando una reacción en cadena que arrasaría la vida en nuestro planeta. Aun así, la prueba se realizó el 16 de julio de 1945. Los cálculos teóricos indicaban que este “incendio atmosférico” era altamente improbable, pero hasta realizar la prueba real no se despejó por completo la duda ni el miedo. 

No quiero minusvalorar las consecuencias de una IA que se nos vaya de las manos, por utilizar una expresión coloquial, pero no será porque la IA cobre consciencia. Tampoco porque vaya a subyugarnos, como nosotros sí hemos hecho con el resto de los seres vivos. Desde luego, no todavía. Los problemas a los que nos enfrentamos con el desarrollo y uso de la IA son otros bien distintos, aparentemente menos trascendentes, pero estos sí preocupantes por reales y actuales. Problemas que tienen al menos un par de cosas en común: está en nuestras manos minimizarlos, sino eliminarlos; y en general no son exclusivos de la IA ni esta los ha creado, aunque sí puede amplificar y acelerar su impacto. Un ejemplo del que se habla con frecuencia es el de los sesgos de la IA. No es un problema nuevo, aunque ahora pueda evidenciarse y preocuparnos más. De hecho, hace muchos años que se habla de los sesgos de los contenidos de internet. Internet refleja una realidad parcial, muy identificada con el perfil de las empresas que controlan la IA y de los países ricos, en particular aquellos en los que se habla inglés. La polución y hasta la toxicidad de los contenidos de internet no es nueva, como tampoco lo es la violación sistemática de los derechos de autor, por poner encima de la mesa otros temas que preocupan especialmente y que la irrupción de la IA generativa parece amplificar. 

Las tecnologías inteligentes tienen un gran impacto social y económico, y ni todo es bueno ni todo vale cuando hablamos de desarrollarlas y aplicarlas. Además, entre las empresas hay una enorme urgencia por rentabilizar las enormes inversiones en IA que se están realizando, lo que puede tentarlas a saltarse pasos entre el laboratorio de investigación y el mercado. Debemos tenerlo presente y estar atentos a lo que ocurre, e incluso tratar de anticiparnos a posibles males y desmanes. Lo mismo que la investigación, desarrollo, fabricación y comercialización de un medicamento sigue leyes y controles estrictos, con la IA debe ser igual, sobre todo con los sistemas de alto riesgo potencial, porque haberlos haylos. 

Etiquetas
stats