La portada de mañana
Acceder
España tiene más de un millón de viviendas en manos de grandes propietarios
La Confederación lanzó un ultimátum para aprobar parte del proyecto del Poyo
OPINIÓN | Aldama, bomba de racimo, por Antón Losada

Inteligencia artificial: ¿Hacia dónde vamos?

13 de mayo de 2023 22:09 h

0

Cuestión de escala. Las redes neuronales artificiales entrenadas con información de internet y feedback de humanos son capaces no solo de adivinar la palabra siguiente de un frase a medias - como el autocompletar de Whatsapp - sino las 20.000 palabras siguientes. Esto permite a una máquina- como chatGPT- tener un diálogo como si fuese una persona. Una vez hackeado el lenguaje humano, tenemos herramientas que nos dan acceso a nuevos superpoderes en el mundo de las ideas.

Hace dos décadas trabajé en un robot poeta: un programa informático entrenado con la obra de William Blake para aprender la distribución estadística de sus palabras y su sintaxis. Dadas las primeras palabras de un nuevo verso, la IA terminaba la poesía. Trabajando en la ONU en 2019, entrenamos una red neuronal para escribir discursos al estilo de los presidentes de los países en la Asamblea General alertando de los riesgos de la desinformación creada por IA - entonces OpenAI publicaba GPT2. Hoy, los modelos de IA generativa pueden escribir versos, resumir textos, usar fórmulas de Excel, hacer informes, programar páginas web, diseñar logos, buscar similitudes entre esto y lo otro, dar tres recetas con aquello,  y un sin fin de aplicaciones más. Sin embargo, la IA no se puede humanizar, no tiene sentido común. Es simplemente una herramienta diferente. Como cuando el avión de los hermanos Wright levantó el vuelo - y no lo hizo como los pájaros- lo hizo a su manera. Aterrizajes y despegues complicados, gran alcance y poca eficiencia energética. La IA generativa es capaz de codificar y manipular la información a una velocidad, escala y eficiencia sin precedentes. Igual que la invención de las máquinas nos ha descargado del trabajo físico a lo largo de la historia, estos sistemas realizarán por nosotros parte o todo el trabajo cognitivo que queramos a un coste casi nulo.

Los riesgos de la IA

Las nuevas tecnologías proporcionan grandes poderes que conllevan grandes responsabilidades. Esto no es nuevo: la humanidad ha gestionado  -no siempre a la primera- avances fundamentales como la energía nuclear o la edición genética. Estos son algunos de los riesgos sistémicos clave de la IA.

1) El mal funcionamiento de la IA: ya está ocurriendo.

Que la IA no funcione como debería por sesgos en los datos de entrenamiento. O porque debido a su naturaleza probabilística, la información que provea sea inexacta - lo que llamamos “alucinaciones” -. O que no sepamos qué es lo que está computando exactamente - una caja negra. Los riesgos asociados a estos problemas que ya están presentes en muchos de los sistemas desplegados en la actualidad.

2) La generación de desinformación: impacto inminente.

Es muy fácil crear textos, imágenes, vídeos… contenido digital que no podemos distinguir si es o ha sido real. Como dice Marta Peirano, los modelos de lenguaje de IA son los Kalashnikov de la desinformación. Igual que Cambridge Analytica influenció elecciones en medio mundo a través de las redes sociales, pronto presenciaremos el despliegue de una nueva generación de herramientas capaces de manipular elecciones y difundir desinformación a escala. Podemos esperar vídeos deepfake de políticos, campañas de desprestigio de periodistas o ataques a personas corrientes. Fábricas de bulos de eficacia, velocidad y volumen sin parangón. Además, el feedback de las personas refina y codifica cómo se comportarán los modelos de IA que codifican no solo el conocimiento, sino también los valores y reglas sociales. Porque la IA es poder. 

3) El desequilibrio del mercado laboral: el impacto empezará a ser evidente en los próximos meses.

Los primeros estudios muestran cómo los trabajadores que usan IA aumentan su productividad siendo los menos productivos los que más aumentan su rendimiento. A nivel macro, más de dos tercios de los trabajos se verían afectados por la IA y un quinto podrían ser sustituidos. Los sectores de la banca, los medios, el marketing o la abogacía están entre los más expuestos. El cambio del modelo productivo será más rápido que el que el mercado laboral pueda absorber. Las tareas manuales estarán protegidas por más tiempo - los robots físicos son más complejos, - pero para las tareas cognitivas, el coste básicamente tenderá a cero. Consultoras haciendo informes tienen los días contados. La industria del desarrollo de software también estará afectada. Como muestra, Microsoft, tras despedir 10000 empleados, invirtió 10000 millones en OpenAI. El reto será la transición de los trabajos de millones de personas y la lucha contra la desigualdad encontrando mecanismos para repartir la productividad generada por estos sistemas. 

4) La alienación social: el impacto se percibiría en los próximos años.

Históricamente el conocimiento humano se ha transmitido de forma activa con esfuerzo, leyendo y escribiendo. En el futuro es posible que deleguemos la brújula de nuestra sociedad todavía más a los algoritmos- piensen en el impacto que ya tiene la IA que nos recomienda qué ver o con quién salir. Es posible que una nueva generación de humanos no sepa ni siquiera escribir en narrativa. Las entrañas de los modelos de lenguaje entrenadas con bases de datos de internet, mayormente el inglés, podrían olvidar elementos característicos de lenguajes y culturas minoritarias. Es posible que la historia y el conocimiento humano se extinga si son los algoritmos los que están al mando y no están alineados con los intereses humanos. Yuval Harari alerta de que, si el aumento de la productividad de la IA deja a los humanos sin trabajo, podría aparecer una nueva clase social irrelevante que no es necesaria para el funcionamiento de la sociedad. Como mínimo, una amenaza a la salud mental de nuestra especie. 

5) El shock sistémico -intencionado o no intencionado-: línea temporal incierta.

Sistemas de IA muy avanzados (Artificial General Intelligence o AGI) podrían poner en peligro infraestructura crítica para la humanidad, de forma intencionada o desintencionada. Una especie de Chernobyl de la IA. Hace semanas la carta firmada por líderes de la IA pedía una moratoria en el desarrollo de sistemas más potentes que GPT4 hasta que sean seguros y los riesgos gestionables. Max Tegmark, uno de los impulsores, propone ideas para limitar los riesgos de sistemas de IA superinteligentes: no dejarle manipular humanos, no conectarla a internet ni a robots, ni enseñarle a programar - así podría mejorarse a sí misma. Ya hemos hecho todo, y efectivamente, es posible que, en el futuro, sistemas superinteligentes que no sabemos lo que hacen, optimicen sus propios objetivos sin estar alineados con valores humanos, creando riesgos existenciales para la especie humana. Creo que este escenario es poco probable sin que antes hayamos sufrido otro shock, uno creado por un sistema de IA menos inteligente, pero guiado por malos actores. Estos actores podrían atacar redes energéticas, sistemas bancarios o incluso diseñar armas biológicas. 

Adaptándonos a un mundo con IA

Como el genio ya está fuera de la botella habrá que adaptarse. Estas son algunas ideas para mitigar los riesgos:

1) Aprovechemos los superpoderes.

No importa cuál sea tu trabajo, prueba esta tecnología. Superpoderes fundados en hacer buenas preguntas, no sólo en dar respuestas. Por ejemplo, la IA ya saca mejor nota en el MIR que la mejor estudiante. En el futuro, los médicos serán directores de orquesta de algoritmos de IA. Igual, por fin pueden tener más tiempo con sus pacientes. El trabajo de artistas, escritores, creativos va a evolucionar. Lo hecho a mano, creaciones imperfectamente humanas, siempre tendrá un valor especial. Encontraremos nuevos modelos de negocio- la música Grimes cede su voz generada por IA si se le pagan royalties. Aunque algunas estimaciones dicen que la IA Generativa podría aumentar el PIB mundial en un 7%, la naturaleza y escala arrolladora de la IA podría llevar al sistema capitalista a un extremo sin beneficios para las personas. Necesitamos aplicaciones con verdadero valor más allá de comerciar y explotar nuestra atención. 

2) La vacuna contra la desinformación total.

Debemos asegurarnos de que lo que vemos en el mundo digital refleja la realidad física. Cada vez que hagamos una foto o un vídeo, la cámara y el micrófono de nuestro dispositivo - el hardware - deberían de poner un sello criptográfico único y no hackeable codificando el lugar y el momento de la captura. Hemos de estar preparados para tsunamis de desinformación. 

3) El entorno regulatorio de la IA es una pieza fundamental.

Una especie de Agencia del Medicamento que apruebe los sistemas con impacto importante en la sociedad - educación, trabajo, etc.-. El marco regulatorio Europeo para la IA es similar al de las tecnologías médicas donde, cuanto más riesgo tiene la aplicación, más exhaustivos son los procesos de certificación. Además, habrá que reinterpretar o adaptar otros entornos legales referentes a la propiedad intelectual o el derecho al trabajo. A nivel nacional podemos prever que los gobiernos entrenen sus propios modelos tanto por motivos de soberanía y geoestrategia como preservación de la cultura. 

4) Cooperación internacional en IA.

Tras la aprobación de los principios éticos de la IA en la UNESCO en 2021, será fundamental encontrar mecanismos ágiles de consenso acerca de las grandes líneas rojas del desarrollo y despliegue de la IA generativa incluyendo el respeto a los derechos humanos. Además de reforzar los mandatos existentes, algunas opciones serían la creación de un organismo para la seguridad de la IA como la IAEA (Int Atomic Energy Agency), la posibilidad de declarar una emergencia global de IA - cómo se declaran las emergencias globales de salud, o la creación de una institución de investigación como el CERN para la AGI.

La brújula

Tendremos que adaptarnos al cambio tecnológico más rápido que nunca. Debemos alinear el desarrollo y despliegue de la IA con nuestros valores- esto requiere innovación responsable y políticas para mitigar los riesgos y maximizar las oportunidades. Es el momento para construir mecanismos que permitan delimitar las líneas rojas y una brújula para avanzar hacia una IA con impacto positivo en la humanidad y el planeta.