Entre la ciencia ficción y la realidad: la inteligencia artificial 25 años después de 'The Matrix'

Hace un cuarto de siglo, resonaba en todo el mundo la icónica frase de The Matrix (Wachowski, 1999): “Lo que sabemos con certeza es que, en algún momento a principios del siglo XXI, toda la humanidad estaba unida en celebración. Nos maravillamos de nuestra magnificencia mientras dábamos a luz a la inteligencia artificial”. En el 25 aniversario de este hito cinematográfico, esta declaración emerge como un faro que ilumina el debate sobre el futuro de la inteligencia artificial (IA) y su impacto en la humanidad.

Desde su estreno en 1999, la película de las hermanas Wachowski ha sido una poderosa metáfora sobre la relación entre la humanidad y la tecnología. A medida que el mundo avanza hacia un panorama dominado por la IA, las reflexiones de la película adquieren una relevancia aún mayor.

Y es que, en retrospectiva, la visión de The Matrix sobre la IA parece sorprendentemente cercana a la realidad actual, pues en los albores del siglo XXI estamos siendo testigos de avances extraordinarios en este campo. Desde asistentes virtuales hasta algoritmos de recomendación y vehículos autónomos, la IA se ha integrado en prácticamente todos los aspectos de nuestra vida cotidiana. Estos avances han sido posibles gracias a una combinación de avances tecnológicos, investigación científica y crecimiento en el campo de la informática. Sin embargo, dichos avances también han generado preocupaciones significativas acerca de los riesgos que conlleva el vertiginoso avance de la IA.

«Desarrollar una IAG (Inteligencia Artificial General) es casi como criar a un niño, pero uno que es como un supergenio, como un niño con una inteligencia tipo Dios; y es importante cómo crías al niño».

Voces influyentes como la de Elon Musk han advertido sobre los peligros existenciales que podría acarrear una IA mal concebida. Musk estima que la inteligencia digital superará toda la inteligencia humana combinada para el 2030. Aunque sostiene que los posibles aspectos positivos superan a los negativos, el CEO de la red social X (antes Twitter) y cofundador de la plataforma de inteligencia artificial OpenAI, reconoció el riesgo para el mundo si el desarrollo de la IA continúa en su trayectoria actual. Es por ello por lo que Musk ha subrayado en varias ocasiones la necesidad imperante de regular y supervisar el desarrollo de la IA para evitar consecuencias potencialmente catastróficas. En sus palabras, «desarrollar una IAG (Inteligencia Artificial General) es casi como criar a un niño, pero uno que es como un “supergenio”, como un niño con una inteligencia tipo Dios; y es importante cómo crías al niño».

Además de Musk, otros líderes tecnológicos involucrados en el desarrollo de tecnologías de IA han alzado su voz en advertencia. Bill Gates, cofundador de Microsoft, ha expresado preocupaciones similares, instando a que se considere cuidadosamente el impacto social y ético de la IA a medida que ésta se va desarrollando. Gates advierte sobre la posibilidad de que la automatización impulsada por la IA pueda exacerbar la desigualdad económica y el desempleo si no se gestiona de manera adecuada. Por su parte, Sundar Pichai, CEO de Alphabet Inc. y de Google ha abogado por un enfoque ético en el desarrollo de la IA, enfatizando la importancia de la transparencia, la privacidad y la responsabilidad en su implementación. Pichai ha señalado la necesidad de establecer estándares claros y éticos para guiar el uso de la IA y mitigar posibles riesgos.

Antes que The Matrix, Isaac Asimov, uno de los precursores en explorar la relación entre humanos y la IA, planteó reflexiones profundas sobre este tema. En su célebre obra de ciencia ficción Yo, robot, Asimov presentó las Tres Leyes de la Robótica, que establecen un marco ético para la interacción entre humanos y robots: “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños; Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley; Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley”. Estas “leyes”, concebidas para asegurar la seguridad y el bienestar humano, encapsulan la esencia del debate y análisis en el contexto de los avances actuales en IA.

La inteligencia artificial presenta una serie de peligros y desafíos que deben abordarse para garantizar su desarrollo y aplicación ética y segura. A continuación, algunos de esos peligros y desafíos que actualmente dominan el debate público:

  • Sesgo algorítmico: Los algoritmos de IA pueden reflejar y amplificar sesgos presentes en los datos de entrenamiento, lo que puede resultar en decisiones injustas o discriminatorias.
  • Desplazamiento laboral: La automatización impulsada por la IA reemplazará puestos de trabajo en diversas industrias, lo que llevará a la pérdida de empleo y a la necesidad de reentrenamiento y actualización profesional para muchas personas.
  • Dependencia tecnológica: La creciente dependencia de la IA y la automatización puede hacer que las sociedades sean más vulnerables a fallos técnicos, ciberataques y otras interrupciones tecnológicas.
  • Privacidad y seguridad de los datos: La recopilación masiva de datos para entrenar modelos de IA plantea preocupaciones sobre la privacidad de los individuos y la posibilidad de que los datos sean robados o utilizados de manera indebida.
  • Armas autónomas: El desarrollo de armas autónomas o «robots asesinos» con capacidades de toma de decisiones autónomas plantea serias preocupaciones éticas y de seguridad, incluido el riesgo de escalada en conflictos armados.
  • Superinteligencia artificial no controlada: La posibilidad teórica de que una IA superinteligente alcance un nivel de inteligencia que supere la comprensión humana plantea riesgos existenciales, incluida la posibilidad de que la IA busque objetivos no alineados con los valores humanos.
  • Desigualdad digital: Existe el riesgo de que el acceso desigual a la tecnología de IA profundice las brechas existentes entre países, comunidades y personas, exacerbando la desigualdad socioeconómica.
  • Falta de transparencia y rendición de cuentas: Los sistemas de IA complejos pueden ser difíciles de comprender, lo que dificulta la identificación de errores, la asignación de responsabilidades y la garantía de que los sistemas operen de manera justa y ética.
  • Impacto medioambiental: El uso intensivo de recursos computacionales requerido para entrenar y ejecutar modelos de IA puede tener un impacto significativo en el consumo de energía, especialmente si no se utilizan prácticas de computación sostenible.

El cada vez más asequible uso de herramientas de IA tanto para la cometer delitos como para manipular y desinformar también es una cuestión de enorme calado para tener en cuenta de manera urgente. En una entrevista para el reportaje publicado en este medio Noticias falsas y desinformación: las claves de un fenómeno social que debemos combatir, Nir Kshetri, profesor de Administración de Empresas en la Escuela de Negocios Bryan de la Universidad de Carolina del Norte-Greesnboro (EE. UU.) advierte que «con los avances tecnológicos que se están produciendo, es de esperar que los delincuentes cometan ciberdelitos más graves. Es decir, es más que probable que en un futuro muy próximo los delincuentes combinen las tecnologías de voz y vídeo deepfake con las interacciones conversacionales auxiliadas por inteligencia artificial generativa y modelos de lenguaje como ChatGPT. Todo esto les permitirá cometer ciberdelitos con mayor facilidad».

En lo referente la manipulación y la creación de contenidos con el objetivo de desinformar, los sistemas de IA pueden utilizarse para generar y difundir información falsa o engañosa a gran escala, lo que socava la confianza pública y amenaza la integridad de los procesos democráticos.

En el mismo reportaje, Álvaro Santana, sociólogo español y profesor de Sociología del Big Data: Algoritmos, Robots y Sociedades Digitales en la Universidad de Harvard, subraya que el reto inmediato al que nos enfrentamos de cara a combatir las noticias falsas y la desinformación se encuentra en el uso que demos a los vertiginosos avances tecnológicos que se están produciendo en materia de creación de contenidos más sofisticados, como es el caso de las herramientas para producir vídeos deepfake o la generación de información por medio de plataformas de inteligencia artificial. A su ver, el mal uso de estas tecnologías podría hacer que prácticamente nada sea creíble si no es posible cotejar y confirmar la información por múltiples canales.

En última instancia, el legado profético de The Matrix y las reflexiones atemporales como las de Isaac Asimov hace más de setenta años nos instan a mirar más allá de la fascinación superficial con la IA y considerar sus implicaciones más amplias para nuestro futuro como sociedad. En un mundo donde la línea entre la realidad y la ciencia ficción se difumina cada vez más, es crucial abordar estos desafíos con sabiduría y discernimiento. Sólo entonces podremos asegurar que el «dar a luz» a la inteligencia artificial sea verdaderamente motivo de celebración para toda la humanidad, como lo predecían los personajes de The Matrix hace veinticinco años.