Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Yuval Noah Harari: “Hay un potencial totalitario en la inteligencia artificial nunca antes visto”

El pensador israelí Yuval Noah Harari se ha convertido en uno de los más influyentes a nivel mundial.

Carlos del Castillo

21 de septiembre de 2024 21:42 h

38

Yuval Noah Harari publica nuevo libro. El pensador israelí, consolidado como uno de los más influyentes del siglo XXI gracias al éxito de sus ensayos Sapiens y Homo Deus, continúa desarrollando en Nexus (Editorial Debate) su tesis sobre cómo la construcción de mitos, religiones y ficciones colectivas han sido elementos clave en nuestras estructuras sociales. A ella acopla el que considera el último gran avance de la humanidad en este sentido, la inteligencia artificial. Su mensaje es pesimista: si no actuamos ya, existe un riesgo cierto de que los sistemas de aprendizaje automático traigan una nueva era de oscuridad.

“Tenemos que entender que hay un potencial totalitario en la IA como nunca antes hemos visto en la historia”, expuso Harari en una reciente reunión con periodistas en la que estuvo presente elDiario.es. La inteligencia artificial y su integración en los dispositivos, tanto personales como del hogar, urbanos o vehículos, podría derivar en el desarrollo de una capacidad de vigilancia sin precedentes, avisa el historiador.

“La diferencia entre los regímenes autoritarios y los totalitarios es que los primeros controlan la esfera política, el ejército o los presupuestos, pero dejan a la gente abandonada a su suerte la mayor parte del tiempo. El tirano no puede saber lo que cada uno de nosotros hace y piensa cada minuto del día. Pero eso es justo lo que los regímenes totalitarios intentan hacer. Regímenes como los de Stalin en la Unión Soviética o Hitler en Alemania no sólo querían controlar el ejército y los presupuestos. Querían controlar cada aspecto de la vida de la gente. Lo que oyes, lo que ves, lo que dices, con quién te encuentras, qué libros lees, todo. Pero incluso Hitler y Stalin tenían dificultades, había límites en el control que podían ejercer. No podían seguir a todo el mundo todo el tiempo. Stalin no tenía 200 millones de agentes de la KGB para seguir a todo el mundo, y si los hubiera tenido; ¿qué es lo que hace un agente de la KGB? Elaborar un informe sobre ti. El cuartel general de la KGB en Moscú se habría inundado de 200 millones de informes en papel. Incluso si un agente de la KGB te viera hacer algo y escribiera sobre ello, habría una probabilidad muy alta de que ese informe simplemente acumulara polvo. Nadie lo leería nunca porque no tendrían suficientes analistas. Así que incluso en la Unión Soviética, había cierta medida de privacidad”, desarrolla Harari.

“Ahora la inteligencia artificial podría hacer posible la creación de regímenes de vigilancia total que aniquilarían la privacidad. En un país de IA, no se necesitan agentes humanos para seguir a todos los humanos”, alerta.

Mi propio país, Israel, está construyendo un régimen de vigilancia total en los territorios palestinos ocupados, con cámaras, drones y software siguiendo a todo el mundo todo el tiempo

El pensador recuerda que esta situación no está tan lejos de la realidad. “Mi propio país, Israel, está construyendo un régimen de vigilancia total en los territorios palestinos ocupados, con cámaras, drones y software siguiendo a todo el mundo todo el tiempo”, continúa: “Tampoco se necesitan analistas humanos para revisar toda la información. Esto es lo que hace la IA. Puede repasar inmensas cantidades de datos, vídeos, imágenes, textos o audio, analizarlos y reconocer patrones”. Israel también utiliza IA para convertir toda esa información en objetivos militares y asesinarlos, según han reconocido fuentes de la inteligencia israelí.

Discursos como el de Harari no solo llegan desde el ámbito de la academia. Apenas horas después de la rueda de prensa del historiador israelí era Larry Ellison, el fundador de Oracle, el que se expresaba en términos parecidos. Aunque desde una perspectiva totalmente opuesta. “La policía se comportará lo mejor posible, porque estaremos constantemente vigilando y grabando todo lo que ocurre. Los ciudadanos se comportarán lo mejor posible, porque estaremos constantemente grabando e informando de todo lo que ocurre. Es incuestionable”, aseguraba. Ellison posee la quinta mayor fortuna del mundo, según Forbes, y es el principal apoyo de Donald Trump en Silicon Valley. Oracle es una de las tecnológicas más grandes y buena parte de su negocio se basa en la gestión de centros de datos, computación en la nube e inteligencia artificial.

¿Más sabios que en la Edad de Piedra?

La idea de la que parte Harari en Nexus es que la acumulación de información no ha hecho al ser humano más sabio. Acumular información es una manera de acumular poder, reconoce, pero “el poder no es sabiduría”. Como prueba, el académico señala a la crisis climática y el colapso ecológico con el que la humanidad coquetea. También a la creación de nuevas tecnologías como la IA, “que tienen el potencial de escapar de nuestro control y de esclavizarnos o aniquilarnos”.

“Nadie discute que en la actualidad los humanos dispongamos de mucha más información y de mucho más poder que en la Edad de Piedra, pero no es en absoluto cierto que nos comprendamos y que comprendamos mejor nuestro papel en el universo”, propone.

100%

Ese poder, desarrolla Harari, “nunca es el resultado de una iniciativa individual”, sino que “siempre surge de la cooperación entre un gran número de personas”. Esa colaboración se establece en redes, que los humanos hemos usado para construir una civilización capaz de explorar el espacio o reducir la mortalidad infantil por debajo del 3%. Pero también para “desatar poderes que no podemos controlar”. “El argumento principal de este libro es que la humanidad consigue un poder enorme mediante la construcción de grandes redes de cooperación, pero la forma en que se construyen dichas redes las predispone a hacer un uso imprudente del poder”, resume.

Durante la obra Harari repasa ejemplos sobre cómo la idea de que “la información es esencialmente algo bueno y que, cuanta más podamos reunir, mejor” es esencialmente “ingenua”. Cita ejemplos como un editorial de The New Englander, un periódico estadounidense del siglo XIX, que en el año 1858 celebraba la invención del telégrafo: “Es imposible que sigan existiendo viejos prejuicios y hostilidades, ahora que se ha creado este instrumento para que todas las naciones de la Tierra intercambien ideas”.

Dos siglos después la tecnología de comunicación del telégrafo parece un juguete comparada con Internet. Pero el racismo, el machismo o el belicismo siguen existiendo. Intoxicamos voluntariamente el planeta que habitamos. Construimos bombas cada vez más poderosas y virus que pueden aniquilar a la humanidad, enumera el historiador: “Nuestros líderes no carecen de información acerca de estos peligros, pero, en lugar de colaborar en la búsqueda de soluciones, se acercan cada vez más a la guerra global”.

El principal problema ahora con las redes sociales, las noticias falsas y las teorías conspirativas no son las decisiones de los usuarios humanos, que están protegidas por la libertad de expresión. Son las decisiones de los algoritmos corporativos

Harari compara el panorama informativo actual con la comida basura. Señala a las redes sociales y a las granjas de contenido como las responsables de hacer que hoy en día la mayoría de la información que consumen las personas sea adictiva, pero vacía de conocimiento. Apunta a las compañías que las operan por suministrar un producto que daña la mente, igual que la comida basura daña al cuerpo. “La gente tiene derecho a ser estúpida, tiene derecho incluso a inventarse mentiras”, defiende. “El principal problema ahora con las redes sociales, las noticias falsas y las teorías conspirativas no son las decisiones de los usuarios humanos, que están protegidas por la libertad de expresión. Son las decisiones de los algoritmos corporativos.”

Harari denuncia que el único objetivo de las plataformas es capturar la atención de los usuarios, no suministrar información útil. “A medida que la gente pasa más tiempo en YouTube, en Twitter, en TikTok, las empresas venden más anuncios y recopilan más datos, que luego pueden vender a terceros. Este es su modelo de negocio. Así es como ganan dinero, por lo que tienen un gran interés en captar la atención de la gente y hacer que se quede más tiempo”, recuerda: “En la búsqueda de este objetivo, los algoritmos de las empresas descubrieron que la forma más fácil de captar la atención humana y mantener a más gente más tiempo en la plataforma es pulsar el botón del odio, o el botón del miedo, o el botón de la ira en la mente, y difunden deliberadamente noticias falsas y teorías conspirativas que aumentan el odio, el miedo y la ira”.

“La IA no es una herramienta, es un agente independiente”

En la tesis del historiador, el nazismo o el estalinismo fueron redes de colaboración que salieron mal. “Eran unas redes poderosísimas sostenidas por ideas excepcionalmente equivocadas”, sostiene en Nexus. Lo mismo opina de las redes sociales. La inteligencia artificial, basada en información pero no en sabiduría, podría terminar siendo otro ejemplo, aunque sea “un tipo de red totalmente nuevo”. Harari sostiene que un gran número de personas creen que su llegada será positiva porque implica un gran avance tecnológico, olvidando que el telégrafo también lo fue en su momento y tras su invención llegaron dos guerras mundiales.

Además de la potencial pérdida de privacidad, el historiador cita dos problemas que podrían derivarse directamente de la aparición de la IA. Uno es el geopolítico, “sobrecargando los conflictos humanos” al añadir una carrera global por controlar esta tecnología. El segundo es el de la caja negra: “Podríamos vernos envueltos por una red de algoritmos incomprensibles cuya función sería gestionar nuestras vidas, remodelar nuestras políticas y nuestras culturas; e incluso rediseñar nuestro cuerpo y nuestra mente”.

“La IA no es una herramienta, es un agente independiente”, afirma: “Es la primera tecnología de la historia que puede tomar decisiones y generar nuevas ideas por sí misma (...). Los cuchillos y las bombas no deciden por sí mismos a quién matar. En cambio, la IA puede procesar información por sí sola y, por lo tanto, sustituir a los humanos en la toma de decisiones”.

Para hablar de los peligros de esta nueva tecnología el pensador cita acciones como la carta firmada por empresarios de la IA como Sam Altman o Elon Musk que alertaba de que una IA descontrolada podría ser tan destructiva como una “bomba nuclear”. Esta ha sido tachada de “catastrofista” por otros expertos, que han puesto sobre la mesa que la “moratoria” en el desarrollo que proponían Altman o Musk pretendía en realidad torpedear la competencia.

Harari comenta también una encuesta en la que participaron 2.778 investigadores, en la que “más de un tercio estimó en al menos un 10% la probabilidad de que la IA avanzada conduzca a resultados tan malos como la extinción humana”. El mismo resultado indica que más del 60% de los encuestados apenas veían posibilidades de que eso ocurriera. Incluso la ONU ha señalado que uno de los mayores problemas a la hora de regular esta tecnología es la “dificultad para descifrar el bombo publicitario de la realidad”.

Con más de 45 millones de copias vendidas entre ambos, Sapiens y Homo Deus han sido grandes éxitos de ventas. Sin embargo son obras que han recibido críticas desde el ámbito académico. Estas señalan que Harari simplifica en exceso cuestiones complejas acerca de materias en las que no es un experto, como biología, antropología o tecnología. En la actualidad, no son pocos los investigadores especializados en IA que recuerdan que “los avances actuales no nos acercan más a tener una inteligencia artificial similar a la humana” y que el progreso tecnológico no tiene por qué ser una línea recta. Si bien inteligencias artificiales generativas han avanzado mucho en los últimos años, el consenso científico en este momento es que no serán la base tecnológica de una IA consciente o humanoide. “Podrían pasar 100 años y que el estándar sean todavía estas enormes inteligencias artificiales simuladas que en general no son realmente capaces de entender nada, como ChatGPT”, explicaba un científico de computación en entrevista con elDiario.es.

ChatGPT, la ameba de la IA, no tardará mil millones de años en evolucionar hasta convertirse en el dinosaurio de la IA

Aunque Harari no habla de una sola IA todopoderosa sino de la creación de un entramado de incontables algoritmos que nos resultaría imposible fiscalizar, un invierno de la inteligencia artificial (como el que ya atravesó esta tecnología en la segunda mitad del siglo XX, con muy pocos avances) podría descafeinar buena parte de las alertas que el historiador emite en Nexus. El historiador fue preguntado por esta cuestión en su reunión con periodistas españoles y latinoamericanos.

“Lo que estamos viendo es que los desarrollos más recientes de la IA son esta capacidad de crear historias, que antes no existía. Si retrocedemos unos años y nos fijamos en las redes sociales, las IA ya controlaban la conversación decidiendo qué atraía la atención, qué encabezaba las noticias en Facebook o qué recibía más tráfico en Twitter. Pero la IA no podía crear contenidos. No podía escribir buenos textos. No podía crear música ni imágenes. Ahora la nueva generación de IA es capaz de hacerlo. Y sé que mucha gente dice que sí, que escriben textos, pero no son muy buenos. Escriben música, pero no es muy buena. Crean vídeos e imágenes, pero tienen muchos errores, como personas con seis dedos en una mano. Pero entiendan que estos son sólo los primeros pasos de la revolución de la IA. La revolución de la IA tiene básicamente diez años. Todavía está dando los primeros pasos de bebé. Aún no hemos visto nada. Si piensas en el desarrollo, la evolución de la IA es análoga a la evolución biológica. Así que los sistemas de inteligencia artificial de hoy son sólo amebas. Son muy, muy simples. Las amebas tardaron miles de millones de años en evolucionar hasta convertirse en dinosaurios, mamíferos y humanos, porque la evolución orgánica es lenta. Tarda miles de millones de años. La evolución digital de la IA es millones de veces más rápida. ChatGPT, la ameba de la IA, no tardará mil millones de años en evolucionar hasta convertirse en el dinosaurio de la IA”, contestó.

Una dieta informativa e instituciones poderosas

Nexus dedica más espacio a trazar el contexto histórico sobre cómo la humanidad ha creado redes de cooperación problemáticas a lo largo de la historia y a describir cómo nos están afectando las actuales que a proponer soluciones. No obstante, el historiador propone dos vías para corregir el rumbo. Una es individual, y sugiere que cada persona establezca una dieta informativa, de forma similar a como se fija una dieta nutricional: siendo selectivos con lo que consumimos.

La otra estrategia consiste en reforzar el discurso civil y democrático, especialmente en un momento en el que se encuentra amenazado. Harari señala que no es posible frenar una tendencia tecnológica, pero destaca la importancia de instituciones como los tribunales, las universidades y los medios de comunicación. “La democracia ha construido mecanismos para protegerse a sí misma. Un sistema de controles y equilibrios. No se trata sólo de elecciones. Las elecciones son un control muy importante pero sin el resto de controles, es fácil amañarlas, como ocurre en Venezuela. Necesitas tribunales independientes y medios de comunicación independiente que puedan sacar a la luz los errores y potencialmente las mentiras del gobierno y que éste no pueda impedirlo”.

En su reunión con periodistas españoles y latinoamericanos, quiso enfatizar la importancia de la prensa en esa ecuación. “El papel de los medios de comunicación es esencial”, recalcó: “La democracia es una conversación. Esto es lo que significa democracia. Dictadura es dictar. Una persona lo dicta todo. Democracia es cuando la gente se pone de pie, habla e intenta llegar a una decisión común. Ahora, hasta el surgimiento de la prensa moderna, la democracia, al menos la democracia a gran escala, era simplemente imposible. No tenemos ningún ejemplo de democracia a gran escala en el mundo antiguo. Los únicos ejemplos que conocemos son ciudades-estado a pequeña escala como la antigua Atenas o incluso tribus más pequeñas. Porque para tener una conversación, la gente necesita hablar. Ahora, en una ciudad pequeña, todos podrían reunirse en la plaza principal y hablar. Pero en un gran reino, era técnicamente imposible mantener una conversación entre millones de personas. Así que la democracia era simplemente imposible. Y no conocemos ninguna democracia a gran escala en el mundo premoderno. Una conversación a gran escala se hizo posible sólo con el surgimiento de la tecnología de la información moderna, y la primera tecnología de la información moderna crucial fue el periódico. Nuestros periódicos comienzan a surgir en los siglos XVII y XVIII en lugares como los Países Bajos e Inglaterra, que es donde también se ve el surgimiento de las primeras democracias a gran escala en la historia. Después tuvimos más tecnologías de la información como el telégrafo y la radio y la televisión. Esta es la base de la democracia a gran escala, porque, de nuevo, sin estas tecnologías, no hay conversación. Y sin conversación no hay democracia”.

Etiquetas
stats