Empresarios como Elon Musk, Steve Wozniak (cofundador de Apple) o los presidentes de numerosas compañías tecnológicas; intelectuales como Yuval Noah Harari y cientos de académicos e investigadores especializados en inteligencia artificial. Todos han firmado una carta abierta lanzada este miércoles en la que piden a las organizaciones que están desarrollando esta nueva tecnología que se “pausen durante al menos 6 meses” sus experimentos más potentes, hasta que el mundo haya acordado una hoja de ruta para que estos sistemas “sean más precisos, seguros, interpretables, transparentes, robustos, neutrales, confiables y leales”.
“Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, aseveran los firmantes, entre los que también hay españoles como Carles Sierra, director del Instituto de Investigación de Inteligencia Artificial del CSIC.
La carta pone el foco sobre OpenAI, la empresa que ha desarrollado ChatGPT. Sitúa como tecnología límite su nuevo GPT-4, la inteligencia artificial presentada hace dos semanas que mejora las capacidades de base de ChatGPT. “La reciente declaración de OpenAI sobre la inteligencia artificial general afirma que En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos. Estamos de acuerdo. Ese punto es ahora”, sentencia.
Los sistemas de inteligencia artificial más poderosos deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables
Los firmantes avisan que el potencial de la inteligencia artificial para transformar la sociedad hace necesario que se produzca un consenso internacional que marque el paso. Recalcan que los líderes de las empresas que han emprendido “una peligrosa carrera hacia modelos de caja negra impredecibles, cada vez más grandes y con capacidades emergentes” no son las personas que decidan por dónde discurren esos avances.
“¿Debemos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluso los gratificantes? ¿Debemos desarrollar mentes no humanas que eventualmente puedan superarnos, obsoletos y reemplazarnos? ¿Debemos arriesgar la pérdida del control de nuestra civilización?”, se preguntan. “Estas decisiones no deben delegarse a líderes tecnológicos no electos. Los sistemas de IA más poderosos deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, zanjan.
La moratoria obligatoria que piden a los nuevos avances debería servir para “desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de AI avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que los cumplan sean seguros más allá de una duda razonable”, añaden.
La irrupción de ChatGPT el pasado noviembre ha espoleado una carrera por la inteligencia artificial en la que dos de las principales tecnológicas mundiales, Microsoft y Google, han decidido participar a pecho descubierto. Ambas han incorporado esta tecnología a sus principales herramientas, pese a que tiene fallos y se encuentra aún en una etapa inmadura de su evolución, recalcan los expertos.
La carta ha sido firmada por cientos de expertos y en este momento está abierta para su rúbrica por el resto de la población. En este momento acumula más de 1.100 firmas.