Cuando se habla de inteligencia artificial no es infrecuente confundir los términos IA generativa e IA general. La IA generativa se orienta a crear contenido nuevo, como texto, imágenes, música o videos, así como otro tipo de patrones o estructuras, como podría ser la representación 3D de un virus. La denominada IA general sería aquella equivalente o superior a la de los seres humanos en cualquier faceta, no en una o más tareas concretas, como lo son ahora los sistemas de IA en uso e investigación.
Evidentemente, cuantas más posibilidades de uso tenga una tecnología y más elementos críticos dejemos baso su supervisión o control, incluso aunque su autonomía sea parcial, más daño puede hacer en caso de que su funcionamiento no sea el adecuado, bien por comportamientos imprevistos, por errores en su diseño o por manipulaciones (ataques) de terceros. Eso sí, serán las decisiones humanas, por acción o por omisión, las causantes del mal, no el libre albedrío de la IA, del que carece absolutamente -quizás nosotros también, por cierto-. Ni siquiera las armas autónomas lo son del todo, ya que, aunque han sido diseñadas para hacer daño sin supervisión humana, se crearon precisamente con ese objetivo, el de hacer daño. No es algo que de pronto decidan por su cuenta, dicho de otro modo.
Aunque no tenemos ni idea de cómo diseñar una IA general, aun suponiendo que esto fuese posible, no está mal que algunas personas con inteligencia natural, conocimiento y buen criterio se dediquen a pensar cómo limitar el riesgo de que esa hipotética IA general pueda volverse contra nosotros. Es razonable pensar en futuras regulaciones internacionales y mecanismos de supervisión para prevenir cualquier potencial mal uso de la tecnología de IA que pudiera amenazar a la humanidad. Pero obsesionarse con esta posibilidad es como hacerlo hoy con la superpoblación de Marte, pensando en que quizás algún día comencemos a colonizarlo.
Probablemente el diseñar una IA general requerirá tener mecanismos de memoria y aprendizaje tan generales y flexibles como los humanos. Estos son todavía muy desconocidos y aun cuando tengamos más información sobre cómo operan en nuestro cerebro, no sabemos si tendremos la tecnología adecuada para imitarlos con cierta precisión. Lo que sí es evidente, es que hoy la IA está muy lejos de ser general. Tanto, que no tenemos ni idea de cuán lejos estamos de ello ni por donde hay que tirar.
Investigadores de Google DeepMind han analizado el estado del arte de la IA, clasificándola en 5 niveles de rendimiento, desde el 1, o emergente, al 5 o superhumano, en el que la IA superaría a cualquier persona. En sistemas orientados a fines o problemas concretos ya tenemos ejemplos de sistemas de IA en todos los niveles. Por ejemplo, DALL-E, la IA capaz de generar imágenes a partir de especificaciones en lenguaje natural, estaría en el nivel 3, o de experto, por superar al 90% de las personas en esa tarea, según las estimaciones de los citados investigadores. AlphaFold, el programa capaz de predecir la estructura tridimensional de las proteínas a partir de su secuencia de aminoácidos, estaría en el nivel 5, o superhumano, ya que nadie en absoluto puede ni acercarse siquiera a las capacidades de dicho software. Por el contrario, no hay hoy sistemas que operando como inteligencias artificiales generales superen el nivel 1, o emergente, donde se sitúa como referente actual ChatGPT.
La IA general esta hoy solo en la imaginación de algunos, sin saber si será posible y sin saber siquiera cuál sería el camino para llegar a ella. Pero también llegar a la Luna solo estaba en la cabeza de Julio Verne un siglo antes de que Neil Armstrong pusiese sus pies en ella.