En la revolución digital también hay factorías donde se produce todo. No tienen altas chimeneas como las de la revolución industrial, pero sí ingentes gastos energéticos con su equivalente huella de carbono. Los centros de datos que envían cada correo electrónico, guardan cada mensaje de WhatsApp o almacenan cada serie de Netflix se están renovando para ser capaces de procesar las operaciones con inteligencia artificial, que implican mucha más electricidad.
Un nuevo estudio ha medido por primera vez el coste energético de cada tarea que se le puede solicitar a estos sistemas. El análisis ha detectado que los consumos más altos de energía se producen en las llamadas inteligencias artificiales generativas, capaces de crear nuevos contenidos. Más concretamente, las más contaminantes del panorama actual son aquellas que pueden generar imágenes a partir de un texto. De media, crear una sola imagen con una de estas IA tiene la misma huella de carbono que cargar al 100% la batería de un teléfono móvil.
En cambio, generar un texto con IA como lo hace ChatGPT es casi siete veces menos demandante en términos energéticos. Una solicitud de este tipo equivale a un 16% de la carga de un móvil de media, siguiendo el ejemplo que propone el estudio.
Las autoras son dos tecnólogas de la startup Hugging Face (especializada en desarrollar modelos de IA de aprendizaje automático) y una tercera de la Universidad Carnegie Mellon, uno de los principales centros de investigación de EEUU especializado en ciencias de la computación y la robótica. Su estudio, que aún no se ha revisado por terceros, se ha basado en calcular el gasto energético de cada tarea realizando 1.000 peticiones a 88 sistemas de IA diferentes que pueden llevarlas a cabo.
Este gráfico representa las emisiones de CO2 asociadas a diferentes tareas realizadas por modelos de inteligencia artificial. Las cajas representan la mediana y la variabilidad de las emisiones para cada tarea, con puntos que indican valores atípicos. El eje Y utiliza una escala logarítmica (los valores aumentan x10).
Además de la clara diferencia entre trabajar con imágenes o con texto, el estudio plantea dos tipos de tareas que determinan la huella de carbono que tendrá cada orden a la IA. Por un lado están las inteligencias artificiales que hacen “tareas discriminativas” (como la clasificación o categorización de un texto, como cuando una IA identifica si el conjunto de críticas de una película es positivo o negativo; o la detección de un objeto determinado en una imagen), que tienen un consumo menor que aquellas capaces de generar nuevos contenidos, a lo que denomina “inferencias”.
Por último, están los modelos que pueden hacer todas esas tareas, como el GPT-4 de OpenAI o Gemini de Google, presentado este miércoles. Estos son los más contaminantes. “Comprobamos que las arquitecturas generativas polivalentes son varias órdenes de magnitud más demandantes que los sistemas para tareas específicas”, advierten las investigadoras.
El coste de meter IA en todo
Es precisamente ese auge de los modelos polivalentes, que son los que suponen el gran avance de esta tecnología respecto a años anteriores, el que despierta la inquietud de las investigadoras. Este tipo de inteligencia artificial está de moda y las empresas han empezado a incorporarla a todas sus herramientas, con el consiguiente impacto en el medio ambiente. Cada correo electrónico completado con ayuda de inteligencia artificial aumenta exponencialmente el gasto energético de este.
“Meter modelos generativos en absolutamente todo tiene un coste importante para el planeta, y deberíamos utilizar modelos específicos en los casos en que las tareas estén bien definidas”, ha declarado la autora principal, Sasha Luccioni, especialista en calibrar la huella de carbono que la inteligencia artificial deja en el medio ambiente.
“El uso de modelos polivalentes para tareas discriminativas consume más energía que los modelos especializados en esas mismas tareas”, continúa la experta. Este es el caso, por ejemplo, de usar ChatGPT para traducir un texto (una de las muchas funciones que puede realizar) en vez de una IA diseñada para ese propósito concreto, como Google Translate.
En algunos casos la energía que requiere una IA especializada es hasta 30 veces menor que la que utiliza un modelo multifuncional para llevar a cabo la misma tarea. La “respuesta a preguntas” o el “análisis de sentimientos” son dos áreas en las que también se dejan notar estas diferencias entre la eficiencia energética de los modelos polivalentes y los especializados, abunda Luccioni.
La larga cola después del entrenamiento
Calcular el coste energético exacto de cada proceso digital no es una tarea fácil, ya que las empresas son reticentes a hacer públicos estos datos. Sin embargo, sí se conoce que el gasto energético de los cuatro principales proveedores de servicios en la nube (Google, Amazon, Meta y Mircrosoft) se dobló entre 2017 y 2021, mientras que el de los centros de datos ha aumentado entre un 20% y un 40%. Equivale a entre el 1% y el 2% de la energía que se consume en todo el mundo.
El coste de energía añadido que suponen los grandes modelos de inteligencia artificial a esas cifras tampoco forma parte de la información que hacen pública los desarrolladores. Hasta ahora se ha podido calcular la energía necesaria para el entrenamiento de cada uno de estos modelos, que ya de por sí tiene enormes requerimientos: según los datos del Instituto de la Ingeniería de España, se estima que el entrenamiento de GPT-3 (el modelo anterior a ChatGPT y el actual GPT-4) consumió unos 78.437 kWh de electricidad, equivalente al de una vivienda media española durante 23 años.
El estudio publicado ahora es uno de los primeros que calcula el gasto energético de lo que llega después del entrenamiento. Cifras que por uso individual se quedan muy lejos de esa costosa puesta a punto inicial, pero que sumadas forman una larga cola que puede incluso superarla. “El entrenamiento sigue siendo varias órdenes de magnitud más intensivo en energía y carbono. Se necesitan entre 200 y 500 millones de inferencias para que uno de estos modelos alcance la cantidad de energía utilizada durante el entrenamiento. Pero esto puede ocurrir muy rápido en modelos utilizados por millones de usuarios”, avisa Luccioni.