La IA genera una alta demanda eléctrica en centros de datos
El aumento en la demanda de inteligencia artificial (IA) está poniendo una presión sin precedentes en la red eléctrica. Cuando enviamos una petición a una IA como ChatGPT, los servidores de un centro de datos computan la respuesta. Aunque este proceso es similar al de cualquier servicio en la nube, los modelos de IA generativa utilizan 33 veces más energía que las máquinas que ejecutan un algoritmo tradicional para realizar tareas específicas. «Es tremendamente ineficiente desde una perspectiva computacional», comentó Sasha Luccioni, investigadora de Hugging Face, a BBC News.
El alto coste ambiental de los grandes modelos de IA
Un estudio prepublicado por Luccioni y otros autores advierte del alto coste ambiental de los grandes modelos de IA, tanto por la cantidad de energía que demandan como por las toneladas de carbono que emiten. Empresas como Meta, OpenAI y Google, al entrenar sus grandes modelos de lenguaje (Llama 3, GPT-4, Gemini 1.5 Ultra), ponen en funcionamiento cientos de miles de tarjetas gráficas o TPUs que consumen enormes cantidades de electricidad. Este consumo es especialmente alto a medida que los modelos crecen en tamaño, pasando de millones a cientos de miles de millones de parámetros.
Proyecciones alarmantes para los centros de datos
La IA generativa es cada vez más popular, lo que significa que millones de personas hacen consultas a cada instante, activando la maquinaria de la inferencia. Este proceso genera contenido desde cero en los centros de datos de todo el mundo, los cuales utilizan cada vez más electricidad: de 460 TWh en 2022 a más de 1.000 TWh proyectados para 2026. Esto equivale al consumo de electricidad de Japón, con una población de 125 millones de personas.
En National Grid, el operador de la red eléctrica del Reino Unido, están preocupados. Calculan que la demanda de electricidad de los centros de datos se sextuplicará en los próximos 10 años debido al uso de la IA, además de la electrificación del transporte y la calefacción. En Estados Unidos, los operadores de la red ya están empezando a resentirse, según la consultora Wood Mackenzie: «Se están viendo afectados por las demandas de los centros de datos exactamente al mismo tiempo que se está produciendo el resurgir (gracias a la política gubernamental) de la fabricación nacional».
Soluciones y el futuro energético
Nuevos modelos pequeños como Phi-3 o Gemini Nano, que se ejecutan directamente en nuestros dispositivos, pueden aliviar parte del problema. Además, el rendimiento del hardware está mejorando, lo que permite ahorrar energía tanto en el entrenamiento como en la inferencia. Sin embargo, a medida que mejora el hardware, las grandes tecnológicas también compiten por entrenar modelos más grandes y capaces, lo que requiere más centros de datos y más energía.
Este ciclo perpetuo de demanda y consumo energético sugiere que se necesitarán soluciones más drásticas. Por eso, empresas como Microsoft empiezan a apostar por los reactores nucleares modulares, mientras que Sam Altman, CEO de OpenAI, invierte en fusión nuclear.
La situación actual plantea un desafío significativo: mientras la IA continúa expandiéndose y beneficiando a múltiples sectores, el impacto ambiental y la presión sobre la infraestructura eléctrica global no pueden ser ignorados. La búsqueda de soluciones sostenibles y energéticamente eficientes será crucial para equilibrar el progreso tecnológico con la sostenibilidad ambiental.