L’intelligence artificielle évolue à une vitesse fulgurante, et avec elle, ses exigences énergétiques.
Greenly, spécialiste de la comptabilité carbone, s’est penchée sur le sujet en comparant les
2 acteurs clés de l’IA générative : l’américain ChatGPT-4 et le chinois DeepSeek. Ces modèles nouvelle génération sont bien plus gourmands en énergie que leurs prédécesseurs, soulevant d’importantes questions environnementales. Pour s’affirmer sur un secteur concurrentiel d’avenir, des acteurs comme DeepSeek revendique une IA aussi performante que ChatGPT-4, mais avec une consommation énergétique nettement réduite.
ChatGPT-4 : une
puissance accrue et un coût environnemental qui explose
Il ressort que plus les modèles deviennent puissants, plus leur impact écologique s’alourdit. Comparé à sa version précédente, qui comptait 175 milliards de paramètres, ChatGPT-4 a franchi la barre des
1 800 milliards de paramètres, multipliant par 20 sa consommation énergétique. Dans l'hypothèse où une organisation répondrait à 1 million d'e-mails par mois, Greenly a estimé que ChatGPT-4 générerait
7,138 tonnes de CO₂e sur une année, réparties entre l'entraînement et l'utilisation du modèle. Soit l’équivalent de 4 300 allers-retours en avion entre Paris et New York.
Cette empreinte croît
de nouveau lorsqu’on considère l’impact de son utilisation quotidienne. D’après
une étude menée par l’Université Carnegie Mellon avec Hugging Face, une requête
textuelle consommerait autant d’énergie que 16% d’une charge de smartphone. Par
conséquent, un million de réponses textuelles par mois équivaudrait à 514 tCO2e
en un an. Des outils de conversion texte-image, comme DALL-E, génèreraient
génère 60 fois plus de CO2e que le texte sur le texte seul.
DeepSeek : une réelle
alternative plus écologique ?
Le chinois DeepSeek est
entré récemment dans la course à l’IA générative, promettant une performance
équivalente aux modèles occidentaux et moins énergivores. Ainsi, DeepSeek
revendique un modèle plus économe en puissance de calcul grâce à l’architecture
Mixture-of-Experts (MoE), qui n’active que les sous-modèles nécessaires à
chaque requête. DeepSeek a réussi à entraîner son modèle en consommant
seulement un dixième des heures GPU nécessaires à Llama 3.1 de Meta, malgré
l'utilisation par ce dernier de puces plus récentes. L'entraînement a mobilisé
2 000 puces NVIDIA H800, contre 25 000 pour ChatGPT-4 et 16 000 pour Llama 3.1.
L’empreinte carbone de DeepSeek s’en trouve également réduite, les H800 étant
moins énergivores que d’autres puces NVIDIA utilisées notamment pour ChatGPT.
Bien que l'utilisation
plus efficace des ressources par DeepSeek puisse réduire son empreinte carbone,
notamment en limitant la dépendance aux serveurs et la consommation d'eau, les
experts avertissent que ces gains pourraient être rapidement compensés par une
hausse exponentielle de la consommation à mesure que les modèles d'IA se
généralisent.
Quel avenir pour une IA
plus durable
L’empreinte
environnementale de l’IA devient un enjeu central. L’étude souligne plusieurs
pistes pour un développement plus responsable parmi lesquelles l’optimisation
des infrastructures en privilégiant des puces plus économes comme les TPUs de
Google, un encadrement législatif portant sur des standards environnementaux et
l’hébergement sur data centers alimentés par des énergies renouvelables. Par
exemple, héberger l'entraînement de ChatGPT en France plutôt qu'aux États-Unis
réduirait les émissions jusqu’à trois fois, grâce à une plus forte part
d'énergies renouvelables dans le mix énergétique français.
Selon Alexis Normand, CEO & cofondateur de Greenly : « Avec l’arrivée de DeepSeek, la bataille des modèles d’IA ne se joue plus seulement sur la performance, mais aussi sur l’efficacité énergétique.
La question reste ouverte : est-ce que tous les
géants de l’IA générative suivront-ils cette voie ou continueront-ils à
privilégier la puissance au détriment de l’environnement ? »
Les usages des IA génératives se diversifient et deviennent même des tendances populaires sur les réseaux sociaux, telles que les "starter packs" inspirés des films du studio Ghibli. Ces ensembles, souvent composés d'objets esthétiques et de produits de consommation, sont largement partagés et imités en ligne. Cependant, cette consommation, bien que motivée par une quête de style ou d'identité, entraîne une surconsommation d’énergie et d’eau. Rien que la trend “Starter Pack” a généré plus de 700 millions de visuels. Pour générer une image de ce type, c’est 3,5 L d’eau, 29h d’équivalent lumière, 1 recharge de smartphone.