Ces dernières années, Chatgpt a explosé en popularité, avec Près de 200 millions d’utilisateurs Le pompage d’un total de plus d’un milliard d’invites dans l’application chaque jour. Ces invites peuvent sembler compléter les demandes de l’air mince.
Mais dans les coulisses, intelligence artificielle (AI) Les chatbots utilisent une quantité massive d’énergie. En 2023, les centres de données, qui sont utilisés pour former et traiter l’IA, étaient responsables de 4,4% de la consommation d’électricité Aux États-Unis. À travers le monde, ces centres composent environ 1,5% de la consommation d’énergie mondiale. Ces chiffres devraient monter en flèche, au moins doubler d’ici 2030 À mesure que la demande d’IA augmente.
« Il y a à peine trois ans, nous n’avions même pas encore de chatte », a déclaré Alex de Vries-Gaoun chercheur émergent en matière de développement durable chez Vrije Universiteit Amsterdam et fondateur de Digiconomisteune plate-forme dédiée à l’exposition des conséquences involontaires des tendances numériques. « Et maintenant, nous parlons d’une technologie qui sera responsable de près de la moitié de la consommation d’électricité par les centres de données dans le monde. »
Mais qu’est-ce qui rend les chatbots IA si fortement en énergie? La réponse réside dans l’échelle massive des chatbots d’IA. En particulier, il y a deux parties d’IA qui utilisent le plus d’énergie: la formation et l’inférence, dites Mosharaf Chowdhuryun informaticien de l’Université du Michigan.
Pour former des chatbots d’IA, les modèles de grands langues (LLM) reçoivent d’énormes ensembles de données afin que l’IA puisse apprendre, reconnaître les modèles et faire des prédictions. En général, il y a une « plus grande croyance est une meilleure croyance » avec la formation de l’IA, a déclaré De Vries-Gao, où des modèles plus importants qui prennent plus de données sont censés faire de meilleures prédictions.
« Donc, ce qui se passe lorsque vous essayez de faire une formation, c’est que les modèles sont devenus si grands, ils ne rentrent pas dans un seul GPU (unité de traitement graphique); ils ne rentrent pas dans un seul serveur », a déclaré Chowdhury à Live Science.
Pour donner un sentiment d’échelle, 2023 Recherche Par de Vries-Gao a estimé qu’un seul serveur NVIDIA DGX A100 exige jusqu’à 6,5 kilowatts de puissance. La formation d’un LLM nécessite généralement plusieurs serveurs, chacun ayant en moyenne huit GPU, qui se déroulent ensuite pendant des semaines ou des mois. Dans l’ensemble, cela consomme des montagnes d’énergie: on estime que la formation GPT-4 d’Openai a utilisé 50 gigawattheures d’énergie, équivalentes à alimenter San Francisco pendant trois jours.
L’inférence consomme également beaucoup d’énergie. C’est là qu’un chatbot AI tire une conclusion de ce qu’il a appris et génère une sortie à partir d’une demande. Bien qu’il fasse beaucoup moins de ressources informatiques pour exécuter un LLM après sa formation, l’inférence est fortement approfondie en raison du grand nombre de demandes faites aux chatbots d’IA.
En juillet 2025, Openai états Que les utilisateurs de Chatgpt envoient plus de 2,5 milliards d’invites chaque jour, ce qui signifie que plusieurs serveurs sont utilisés pour produire des réponses instantanées pour ces demandes. Cela ne doit même pas considérer les autres chatbots largement utilisés, y compris les Gémeaux de Google, qui, selon les représentants, devenir bientôt l’option par défaut Lorsque les utilisateurs accèdent à la recherche Google.
« Donc, même dans l’inférence, vous ne pouvez pas vraiment économiser d’énergie », a déclaré Chowdhury. « Ce ne sont pas des données vraiment massives. Je veux dire, le modèle est déjà massif, mais nous avons un nombre massif de personnes qui l’utilisent. »
Des chercheurs comme Chowdhury et De Vries-Gao travaillent maintenant à mieux quantifier ces demandes énergétiques pour comprendre comment les réduire. Par exemple, Chowdhury garde un ML Energy Leadboard Cela suit la consommation d’énergie d’inférence des modèles open source.
Cependant, les exigences énergétiques spécifiques des autres plates-formes d’IA génératrices sont principalement inconnues; Les grandes entreprises comme Google, Microsoft et Meta gardent ces chiffres privés, ou fournissent des statistiques qui donnent peu de choses sur l’impact environnemental réel de ces applications, a déclaré De Vries-Gao. Cela rend difficile de déterminer la quantité d’énergie que l’IA utilise vraiment, quelle sera la demande d’énergie dans les années à venir et si le monde peut suivre.
Les personnes qui utilisent ces chatbots, cependant, peuvent faire pression pour une meilleure transparence. Cela peut non seulement aider les utilisateurs à faire des choix plus responsables de l’énergie avec leur propre utilisation d’IA, mais également à pousser des politiques plus robustes qui tiennent les entreprises responsables.
« Un problème très fondamental avec les applications numériques est que l’impact n’est jamais transparent », a déclaré De Vries-Gao. « Le ballon est avec les décideurs politiques pour encourager la divulgation afin que les utilisateurs puissent commencer à faire quelque chose. »

