Actu

Une nouvelle étude réévalue la consommation électrique de ChatGPT

17 février 2025
Par Pierre Crochart
Une nouvelle étude réévalue la consommation électrique de ChatGPT
©Iryna Imago/Shutterstock

On a coutume de dire qu’une requête sur ChatGPT consommerait jusqu’à six fois plus qu’une recherche Google. Et si c’était faux ?

Ou plutôt : et si ce n’était plus exact ? C’est le postulat d’une étude publiée la semaine dernière par Epoch AI, un cabinet d’études spécialisé dans l’intelligence artificielle. D’après elle, une requête sur ChatGPT-4o – le modèle le plus populaire à l’heure actuelle – ne consommerait que 0,3 Wh par requête, contre plus de 3 Wh comme nous le pensions jusqu’alors.

Une IA plus économe que prévu ?

Les précédentes estimations, explique Epoch AI, étaient basées sur un scénario du pire, en imaginant que les services d’OpenAI fonctionnaient à 100 % de leur capacité et avec des cartes graphiques Nvidia A100 d’ancienne génération. La réalité serait plus mesurée, assure le cabinet. Les serveurs ne mobiliseraient, la plupart du temps, que 70 % de leur puissance, et utilisent des GPU Nvidia H100, plus performants et plus efficients.

Des mesures qui feraient donc tomber le bilan énergétique du modèle d’OpenAI à 0,3 Wh par requête. Notez qu’il reste largement supérieur à celui d’une requête Google (environ 0,0003 Wh d’après le principal intéressé). D’après les derniers chiffres partagés par OpenAI, un milliard de messages s’échangent tous les jours sur ChatGPT, ce qui représente donc 300 MWh par jour, soit la consommation d’électricité quotidienne d’environ 27 000 foyers français.

On n’est donc pas dans l’efficience pure – d’autant que la projection d’OpenAI en matière de consommation annuelle serait fixée à 226,8 GWh. L’équivalent d’une charge complète de trois millions de voitures électriques, expose Frandroid.

Attention à ne pas se tromper de combat

Cette estimation, rappelons-le, utilise pour base ChatGPT-4o et pas les modèles alternatifs dits réflexifs, comme o1 ou o3-mini, qui font s’envoler la consommation électrique de chaque requête. Elle représente toutefois ce qu’on imagine être une bonne moyenne pour les quelque 300 millions d’utilisateurs et d’utilisatrices hebdomadaires du service d’OpenAI.

Un bilan qui, au fil des progrès technologiques, ne fera que s’améliorer… au niveau individuel. Comme souvent avec l’écologie, le problème est moins du côté du particulier que de l’industriel. En l’occurrence, OpenAI prévoit la construction d’innombrables centres de données pour soutenir l’inévitable déploiement de l’intelligence artificielle dans la plupart des secteurs d’activité du monde. Et nous ne parlons là que d’un seul acteur de l’IA.

La semaine dernière, lors du sommet pour l’action sur l’intelligence artificielle qui s’est tenu à Paris, la licorne parisienne Mistral a notamment annoncé la construction de son premier centre de données dans l’Hexagone.

À lire aussi

Article rédigé par
Pierre Crochart
Pierre Crochart
Journaliste