Le phénomène ChatGPT et les autres intelligences artificielles du même type sont au cœur de toutes les attentions. Mais quid de leur impact environnemental ?
Est-ce que l’intelligence artificielle est aussi néfaste pour la planète que les blockchains et les cryptomonnaies, Bitcoin en tête ? Le succès immédiat de ChatGPT cache-t-il un vrai problème écologique ? Si cette nouvelle technologie pourrait permettre aux entreprises de gagner énormément en productivité dans bien des domaines, elle affiche aussi une empreinte carbone à faire pâlir.
Une étude de l’Université de Californie estime que rien que la phase d’entraînement de ChatGPT (l’apprentissage de savoirs en « scannant » de très nombreux documents) a nécessité la production de 552 tonnes d’équivalent CO2. En effet, les estimations pour l’entraînement de GPT-3 (l’avant dernière version de l’IA) s’élèvent à 1 287 MWh d’électricité. Cela correspond à l’équivalent de… 205 vols aller-retour entre Paris et New-York ou un aller-retour de la Terre à la Lune en voiture.
Une empreinte carbone particulièrement lourde
Outre l’entraînement de ChatGPT, le nombre très élevé de sollicitations au quotidien sur toute la planète a aussi un coût écologique non négligeable. En février dernier, UBS estimait à 13 millions le nombre d’utilisateurs qui soumettent des requêtes chaque jour à ChatGPT. L’IA connaît actuellement une croissance plus forte que TikTok. La maison-mère de l’IA, OpenAI, a passé un accord avec Microsoft (qui est un actionnaire majeur de la start-up) pour utiliser son cloud Azure, c’est-à-dire ses serveurs connectés, pour faire tous les calculs nécessaires aux réponses à apporter aux requêtes soumises par les utilisateurs payants et gratuits.
« Les centres de données actuels et l’infrastructure que nous avons en place ne seront pas en mesure de faire face à [la course à l’IA générative]. C’est trop. »
Martin BouchardFondateur de Qscale
Il faut en effet savoir que toute question envoyée à ChatGPT nécessite « au moins quatre à cinq fois plus de calculs pour générer ses réponses qu’une recherche sur le moteur Google ». C’est le Québécois Martin Bouchard, cofondateur de QScale, société spécialisée dans la création de centres de traitement de données inscrits dans une logique de développement durable, qui a établi cette estimation fin 2022.
L’IA, une nouvelle technologie qui est tout sauf écologique
« Les centres de données actuels et l’infrastructure que nous avons en place ne seront pas en mesure de faire face à [la course à l’IA générative], a déclaré Bouchard. C’est trop. » Et c’est aussi une des raisons pour lesquelles la base de données de ChatGPT n’a pas été mise à jour depuis septembre 2021. Le poids des calculs seraient devenus trop lourds s’il avait fallu continuer à actualiser l’IA.
Kasper Groes Albin Ludvigsen, data scientist danois, a publié des articles très fournis sur Medium fin mars dernier pour détailler son estimation de la consommation quotidienne d’énergie nécessaire pour faire fonctionner ChatGPT. Avec 13 millions d’utilisateurs à raison de 15 questions par jour en moyenne, le Danois estime que l’IA nécessiterait environ 5 787.2 KWh par heure pour répondre à toutes les requêtes soumises. Soit 4 millions de KWh par mois.
Au regard de la façon dont l’électricité est produite dans l’ouest américain, où sont situés les data centers Azure de Microsoft utilisés par ChatGPT, on peut estimer que, chaque mois, l’IA émettrait environ 1 579 tonnes équivalent CO2. Mais cela reste de simples hypothèses – et sans doute la fourchette haute –, car on ne connaît pas avec précision le nombre de requêtes moyen par utilisateur chaque jour… A minima, selon Kasper Groes Albin Ludvigsen, le fonctionnement de ChatGPT (version GPT-3) équivaut à celui d’une ville de 175 000 habitants. Et GPT-4, 500 fois plus puissante, est nettement plus gourmande…
À lire aussi
Des data centers beaucoup trop polluants
Utilisés pour les calculs de la blockchain et des cryptomonnaies, dans le cadre de l’informatique quantique, stocker des données dans le cloud ou encore pour faire fonctionner les intelligences artificielles (car il n’y a pas que ChatGPT, loin de là), les data centers pèsent de plus en plus lourds dans la facture énergétique mondiale.
L’IEA – l’Agence internationale de l’énergie – estime que ces centres de données émettent déjà environ 1% des gaz à effet de serre dans le monde. Il faut dire que, depuis 2010, le nombre d’internautes a doublé et le trafic global sur Internet a été multiplié par 20. Désormais, un peu plus de 5 milliards d’individus (deux personnes sur trois) se connectent régulièrement, sur un ordinateur ou un smartphone.
Un problème qui ne fait que commencer
Même si des efforts sont faits pour limiter la consommation d’énergie des centres de données, les nouvelles technologies émergentes (crypto, deep learning, etc.) font grimper la facture énergétique ces dernières années. Néanmoins, la hausse n’est pas corrélée, heureusement car des efforts sont faits à la fois sur l’efficacité du refroidissement des data centers et sur le mix énergétique, en Europe notamment.
Le ratio performance-consommation énergétique des processeurs et des serveurs ne cesse de s’améliorer. Et les Gafam s’emploient très activement à décarboner leurs énormes centres de données, car la plupart a annoncé viser la neutralité carbone d’ici 2030. Des engagements pris… avant l’explosion de l’intelligence artificielle auprès du grand public et des entreprises. L’enjeu Net Zero n’en est donc que plus essentiel.