Revue

Revue

Quel impact environnemental de l’intelligence artificielle ?

en
La consommation de ressources et d’énergie nécessaire au fonctionnement des systèmes d’intelligence artificielle (IA) est un sujet de plus en plus médiatisé. Cette problématique fait l’objet de controverses majeures, les données précises manquant pour l’appréhender correctement de manière prospective. Les opérateurs ne communiquent pas de façon transparente sur la consommation en énergie et en ressources des systèmes d’IA qu’ils conçoivent et exploitent. Néanmoins, certains travaux et des données indirectes permettent d’établir des ordres de grandeur.

En 2023, selon l’Agence internationale de l’énergie (AIE), la consommation des centres de données (data centers) représentait 2 % de la demande d’électricité dans le monde, dont 80 % liés aux opérations de calcul et aux besoins de refroidissement des infrastructures. Elle pourrait doubler à l’horizon 2026. Les prélèvements en eau des centres de données de Meta, Google et Microsoft étaient de 2,2 milliards de mètres cubes en 2022, soit le double des prélèvements annuels d’un pays comme le Danemark. En effet, les calculateurs chauffent et il est nécessaire de les refroidir pour préserver les composants électroniques, ce qui oblige encore, dans la majorité des cas, à recourir à des circuits d’eau froide. Du fait de la dominance des GAFAM (Google, Apple, Facebook, Amazon), la majorité de cette consommation de ressources a lieu aux États-Unis (40 % pour l’électricité), bien que l’emprise géographique de ces acteurs s’étende.

Depuis environ cinq ans, l’IA constitue le principal facteur de croissance des besoins en ressources des centres de données, aux côtés des cryptomonnaies. En effet, les modèles d’IA se sont complexifiés et leur entraînement se base sur des jeux de données de taille de plus en plus importante. Entre le premier modèle d’IA de Google en 2017 (Transformer) et la dernière version, Gemini Ultra, la puissance de calcul nécessaire a augmenté d’un facteur 7.

Volume de calcul d’entraînement des principaux modèles d’apprentissage automatique par domaine, 2012-2023 (en pétaFLOPS*)

*FLOPS : FLoating-point Operations Per Second / opérations en virgule flottante par seconde. PétaFLOPS = 1015 FLOPS.

Source : AI Index Report 2024, p. 51.

Davantage de calcul implique une plus grande consommation d’électricité. La phase d’entraînement de ChatGPT-3 aurait nécessité 1,29 gigawattheure [1] (soit la consommation électrique annuelle moyenne de près de 600 Français). Cette estimation concerne la phase d’entraînement du modèle, mais pas celle de son utilisation par le public. Une requête sur ChatGPT-3 ou Bloom consommerait autour de 4 Wh, soit la consommation d’une ampoule LED pendant 15 minutes. La génération d’images serait quant à elle 60 fois plus gourmande en énergie que la génération de texte. Ainsi, l’entraînement des modèles constitue un poste fixe de consommation important, mais il est rapidement rattrapé par le poste variable lié aux usages, au vu de la demande pouvant atteindre plusieurs millions de requêtes par jour pour des modèles comme ChatGPT-3.

Concernant les besoins ...