Ce que consomme l'IA : point de situation

1. Ce que consomme l’IA aujourd’hui : entre puissance et opacité

 

Imaginez un étudiant studieux, café à la main, en pleine nuit blanche pour apprendre ses cours. L'entraînement d’un modèle d’intelligence artificielle, c’est un peu pareil… mais au lieu d’un cerveau, on a des milliers de GPU, et à la place du café, ce sont des mégawatts d’électricité qui défilent. Et tout cela pour que, quelques semaines plus tard, nous puissions demander à ChatGPT d’écrire un poème en alexandrins sur les pandas tristes.

 

Bienvenue dans les coulisses énergétiques de l’IA !

Pour ceux qui, comme moi, travaillent dans la production de contenus de formation: textes, images, vidéos. Cette question de la consommation énergétique de l’IA reste encore largement une boîte noire. On sait que de l’énergie est dépensée, beaucoup même, mais il est souvent difficile de comprendre où, comment et combien.

 

1.1. L’entraînement

Entraîner un grand modèle d’IA, c’est comme apporter de la connaissance à un enfant de cinq ans… sauf qu’il faut lui montrer tout Internet, plusieurs fois, et en essayant de lui inculquer une morale et un savoir-être malgré tous les tweets les plus toxiques qu’il a en mémoire.

 

Prenons GPT-3. Ce modèle, lancé par OpenAI en 2020, a nécessité environ 1 287 mégawattheures (MWh) pour être entraîné, pour un montant d’émissions estimé à 552 tCO2e. Pas mal, mais l’histoire ne s’arrête pas là : en fonction de l’endroit où se trouvent les data centers utilisés (France, Chine, Islande…), l’empreinte carbone peut varier d’un facteur 50. Pourquoi ? Parce que l’électricité, selon qu’elle est produite au charbon ou à l’hydraulique, n’a pas du tout le même parfum de CO₂.

 

Pour se faire une idée plus parlante : entraîner GPT-3, c’est plus de 200 allers-retours Paris–New York en avion, au niveau des émissions de CO₂. Quant à GPT-4 et GPT-5 ? 10 fois plus ? 100 fois plus ? Malheureusement, il n’y a pas de chiffres officiels, mais un article de Towards Data Science estime l’entrainement de GPT-4 à plus de 50 000 MWh. Une chose est sûre, plus on monte en puissance, plus ça chauffe...

 

Maintenant on pourrait se dire qu’un entrainement ne se réalise qu’une seule fois, et que finalement cela ne représente pas grand-chose si cela permet de générer des milliards de requêtes par la suite ! Mais la véritable consommation énergétique de l’IA est à venir…

 

1.2. L’usage

L’entraînement, c’est la partie émergée de l’iceberg. Une fois le modèle prêt, il faut le faire tourner.

Selon les études disponibles, une requête textuelle peut consommer de quelques dixièmes de wattheure à plusieurs wattheures, selon le modèle utilisé, la longueur de la réponse, le niveau de raisonnement demandé, ou l’infrastructure mobilisée.

 

Voici des estimations de consommation énergétique que l’on peut trouver en 2025 grâce dans une et à leur tableau comparatif interactif (que je vous incite à consulter) :

  • 0,61 Wh pour GPT-4o mini (300 tokens)

  • 2,26 Wh pour GPT-4 (300 tokens)

  • 7,4 Wh pour GPT-5 (medium) (300 tokens)

  • 14,1 Wh pour GPT-5 (high) (300 tokens)

  • 27,79 Wh pour GPT-5 (high) (1500 tokens)

 

Mais il existe toujours un flou qui s’explique par plusieurs facteurs :

  • Les constructeurs et entreprises ne publient pas toujours leurs chiffres (merci, NDA et stratégie commerciale) ;
  • Les modèles évoluent à une vitesse fulgurante (ce qui est vrai aujourd’hui est faux demain, et ce fut le cas durant l’écriture de cet article) ;
  • Et chaque réponse est un mini-algorithme qui dépend d’une myriade de paramètres techniques. Il est donc extrêmement difficile de standardiser la mesure (faut-il calculer par tokens générés ? Par type de requête ? Par taille de prompt ?).

Une autre étude obtient des résultats différents et estime qu’une requête de type génération de texte consomme en moyenne 60 fois moins qu’une génération d’image.

Si l’on adopte une hypothèse prudente (optimiste) de 2 Wh par requête textuelle d’environ 300 tokens (1 token = 0,75 mot), et que l’on considère un volume de l’ordre du milliard de requêtes sur GPT-4 quotidiennes, la consommation annuelle dépasse les 700 GWh. Ce chiffre dépend bien entendu des hypothèses retenues (il semblerait que nous soyons plutôt autour des 2,5 milliards aujourd’hui pour ChatGPT, et le tout sur GPT-5 majoritairement), mais il illustre un phénomène central : l’effet cumulatif.

 

D’après le Shift Project, la prépondérance de la phase d’inférence par rapport à l’entrainement s’effectue au bout de quelques semaines seulement. Mais surtout d’après ce think tank, l’usage de l’IA en Europe pourrait doubler d’ici 2030 : en Irlande, les centres de données consomment déjà plus de 20 % de l’électricité disponible, dépassant la consommation des ménages. Sans changement, l’IA pourrait représenter jusqu’à 35 % de la consommation électrique des centres de données d’ici 2030, contre 15 % en 2025.

 

1.3. Des ordres de grandeur

Pour comprendre l’ampleur du phénomène, il faut élargir l’échelle.

Les centres de données consommaient plus de 450 térawattheures (TWh) par an en 2024 (d’après l’AIE ; 420 d’après Shift Projet). L’IA représenterait 10 à 15 % de cette énergie selon les estimations, mais ce chiffre grimpe !

À ce rythme, les data centers pourraient consommer plus de 1 000 TWh en 2030, voire 1 300 TWh en 2035 (1 500 TWh en 2030 sans évolution majeure dans les dynamiques actuelles d'après le Shift Project), soit presque le double d’aujourd’hui. Avec, pour partie de ce déluge énergétique, nos chères intelligences artificielles.

 

En Europe, cette demande pourrait quadrupler d’ici 2035, représentant jusqu’à 7,5 % de la consommation électrique française. Sans action, cette trajectoire pourrait générer jusqu’à 920 MtCO₂e/an en 2030, soit l’équivalent des émissions annuelles la France multiplié par deux. Un scénario incompatible avec les objectifs climatiques européens.

 

Bilan

Ce qu’il faut retenir ?

  • L’IA, ce n’est pas du vent : c’est du silicium, des câbles, de l’eau pour le refroidissement, et beaucoup d’électricité.
  • Chaque requête n’est pas « gratuite » : elle a un coût invisible, mais bien réel.
  • Les chiffres sont souvent approximatifs, mais tous convergent vers une même tendance : l’IA consomme. Beaucoup. Et de plus en plus.

On aurait pu croire que l’intelligence artificielle serait légère comme un nuage, mais en réalité, elle n’a de « cloud » que le nom.

 


 

2. D’où vient cette consommation ? La chaîne énergétique de l’IA

L’intelligence artificielle donne l’impression d’être immatérielle, presque abstraite. On parle de “cloud”, de modèles, d’algorithmes. Pourtant, derrière chaque interaction se trouvent des machines bien réelles, des infrastructures énergétiques et des ressources matérielles.

 

Pour comprendre l’impact de l’IA, il faut donc regarder au-delà de l’écran et remonter la chaîne : des puces de calcul jusqu’à l’électricité qui alimente leur refroidissement en passant par les matériaux qui les composent.

 

2.1. Les data centers

Imaginez un hangar climatisé rempli de machines qui bourdonnent à longueur de journée, comme une ruche hyperactive… mais qui carbure à l’électricité et non au pollen. Ce sont les fameux data centers là où résident toutes les opérations de l’IA.

 

Chaque fois qu’on parle à ChatGPT, une machine quelque part se réveille, bosse comme un forcené pendant quelques secondes, puis retourne en veille (spoiler : avec 1 milliard de requêtes par jour pour ChatGPT seulement, les GPU n’ont même pas droit à une milliseconde de pause). Vous obtenez ainsi des centres de données qui tournent non-stop.

 

Ces centres consomment de l’énergie pour :

  • faire tourner les puces (principalement des GPU, très énergivores) ;
  • refroidir tout ce petit monde (avec de l’air, de l’eau…) ;
  • faire fonctionner le réseau (stockage, alimentation, redondance, sécurité…).

On utilise souvent le PUE (Power Usage Effectiveness) pour évaluer l’efficacité d’un data center : un PUE de 2 signifie que pour 1 kWh utilisé par les serveurs, on en dépense 1 autre pour le refroidissement et le reste. Aujourd’hui, les meilleurs centres de données descendent à 1,1, voire 1,05, tandis que la moyenne mondiale reste autour de 1,56.

 

2.2. L’électricité en amont

On a parfois tendance à croire que l’électricité est propre, simplement parce qu’on ne voit pas la fumée sortir de la prise. Mais si cette électricité a été produite par une centrale à charbon ou au gaz, elle transporte une belle dose de CO₂ invisible.

 

Le mix énergétique, c’est la répartition entre les différentes sources d’électricité (nucléaire, solaire, charbon, hydraulique…). Et il varie énormément selon le pays, voire la région.

Exemples :

  • Un data center alimenté en Islande (quasiment 100 % énergie renouvelable) aura une empreinte carbone très faible (électricité 100 % renouvelable).
  • Le même centre en Virginie (États-Unis), alimenté en partie par du gaz ou du charbon, verra son impact multiplié par 5 à 10 (en raison d’un mix énergétique encore dépendant du gaz et du charbon).
  • En Chine ou en Inde où le charbon domine encore, l’impact est souvent bien pire.

C’est exactement pour ça que deux entraînements identiques de GPT-3 peuvent générer des émissions de CO₂ variant d’un facteur 50, selon leur emplacement.

 

2.3. Les ressources matérielles

Mais l’histoire ne s’arrête pas là. Produire de l’IA, c’est aussi produire du matériel. Et ce matériel ne pousse pas dans les arbres.

 

Voici ce qu’il faut pour faire tourner l’intelligence artificielle :

  • Des puces électroniques : bourrées de métaux rares comme le néodyme, le tantale ou le cobalt. Ces métaux sont extraits dans des conditions souvent douteuses (impact social et environnemental inclus).
  • De l’eau : beaucoup d’eau. Pour fabriquer les puces, mais aussi pour refroidir les data centers. Certains sites utilisent des millions de litres par jour pour maintenir une température acceptable. Même si l’usage de l’eau en soi n’est pas forcément un problème, il pourrait le devenir lorsque cette denrée se raréfie comme dans le cas de l’ouverture d’un data center en plein Mexique.
  • Du silicium, du cuivre, de l’aluminium… et pas mal de CO₂ intégré dans la fabrication.

Un GPU H100 de Nvidia (la star actuelle du calcul IA dans les data centers) pèse environ 1,7 kg. Mais son poids environnemental est bien plus lourd : production énergivore, dépendance à des chaînes d’approvisionnement globalisées, recyclabilité très faible.

 

Chaque GPU contient des dizaines de matériaux imbriqués, encapsulés dans des résines très résistantes, et gravées en multiples couches à échelles nanométriques, ce qui rend le recyclage très compliqué. On extrait donc un peu de valeur matière comme les métaux précieux, le cuivre, l’aluminium, mais le reste est généralement trop cher à recycler par rapport à leur extraction. Sans compter l’énergie consommée par ce recyclage.

 

Bref, l’IA n’est pas seulement numérique. C’est une industrie lourde déguisée en assistant conversationnel.

 

Bilan

Pour résumer cette deuxième étape :

  • L’IA n’existe pas dans un “cloud” éthéré : elle repose sur des tonnes de machines très concrètes.
  • Ces machines ont besoin d’électricité, de refroidissement, de métaux rares et d’eau.
  • Leur empreinte écologique dépend énormément de l’endroit où elles sont situées, de comment elles sont construites, et de notre capacité à les recycler.

Et surtout : plus on veut une IA rapide, puissante, disponible partout, plus il faut l’alimenter comme une bête de course. Avec de l’énergie… et de la matière.

 

3. Mesurer et comparer, pour éclairer les décisions

L’intelligence artificielle n’est plus une curiosité technologique. Elle est devenue une infrastructure. Et comme toute infrastructure, elle consomme des ressources, mobilise des chaînes industrielles et produit des externalités.

 

La question n’est donc plus de savoir si l’IA a un impact énergétique. Elle en a un.
La véritable question est désormais : comment l’encadrer ?

 

3.1. Une mesure plus fiable

L’impact environnemental de l’IA est abordé à partir d’ordres de grandeur, parfois spectaculaires, souvent hétérogènes. Les méthodologies varient, les périmètres diffèrent, et la comparaison entre modèles reste complexe.

Or, toute politique énergétique sérieuse commence par une mesure partagée.

 

Des initiatives récentes visent précisément à structurer cette évaluation. Le projet Ecologits, par exemple, propose une méthodologie open source permettant d’estimer l’empreinte énergétique et carbone de l’inférence des modèles d’IA selon des hypothèses explicites et reproductibles.

 

L’enjeu n’est pas d’obtenir un chiffre parfait (il n’existe pas) mais de créer un cadre commun de comparaison.

Cette logique marque un changement important : on ne parle plus seulement de puissance de calcul, mais aussi d’efficacité énergétique par tâche.

 

3.2. Donner de la visibilité à la mesure

Des plateformes publiques commencent désormais à appliquer ces méthodologies afin de comparer des modèles d’IA conversationnels sur la base de leur consommation estimée par requête. Le site compar:IA, porté par l’écosystème beta.gouv, en constitue un exemple.

 

Pour la première fois, des modèles peuvent être mis côte à côte non seulement sur leurs performances, mais aussi sur leur sobriété estimée.

 

C’est primordial, car en matière environnementale, la visibilité influence les comportements. Lorsqu’un critère devient comparable, il devient décisionnel.

 

Demain, une administration, une université ou une entreprise pourrait intégrer l’empreinte énergétique dans ses critères de choix technologique, au même titre que la sécurité ou le coût financier.

 

Bilan

L’impact énergétique de l’IA n’est plus totalement invisible.

Après une phase marquée par l’opacité et les estimations hétérogènes, des méthodologies communes émergent pour mesurer l’empreinte des modèles à l’usage. Des outils publics commencent même à rendre ces différences comparables.

 

Les chiffres restent imparfaits et dépendants d’hypothèses. Mais un changement important est en cours : l’impact devient mesurable, donc discutable, donc pilotable.

 

En matière énergétique, la transparence est souvent la première étape vers la sobriété.
L’IA semble entrer dans cette nouvelle phase, et j’espère que mon article y a contribué, aussi modeste soit-il !

 

Bonus

Et si vous voulez vérifier par vous-même… Parce que soyons honnêtes : tout le monde peine à y voir clair. Voici quelques pistes supplémentaires pour explorer le sujet un peu plus loin (en anglais) :

Measuring the environmental impact of AI inference | Google Cloud Blog

Measuring_the_environmental_impact_of_delivering_ai_at_google_scale.pdf

We did the math on AI’s energy footprint. Here’s the story you haven’t heard. | MIT Technology Review


Petit conseil : Prenez ces chiffres avec précaution. Comme on l’a vu, les intérêts économiques ne facilitent pas la transparence. Mais ces lectures restent instructives !

 

 

Article rédigé par Jérémy Demolliens, responsable du pôle Réalités immersives, Lab e·nov™, IFP School.