Pour la première fois, une grande entreprise de technologie a décidé de révéler la quantité exacte d’énergie consommée par une simple requête à un chatbot utilisant l’intelligence artificielle. C’est le géant américain Google qui a publié un rapport technique détaillé sur son modèle Gemini, expliquant qu’une requête moyenne nécessite environ 0,24 watt-heure d’électricité. Mais à quoi cela correspond-il concrètement ?
Ce chiffre équivaut à peu près à une seconde d’utilisation d’un four à micro-ondes ou à neuf secondes de visionnage de la télévision. Bien que ces chiffres soient faibles d’un point de vue individuel, ils prennent une toute autre dimension lorsqu’on les multiplie par le nombre colossal de demandes quotidiennes, un volume qui ne cesse d’augmenter avec l’expansion des assistants virtuels.
Jusqu’à présent, aucune des grandes entreprises technologiques n’avait publié de donnée aussi précise sur la consommation énergétique de leurs IA. Ce rapport marque donc un point de départ essentiel, permettant à des acteurs comme Google, OpenAI, Microsoft, Meta ou encore Mistral de mieux cerner l’impact écologique de leurs services et de se comparer dans un contexte où la consommation énergétique de ces systèmes devient un enjeu majeur.
Les chiffres en détail
Le rapport de Google se distingue par sa précision. Il ne se limite pas à la consommation des puces qui traitent les modèles d’intelligence artificielle, appelées aussi TPU (Tensor Processing Units), responsables de 58 % de leur consommation. Il inclut également l’énergie nécessaire aux serveurs, notamment la CPU et la mémoire, représentée à hauteur de 25 %. S’ajoutent les systèmes de secours en cas de panne (10 %) et ceux dédiés au refroidissement et à la conversion d’énergie (8 %).
La consommation d’eau pour réduire la température des serveurs est aussi comptabilisée, chaque requête à Gemini correspondant à environ cinq gouttes d’eau. En langage technique, cette étape s’appelle « inference », c’est-à-dire l’utilisation du modèle déjà entraîné pour générer une réponse. À l’inverse, l’entraînement de ces modèles, qui dure souvent plusieurs semaines et consomme une quantité d’énergie nettement plus élevée, n’est pas pris en compte dans cette estimation.
Une avancée significative
Auparavant, les analystes devaient se baser sur des estimations approximatives. On évoquait alors une consommation d’environ 3 Wh par requête, soit douze fois plus que la valeur actuelle. Sam Altman, le PDG d’OpenAI, évoque quant à lui une consommation de 0,34 Wh pour ChatGPT, un chiffre plus proche de celui fourni par Google. Par ailleurs, la société EpochAI a publié des chiffres similaires, indiquant que chaque requête consommerait en moyenne 0,3 Wh, tandis que Mistral AI a publié des données davantage axées sur l’impact environnemental, révélant qu’une page de texte produirait environ 1 gramme de CO₂.
D’autres chiffres restent à connaître : une requête effectuée avec Llama nécessiterait en moyenne 1 Wh, la génération d’une image entre 0,3 et 1,2 Wh, tandis que la production d’une courte vidéo avec l’outil Sora pourrait atteindre presque 1 kWh toutes les cinq secondes. Google reconnaît que son rapport ne prend pas en compte la consommation liée à la circulation des données en dehors de ses centres ou celle des appareils utilisateurs, mais il demeure le calcul le plus solide jamais publié à ce jour.
Qui supporte ces coûts ?
Ce sont les grandes entreprises de la tech, responsables de la gestion des centres de données, qui supportent cette consommation énergétique : Google pour Gemini, OpenAI via Microsoft pour ChatGPT, Meta pour ses propres modèles, et Mistral en Europe.
L’augmentation des demandes en énergie a suscité des inquiétudes dans plusieurs régions du monde, où certains évoquent même la réactivation de centrales à charbon ou nucléaires pour faire face à la demande croissante. Dans son rapport, Google met en avant ses engagements et ses investissements pour réduire son empreinte carbone, notamment en achetant plus de 22 gigawatts d’énergie issue de sources renouvelables ou nucléaires de dernière génération.
Grâce à ces mesures, Google estime qu’une requête à Gemini pourrait ici générer seulement 0,03 gramme de CO₂ — un chiffre qui, si cette estimation était confirmée, serait quarante-quatre fois inférieur à ses chiffres de l’année précédente et cent fois inférieur aux premières estimations indépendantes réalisées dans le secteur.
Perspectives d’avenir
À mettre en perspective, ces chiffres, lorsqu’ils sont traduits en exemples concrets, semblent moins alarmants qu’on pourrait l’imaginer : dix questions posées à une intelligence artificielle de confiance équivaudraient à environ une minute et demie de télévision. Cent requêtes, à peine un quart d’heure.
Au Royaume-Uni, cent demandes quotidiennes à une IA ne représenteraient qu’une fraction, soit 0,3 %, de la consommation électrique quotidienne d’un citoyen moyen. Aux États-Unis, cette proportion serait encore plus faible : 0,1 %. Cependant, la donne change rapidement lorsqu’on considère des opérations plus gourmandes, telles que la génération d’images, de vidéos ou la recherche approfondie sur des sujets complexes, qui nécessitent beaucoup plus d’énergie.
Face à cette problématique, plusieurs chercheurs appellent à la mise en place d’un standard d’évaluation unique, un peu comme l’étiquette énergétique apposée sur les appareils électroménagers, afin de rendre possible une comparaison réelle de l’impact environnemental des différentes intelligences artificielles. Si les chiffres publiés par Google ne donnent pas une image totalement exhaustive, ils constituent néanmoins une base précieuse pour amorcer cette réflexion.
Car la véritable question de l’impact énergétique de l’intelligence artificielle ne fait que commencer, et à mesure que ces technologies se multiplient et s’intensifient, la nécessité de trouver des solutions durables n’a jamais été aussi pressante.