L'empreinte environnementale insoupçonnée de l’intelligence artificielle générative

Temps de lecture :
6 minutes
Par La Presse Canadienne, 2026
L’IA par-ci, l’IA par-là… L’intelligence artificielle était sur toutes les lèvres en 2025, et ce sera encore assurément le cas cette année.
Les outils d’IA générative, comme un certain ChatGPT, étaient certes déjà connus, mais les derniers mois ont clairement constitué l’apogée de leur démocratisation.
Aussi artificielle soit-elle, l’IA a des impacts environnementaux bien réels. Son utilisation accrue augmente donc son empreinte écologique.
Les experts estiment qu’une requête à ChatGPT nécessite au moins dix fois plus d’électricité qu’une recherche sur Google. À lui seul, le produit phare d’OpenAI attire 800 millions d’utilisateurs et reçoit 18 milliards de requêtes par semaine.
Sachant qu’une conversation moyenne avec ChatGPT consomme également l'équivalent d'un demi-litre d'eau, la quantité de ressources nécessaire est monstrueuse, c’est le moins qu’on puisse dire.
Chaque étape du processus menant à la création de ces populaires applications est associée à un coût environnemental élevé.
Le Programme des Nations unies pour l’environnement (PNUE) a sonné l’alarme à sa dernière assemblée générale, en décembre.
«Les phases d’apprentissage et d’inférence (c’est-à-dire lorsqu’un modèle applique ses connaissances pour répondre à une demande) entraînent une forte consommation d’énergie et d’eau, et ont ainsi une incidence sur le climat, tandis que la production de matériel destiné à l’intelligence artificielle repose sur l’utilisation de terres rares, lesquelles sont souvent extraites dans des régions écologiquement sensibles de pays du Sud. De telles activités peuvent contribuer à la perte de biodiversité, à l’insécurité hydrique et à l’augmentation des déchets d’équipements électriques et électroniques», indique le rapport du PNUE.
Ces préoccupations sont partagées par la Québécoise Sasha Luccioni, une sommité mondiale en matière de recherches sur l’empreinte carbone de l’IA.
«Dans les dernières années, on a vu que le coût énergétique de l’IA monte et que cette énergie vient principalement de sources non renouvelables, alors c’est inquiétant. On a zéro transparence sur les vrais coûts pour la planète», a-t-elle déploré au Sommet de Paris sur l’intelligence artificielle, l’hiver dernier.
Le problème commence à la base, dans les centres de données où se déroulent l'entraînement et le déploiement des modèles d'IA grâce à des ordinateurs super puissants, appelés GPU dans le jargon.
L’énergie utilisée pendant ces millions d’heures d’entraînement cause des effets importants sur la planète.
La lourdeur de ces systèmes nous amène «un pas de plus vers la catastrophe», prévient Frédérick Bruneault, chercheur associé à l’Observatoire international sur les impacts sociétaux de l’IA et du numérique.
Selon une étude de l’Université du Massachusetts, le processus de formation d’un seul modèle produit plus de 625 000 kilogrammes de dioxyde de carbone (CO2), ce qui équivaut à presque cinq fois les émissions d’une voiture moyenne durant toute sa durée de vie.
La complexité croissante des modèles et la fréquence des réentraînements ne font qu’amplifier l'empreinte carbone de l'IA générative.
Remplacer les énergies fossiles par l’hydroélectricité diviserait par 100 le niveau de consommation requis. Or, ce n’est pas la tendance prise par l’industrie, qui privilégie plutôt le gaz naturel ou le charbon.
Le secrétaire général de l’ONU, Antonio Guterres, a d’ailleurs lancé un cri du cœur aux grands acteurs de l’IA avant la conférence de Belém sur les changements climatiques (COP30), l’automne dernier.
«En 2030, l’IA consommera autant d’électricité que le Japon aujourd’hui. J’appelle toutes les grandes entreprises technologiques à alimenter tous les centres de données avec de l’énergie renouvelable d’ici 2030», a-t-il plaidé en référence à la statistique de l’Agence internationale de l’énergie (AIE) selon laquelle l’IA rejette 37 milliards de tonnes de CO2 supplémentaires dans l’atmosphère, soit l’équivalent des émissions annuelles du Japon.
L’AIE s’attend même à ce que la demande énergétique de cette industrie double dans les prochaines années. En 2024, les centres de données qui alimentent les outils d’IA générative représentaient 1,5 % de la consommation mondiale d’électricité (415 TWh), selon un rapport de l’AIE publié en avril dernier.
Ce chiffre devrait grimper à 3 % d’ici 2030 (945 TWh) et pourrait même atteindre 1500 TWh, avance Shift Project, un groupe de réflexion français spécialisé sur cette question.
Pour vous donner une idée, la prévision de 945 TWh correspond à 1,5 fois la production totale d’électricité du Canada en 2023 (613 TWh), selon Statistique Canada.
Google, Microsoft, OpenAI et d’autres géants du domaine de l’IA ont manifesté leur intérêt pour la technologie de l’énergie de fusion – qui combine deux noyaux atomiques légers pour en former un seul plus lourd – comme moyen d'alimenter leurs centres de données.
Ce processus libère une énorme quantité d’énergie et est considéré comme une solution prometteuse au changement climatique provoqué par la combustion des énergies fossiles, mais il est encore loin d'être accessible par rapport aux technologies propres actuelles, telles que l'éolien et le solaire.
À l’eau, à l’aide!
Avant la COP30, M. Guterres a aussi livré un plaidoyer à la défense de «l’or bleu». «Comme toutes les industries, elles doivent utiliser l’eau de façon durable dans leurs systèmes de refroidissement», a-t-il exigé.
Ce n’est cependant pas du tout la norme actuellement. Déjà, en 2023, l’AIE estimait que le secteur de l’IA utilisait 560 milliards de litres, soit plus que la quantité totale d’eau embouteillée consommée annuellement à l’échelle mondiale.
L’Agence internationale de l’énergie a calculé que le refroidissement des parcs de serveurs accaparait à lui seul 373 milliards de litres. C’est la phase la plus gourmande en eau, loin devant les autres étapes essentielles que sont la production d’électricité (140 milliards de litres) et la fabrication du matériel (47 milliards de litres). Et tous ces chiffres ont bondi depuis deux ans.
Jusqu’à 19 millions de litres d’eau par jour peuvent être nécessaires pour faire fonctionner un grand centre de données, rapporte l’organisme indépendant Pew Research Center. Ça en fait des bouteilles! C’est comme si chaque Canadien gaspillait quotidiennement un demi-litre d’eau pour alimenter un seul parc de serveurs.
Le Québec en compte plus de 80 sur son territoire. En 2025, leur consommation moyenne de pointe était de 150 mégawatts (MW), soit à peine 0,375 % de la quantité d’électricité générée chaque année par Hydro-Québec (40 000 MW).
Cette proportion est toutefois appelée à prendre de l’ampleur au fil des ans. La société d'État prévoit des besoins de l’ordre de 1100 MW en 2035, soit sept fois plus qu’aujourd’hui.
La croissance incessante des applications d’IA générative inquiète M. Bruneault, qui est aussi cofondateur du Laboratoire d’éthique du numérique et de l’IA.
«L’intelligence artificielle est désormais démocratisée. Tout le monde a ça dans sa poche et effectue des recherches sur tout et n'importe quoi. Il y a bien des gens qui s’en servent comme du moteur de recherche Google, qui a déjà un impact, mais là, chaque requête sur ces grands modèles de langage a un impact très, très important sur l'environnement, qui deviendra de plus en plus grand avec le temps.»
Il souligne qu’il existe des modèles plus frugaux, mais qu’ils ne sont pas les plus populaires. ChatGPT trône encore en tête de liste, mais il fait face à une concurrence grandissante de Gemini de Google, qui revendique plus de 650 millions d’utilisateurs, et d’autres applications, comme Copilot, de Microsoft.
«En plus, les modèles changent, alors il faut constamment les entraîner, rappelle M. Bruneault. Ce sont des milliers d'ordinateurs qui roulent 24 heures sur 24 pendant des mois pour entraîner les modèles, et ensuite, ils continuent de fonctionner sans arrêt. Ce sont donc des échelles sans commune mesure avec d'autres utilisations d’internet.»
«Besoin urgent de normes»
La technologie est bien pratique, mais elle contribue à la crise climatique.
Google ne s’en cache pas. Le géant de la recherche en ligne, qui a lancé en novembre son modèle Gemini 3, a reconnu récemment que l’explosion des besoins en matière d’IA compromettait ses efforts de réduction de ses émissions de gaz à effet de serre (GES), qui sont plutôt en hausse de 48 % en cinq ans.
Google promettait même d’atteindre la neutralité carbone d’ici 2030, mais cet engagement est désormais voué à l’échec.
Devant ces constats alarmants, le PNUE préconise l’adoption d’une «approche équilibrée, fondée sur des données probantes et alignée sur le Pacte numérique mondial».
Il juge qu’il y a un «besoin urgent de normes reconnues au niveau international pour évaluer et réduire l’empreinte environnementale de l’intelligence artificielle tout au long de sa chaîne de valeur».
En attendant, la sobriété s’impose. Réduire son utilisation de l’IA générative peut être une idée originale de résolution du Nouvel An, mais il est probablement déjà trop tard.
«Les pratiques vont peut-être changer, on va peut-être l’utiliser différemment, mais c’est déjà intégré dans la vie quotidienne de plus en plus de personnes, observe M. Bruneault. C'est un autre élément qui s'ajoute à la longue liste des impacts des technologies numériques sur l'environnement.»
Sébastien Auger, La Presse Canadienne