Singapour a faim de Green IT. En fin de semaine dernière, le pays a lancé une feuille de route pour des centres de données écologiques afin de répondre à la demande croissante en intelligence artificielle, qui exerce une pression sur les ressources énergétiques de la presqu’île (lire Qant du 31 mai). Cette initiative prévoit d'ajouter au moins 300 mégawatts de capacité à court terme, grâce à des déploiements d'énergie verte.
Les datacenters représentent 7 % de la consommation totale d'électricité de Singapour. Singapour abrite plus de 70 centres pouvant héberger des plateformes cloud et des services à haute intensité pour l'IA. Mais le problème dépasse largement les frontières du pays.
Un défi pour le réseau électrique américain
Un rapport du think tank américain Electric Power Research Institute (EPRI), paru la semaine dernière, estime que les centres de données pourraient consommer jusqu'à 9 % de l'électricité totale produite aux États-Unis d'ici 2030. L'adoption rapide de technologies comme l'intelligence artificielle générative pourrait faire croître la consommation électrique annuelle du secteur de 3,7 % à 15 % par an. Une augmentation de la consommation qui pourrait mettre à rude épreuve le réseau électrique américain et entraîner une hausse des factures et des pannes de courant.
Évolution de la consommation énergétique des data centers américains (Source : EPRI)
Le rapport de l'EPRI observe que la demande en électricité des centres de données a augmenté de manière significative, principalement en raison de l'essor de l'IA, ce qui exerce une pression sur les compagnies pour répondre à cette demande croissante.
L’appétit énergétique sans limites des modèles d’IA
Les modèles d'IA sont beaucoup plus gourmands en énergie que les applications traditionnelles de récupération de données. Selon un rapport du Tony Blair Institute for Global Change paru le mois dernier, l’entraînement d'un modèle d'IA comme GPT-3 peut ainsi émettre jusqu'à 552 tonnes de CO2. L’EPRI calcule qu’une requête à ChatGPT consomme environ 2,9 watt-heures, soit dix fois plus qu'une recherche Google traditionnelle. Cette intensité énergétique accrue est due à la complexité des modèles d'IA et aux besoins de calcul pour des applications comme la génération d'images, de sons et de vidéos.
L'EPRI a développé plusieurs scénarios de croissance des charges des centres de données aux États-Unis. Il estime que d'ici à 2030, les centres de données pourraient consommer entre 4,6% et 9,1% de la production annuelle d'électricité des États-Unis, contre environ 4% aujourd'hui.
Déséquilibre régional
Le think tank souligne que la demande énergétique des centres de données est concentrée dans quelques régions spécifiques. En 2023, quinze États représentaient 80% de la charge nationale des centres de données. Par exemple, en Virginie, les centres de données pourraient représenter près de 50% de la consommation d'électricité de l'État d'ici 2030 dans le scénario de croissance le plus élevé.
Une concentration similaire est observée à l'échelle mondiale. En Irlande, les centres de données pourraient former presque un tiers de la demande totale d'électricité d'ici à 2026.
Faire collaborer développeurs et énergéticiens
Pour soutenir cette expansion rapide des centres de données, l’EPRI propose différentes stratégies. D'une part, l'amélioration de l'efficacité opérationnelle et de la flexibilité des centres de données. L'institut recommande d'investir dans des technologies de refroidissement plus efficaces, du matériel informatique optimisé pour l'efficacité énergétique et des algorithmes de formation de l'IA moins énergivores.
Pour l'EPRI, la solution passe par la coordination entre les centres de données et les compagnies électriques pour comprendre les besoins en énergie, les calendriers et les flexibilités potentielles des centres de données. Cette collaboration pourrait transformer la relation actuelle vers un modèle d'économie énergétique partagée, où les ressources des datacenters contribuent à la fiabilité et à la flexibilité du réseau électrique.
Enfin, l'institut appelle à une meilleure anticipation de la croissance des charges grâce à des outils de modélisation améliorés. Il incite à développer des outils de prévision plus précis pour planifier les investissements dans le réseau électrique sur 5 à 10 ans, afin d'accueillir la croissance des centres de données sans impacter négativement les autres clients et de maintenir la fiabilité du réseau avec ces nouvelles demandes importantes.
La nécessité d’une coopération internationale
De son côté, le Tony Blair Institute for Global Change indique plusieurs directions pour rendre l'IA plus écoénergétique. Par exemple, l'utilisation d'algorithmes optimisés et de matériels informatiques plus efficients pourrait réduire l'empreinte carbone des modèles.
Le think tank recommande plusieurs mesures politiques pour encourager le développement d'une IA verte. Parmi celles-ci, la création de mécanismes gouvernementaux pour intégrer les efforts d'IA et de durabilité, ainsi que des programmes de financement ciblés pour encourager l'innovation dans les technologies énergétiques avancées, comme le nucléaire modulaire et la géothermie.
La coopération internationale est nécessaire pour standardiser les métriques et les cadres de reporting, ce qui permettrait de comprendre l'impact global de l'IA sur la consommation d'énergie et les émissions de carbone. Le rapport suggère de tirer parti des forums internationaux pour coordonner les efforts et partager les meilleures pratiques, afin de promouvoir une adoption plus large des technologies d'IA verte.
Les géants de l’IA ont, pour certains, anticipé le problème. C’est notamment le cas de Sam Altman, CEO d’OpenAI, qui a personnellement investi dans Exowatt, qui mise sur l’énergie solaire pour rendre les centres de données plus verts, et la start-up de fusion nucléaire Helion Energy (lire Qant du 24 avril).
L’art de chercher à la fois le poison et le remède.
Pour en savoir plus :