L’IA : un fléau énergétique (source FUTURA)
Alors que les data centers dévorent déjà 4,4 % de l’énergie américaine, les projections indiquent une croissance fulgurante. La demande énergétique des systèmes d’IA représente une rupture majeure avec les tendances précédentes. Entre 2005 et 2017, malgré l’explosion des services cloud, la consommation électrique des centres de données était restée stable grâce aux avancées en efficacité énergétique, la
consommation électrique des data centers a doublé entre 2017 et 2023. Plus inquiétant encore, l’intensité carbone de cette électricité dépasse de 48 % la moyenne nationale américaine. Contrairement aux idées reçues, ce n’est pas l’entraînement initial des modèles qui constitue la principale dépense énergétique de l’IA, mais bien leur utilisation quotidienne par les utilisateurs, un processus appelé « inférence ». Face à
cette explosion de la demande énergétique, les géants technologiques déploient des stratégies d’une ampleur sans précédent :
- Meta et Microsoft travaillent à l’activation de nouvelles centrales nuclé aires.
- OpenAI a lancé l’initiative Stargate avec un budget de 500 milliards de dollars.
- Apple prévoit d’investir 500 milliards de dollars dans la fabrication et les centres
dedonnées. - Google compte dé penser 75 milliards de dollars pour l’infrastructure IA en 2025.
Selon les projections du Lawrence Berkeley National Laboratory, d’ici 2028, plus de la moitié de l’électricité consommée par les centres de données sera dédiée à l’IA. A| ce stade, Cette situation soulève des questions fondamentales sur l’équité et la durabilité d’une technologie dont l’utilité reste à prouver dans de nombreux domaines. Face à cette réalité, les scientifiques, les installations de recherche financées par le gouvernement et les activistes a
