La soif d’électricité de l’IA pose problèmeOn en parle de plus en plus (aux États-Unis et au Royaume-Uni, par exemple) et, ces derniers jours, le problème de la soif d’électricité de l’IA s’est posé. Rene Haas, PDG d’ARM, est revenu sur le sujetl’entreprise qui conçoit les architectures qui équipent les smartphones du monde entier et, de plus en plus, les ordinateurs et les centres de données.
I modèles d’intelligence artificielle comme le ChatGPT d’OpenAI « sont insatiables en termes de soif« d’électricité, a déclaré M. Haas dans une interview accordée au WSJ. « Plus ils collectent d’informations, plus ils sont intelligents. plus ils collectent d’informations pour devenir intelligents, plus ils ont besoin d’énergie.« .
Sans amélioration de l’efficacité, « d’ici la fin de la décennie, les centres de données d’intelligence artificielle pourraient consommer 20 à 25 % des besoins énergétiques des États-Unis. Aujourd’hui, c’est probablement 4 % ou moins », a-t-il déclaré. « Pas très durable, en fait« .
Oui, la durabilité, car si d’un côté l’IA pourrait jouer un rôle clé pour nous aider dans la transition verte, d’un autre côté elle a un fort impact sur la consommation, et donc sur l’émission de gaz à effet de serre. Un cercle vicieux qu’il convient de briser.
Selon un rapport de l’Agence internationale de l’énergie (AIE), une demande de ChatGPT nécessite en moyenne 2,9 wattheures d’électricitéce qui équivaut à allumer une ampoule de 60 watts pendant un peu moins de trois minutes. C’est donc près de 10 fois la consommation d’une recherche moyenne sur Google. Selon l’agence, le application de l’énergie par l’industrie de l’intelligence artificielle devrait être multipliée par au moins 10 entre 2023 et 2026. La situation pourrait devenir encore plus complexe avec la course à l’AGI (Intelligence Générale Artificielle).
Selon les estimations de Factorial Funds, le nouveau modèle OpenAI Sora qui crée des vidéos à partir de requêtes textuelles prend un pouvoir de calcul équivalent à un GPU NVIDIA H100 pendant une heure pour générer une vidéo de 5 minutes. Elon Musk a récemment déclaré que la phase d’entraînement du modèle Grok 2 nécessitait environ 20 000 GPU NVIDIA H100, tandis que Grok 3 passera à 100 000 NVIDIA H100, chacun nécessitant 3 740 kilowattheures par an.
L’avenir de l’intelligence artificielle dépend de l’énergie : le PDG d’OpenAI à Davos
L’Administration américaine d’information sur l’énergie (EIA) affirme qu’en 2022, les États-Unis ont produit 4240 térawattheures d’électricité, dont 22 % provenant de sources renouvelables. Les consommation Le total annuel s’élève à 3 900 térawattheures. La « couverture » est donc courte face à la demande croissante du secteur technologique, avec des centres de données et des usines qui poussent comme des champignons.
Haas a exprimé l’espoir que le recherche, qu’elle soit publique ou publique-privée, puisse contribuer à l’amélioration de la qualité de la vie. à cet égard, mais il faut surtout intervention législative qui relève la barre des exigences en matière d’efficacité énergétique et fixe des enjeux, sous peine de faire échouer l’atténuation du changement climatique.