Les coûts environnementaux de l’IA générative montent en flèche et sont pour la plupart secrets
Le mois dernier, le directeur général d’OpenAI, Sam Altman, a finalement admis ce que les chercheurs disent depuis des années, à savoir que le secteur de l’intelligence artificielle (IA) se dirige vers une crise énergétique. C’est un aveu inhabituel. Lors de la réunion annuelle du Forum économique mondial à Davos, en Suisse, Altman a averti que la prochaine vague de systèmes d’IA générative consommerait beaucoup plus d’énergie que prévu et que les systèmes énergétiques auraient du mal à y faire face. Il n’y a aucun moyen d’y parvenir sans une percée, a-t-il déclaré.
Je suis content qu’il l’ait dit. J’ai été témoin d’une minimisation et d’un déni constants des coûts environnementaux de l’industrie de l’IA depuis que j’ai commencé à publier à leur sujet en 2018. L’aveu d’Altman a amené des chercheurs, des régulateurs et des titans de l’industrie à parler de l’impact environnemental de l’IA générative.
Alors, sur quelle percée énergétique Altman mise-t-il ? Non pas la conception et le déploiement de systèmes d’IA plus durables mais la fusion nucléaire. Il a également de la peau dans ce jeu : en 2021, Altman a commencé à investir dans la société de fusion Helion Energy à Everett, Washington.

L’IA mène-t-elle à une crise de reproductibilité en science ?
La plupart des experts s’accordent sur le fait que la fusion nucléaire ne contribuera pas de manière significative à l’objectif crucial de décarbonation d’ici le milieu du siècle pour lutter contre la crise climatique. L’estimation la plus optimiste d’Heli est que d’ici 2029, elle produira suffisamment d’énergie pour alimenter 40 000 foyers américains moyens ; une évaluation suggère que ChatGPT, le chatbot créé par OpenAI à San Francisco, en Californie, consomme déjà l’énergie de 33 000 foyers. On estime qu’une recherche pilotée par l’IA générative utilise quatre à cinq fois plus d’énergie qu’une recherche Web conventionnelle. D’ici quelques années, les grands systèmes d’IA auront probablement besoin d’autant d’énergie que des nations entières.
Et ce n’est pas seulement de l’énergie. Les systèmes d’IA générative ont besoin d’énormes quantités d’eau douce pour refroidir leurs processeurs et produire de l’électricité. À West Des Moines, dans l’Iowa, un cluster de centres de données géant sert le modèle le plus avancé d’OpenAI, GPT-4. Un procès intenté par des résidents locaux a révélé qu’en juillet 2022, le mois précédant la fin de la formation du modèle par OpenAI, le cluster utilisait environ 6 % de l’eau du district. Alors que Google et Microsoft préparaient leurs grands modèles de langage Bard et Bing, tous deux ont connu des augmentations importantes de la consommation d’eau, de 20 % et 34 %, respectivement, en un an, selon les rapports environnementaux des entreprises. Une préimpression1 suggère que, à l’échelle mondiale, la demande en eau pour l’IA pourrait être la moitié de celle du Royaume-Uni d’ici 2027. Dans un autre2les chercheurs de Facebook AI ont qualifié les effets environnementaux de la quête d’échelle de l’industrie d’éléphant dans la pièce.
Plutôt que des technologies chimériques, nous avons besoin d’actions pragmatiques pour limiter dès maintenant les impacts écologiques de l’IA.
Il n’y a aucune raison pour que cela ne puisse pas être fait. L’industrie pourrait donner la priorité à une consommation moindre d’énergie, créer des modèles plus efficaces et repenser la manière dont elle conçoit et utilise les centres de données. Comme l’a démontré le projet BigScience en France avec son modèle BLOOM3, il est possible de construire un modèle de taille similaire au GPT-3 d’OpenAI avec une empreinte carbone bien inférieure. Mais ce n’est pas ce qui se passe dans l’industrie en général.
Il reste très difficile d’obtenir des données précises et complètes sur les impacts environnementaux. Les coûts planétaires complets de l’IA générative sont des secrets d’entreprise jalousement gardés. Les chiffres s’appuient sur des études en laboratoire menées par des chercheurs tels qu’Emma Strubell4 et Sasha Luccioni3; rapports de sociétés anonymes ; et les données publiées par les gouvernements locaux. À l’heure actuelle, les entreprises ne sont guère incitées à changer.

Il y a des lacunes dans la loi européenne sur l’IA et les chercheurs peuvent aider à les combler
Mais enfin, les législateurs en prennent note. Le 1er février, les démocrates américains dirigés par le sénateur Ed Markey du Massachusetts ont présenté la loi de 2024 sur les impacts environnementaux de l’intelligence artificielle. Le projet de loi ordonne à l’Institut national des normes et de la technologie de collaborer avec le monde universitaire, l’industrie et la société civile pour établir des normes d’évaluation de l’impact environnemental de l’IA. , et créer un cadre de reporting volontaire pour les développeurs et les opérateurs d’IA. Il reste incertain si la législation sera adoptée.
Les mesures volontaires produisent rarement une culture durable de responsabilité et d’adoption cohérente, car elles reposent sur la bonne volonté. Compte tenu de l’urgence, il faut faire davantage.
Pour véritablement s’attaquer aux impacts environnementaux de l’IA, il faut une approche multidimensionnelle incluant l’industrie de l’IA, les chercheurs et les législateurs. Dans l’industrie, les pratiques durables devraient être impératives et devraient inclure la mesure et la communication publique de la consommation d’énergie et d’eau ; donner la priorité au développement de matériel, d’algorithmes et de centres de données économes en énergie ; et en utilisant uniquement des énergies renouvelables. Des audits environnementaux réguliers effectués par des organismes indépendants favoriseraient la transparence et le respect des normes.
Les chercheurs pourraient optimiser les architectures de réseaux neuronaux pour la durabilité et collaborer avec des scientifiques sociaux et environnementaux pour guider les conceptions techniques vers une plus grande durabilité écologique.
Enfin, les législateurs devraient proposer à la fois des carottes et des bâtons. Au départ, ils pourraient établir des références pour la consommation d’énergie et d’eau, encourager l’adoption des énergies renouvelables et exiger des rapports environnementaux complets et des évaluations d’impact. La loi sur les impacts environnementaux de l’intelligence artificielle est un début, mais il faudra encore beaucoup plus et le temps presse.
Intérêts concurrents
KC est employé à la fois par l’USC Annenberg et par Microsoft Research, qui fabrique des systèmes d’IA générative.