Ces changements simples peuvent rendre la recherche sur l’IA beaucoup plus économe en énergie
Depuis la publication il y a trois ans du premier article étudiant l’impact de cette technologie sur l’environnement, un mouvement s’est développé parmi les chercheurs pour déclarer eux-mêmes l’énergie consommée et les émissions générées par leur travail. Disposer de chiffres précis est une étape importante pour apporter des changements, mais la collecte de ces chiffres peut être un défi.
Vous ne pouvez pas améliorer ce que vous ne pouvez pas mesurer, déclare Jesse Dodge, chercheur à l’Allen Institute for AI à Seattle. La première étape pour nous, si nous voulons faire des progrès dans la réduction des émissions, c’est d’obtenir une bonne mesure.
À cette fin, l’Institut Allen a récemment collaboré avec Microsoft, la société d’intelligence artificielle Hugging Face et trois universités pour créer un outil qui mesure la consommation d’électricité de tout programme d’apprentissage automatique exécuté sur Azure, le service cloud de Microsoft. Grâce à lui, les utilisateurs d’Azure qui créent de nouveaux modèles peuvent visualiser l’électricité totale consommée par les puces informatiques des unités de traitement graphique (GPU) spécialisées dans l’exécution de calculs en parallèle à chaque phase de leur projet, de la sélection d’un modèle à sa formation et à son utilisation. C’est le premier grand fournisseur de cloud à donner aux utilisateurs l’accès à des informations sur l’impact énergétique de leurs programmes d’apprentissage automatique.
Bien qu’il existe déjà des outils qui mesurent la consommation d’énergie et les émissions des algorithmes d’apprentissage automatique exécutés sur des serveurs locaux, ces outils ne fonctionnent pas lorsque les chercheurs utilisent des services cloud fournis par des sociétés telles que Microsoft, Amazon et Google. Ces services ne donnent pas aux utilisateurs une visibilité directe sur les ressources GPU, CPU et mémoire que leurs activités consomment et les outils existants, tels que Carbontracker, Experiment Tracker, EnergyVis et CodeCarbon, ont besoin de ces valeurs pour fournir des estimations précises.
Le nouvel outil Azure, qui a fait ses débuts en octobre, rapporte actuellement la consommation d’énergie, pas les émissions. Dodge et d’autres chercheurs ont donc découvert comment cartographier la consommation d’énergie par rapport aux émissions, et ils ont présenté un article complémentaire sur ce travail à la FAccT, une importante conférence informatique, fin juin. Les chercheurs ont utilisé un service appelé Watttime pour estimer les émissions en fonction des codes postaux des serveurs cloud exécutant 11 modèles d’apprentissage automatique.
Ils ont constaté que les émissions peuvent être considérablement réduites si les chercheurs utilisent des serveurs dans des emplacements géographiques spécifiques et à certaines heures de la journée. Les émissions provenant de la formation de petits modèles d’apprentissage automatique peuvent être réduites jusqu’à 80 % si la formation commence à des moments où davantage d’électricité renouvelable est disponible sur le réseau, tandis que les émissions des grands modèles peuvent être réduites de plus de 20 % si le travail de formation est interrompu lorsqu’il est renouvelable. l’électricité est rare et redémarrée lorsqu’elle est plus abondante.