Comment réduire l’empreinte carbone de l’informatique mondiale ?
L’appétit vorace pour l’énergie des ordinateurs mondiaux et des technologies de communication présente une menace claire pour le réchauffement climatique de la planète. C’était l’évaluation directe des présentateurs de l’atelier intensif de deux jours sur les implications climatiques de l’informatique et des communications qui s’est tenu les 3 et 4 mars, organisé par le MITs Climate and Sustainability Consortium (MCSC), le MIT-IBM Watson AI Lab et le Schwarzman College of L’informatique.
L’événement virtuel a présenté des discussions riches et mis en évidence des opportunités de collaboration entre un groupe interdisciplinaire de professeurs et de chercheurs du MIT et de leaders de l’industrie dans plusieurs secteurs, soulignant le pouvoir de la rencontre entre le monde universitaire et l’industrie.
Si nous continuons avec la trajectoire actuelle de l’énergie de calcul, d’ici 2040, nous sommes censés atteindre la capacité de production d’énergie mondiale. L’augmentation de l’énergie et de la demande de calcul a augmenté à un rythme beaucoup plus rapide que l’augmentation de la capacité mondiale de production d’énergie, a déclaré Bilge Yildiz, professeur Breene M. Kerr aux départements de science et génie nucléaires et de science et génie des matériaux du MIT, l’un des les ateliers 18 intervenants. Cette projection d’énergie de calcul s’appuie sur le rapport décennal de la Semiconductor Research Corporations.
Pour ne citer qu’un exemple : les technologies de l’information et des communications représentent déjà plus de 2 % de la demande énergétique mondiale, ce qui est comparable aux émissions de l’industrie aéronautique liées au carburant.
Nous sommes le tout début de ce monde axé sur les données. Nous devons vraiment commencer à y réfléchir et agir maintenant, a déclaré le présentateur Evgeni Gousev, directeur principal chez Qualcomm.
Options d’efficacité énergétique innovantes
À cette fin, les présentations de l’atelier ont exploré une foule d’options d’efficacité énergétique, y compris la conception de puces spécialisées, l’architecture du centre de données, de meilleurs algorithmes, des modifications matérielles et des changements dans le comportement des consommateurs. Les leaders de l’industrie d’AMD, d’Ericsson, de Google, d’IBM, d’iRobot, de NVIDIA, de Qualcomm, de Tertill, de Texas Instruments et de Verizon ont présenté les programmes d’économie d’énergie de leur entreprise, tandis que des experts de l’ensemble du MIT ont donné un aperçu des recherches en cours qui pourraient permettre une informatique plus efficace.
Les sujets des panels allaient du matériel personnalisé pour une informatique efficace au matériel pour les nouvelles architectures en passant par les algorithmes pour une informatique efficace, entre autres.
Représentation visuelle de la conversation lors de la séance d’atelier intitulée « Energy Efficient Systems ».
Image : Haley McDevitt
L’objectif, a déclaré Yildiz, est d’améliorer l’efficacité énergétique associée à l’informatique de plus d’un million de fois.
Je pense qu’une partie de la réponse à la façon dont nous rendons l’informatique beaucoup plus durable a à voir avec des architectures spécialisées qui ont un très haut niveau d’utilisation, a déclaré Daro Gil, vice-président senior et directeur de la recherche d’IBM, qui a souligné que les solutions devaient être aussi élégantes que possible.
Par exemple, Gil a illustré une conception de puce innovante qui utilise l’empilement vertical pour réduire la distance que les données doivent parcourir, et ainsi réduire la consommation d’énergie. Étonnamment, une utilisation plus efficace de la bande, un support traditionnel pour le stockage principal des données, associée à des disques durs spécialisés (HDD), peut générer des économies considérables en émissions de dioxyde de carbone.
Gil et les présentateurs Bill Dally, scientifique en chef et vice-président senior de la recherche de NVIDIA ; Ahmad Bahai, directeur technique de Texas Instruments ; et d’autres se sont concentrés sur le stockage. Gil a comparé les données à un iceberg flottant dans lequel nous pouvons avoir un accès rapide aux données chaudes de la plus petite partie visible tandis que les données froides, la grande masse sous-marine, représentent des données qui tolèrent une latence plus élevée. Pensez au stockage de photos numériques, a déclaré Gil. Honnêtement, récupérez-vous vraiment toutes ces photographies en continu ? Les systèmes de stockage doivent fournir une combinaison optimisée de disques durs pour les données chaudes et de bandes pour les données froides en fonction des modèles d’accès aux données.
Bahai a souligné les importantes économies d’énergie obtenues grâce à la segmentation de la veille et du traitement complet. Nous devons apprendre à ne rien faire de mieux, a-t-il déclaré. Dally a parlé d’imiter la façon dont notre cerveau se réveille d’un sommeil profond, nous pouvons nous réveiller [computers] beaucoup plus rapidement, nous n’avons donc pas besoin de les faire fonctionner à pleine vitesse.
Plusieurs présentateurs de l’atelier ont parlé de l’accent mis sur la parcimonie, une matrice dans laquelle la plupart des éléments sont nuls, comme moyen d’améliorer l’efficacité des réseaux de neurones. Ou comme l’a dit Dally, Ne remettez jamais à demain, où vous pourriez remettre à jamais, expliquer l’efficacité n’est pas obtenir le plus d’informations avec le moins de bits. C’est faire le maximum avec le moins d’énergie.
Approches holistiques et multidisciplinaires
Nous avons besoin à la fois d’algorithmes efficaces et de matériel efficace, et parfois nous devons co-concevoir à la fois l’algorithme et le matériel pour un calcul efficace, a déclaré Song Han, modérateur du panel et professeur adjoint au Département de génie électrique et d’informatique (EECS) à MIT.
Certains présentateurs étaient optimistes quant aux innovations déjà en cours. Selon les recherches d’Ericssons, jusqu’à 15 % des émissions de carbone dans le monde peuvent être réduites grâce à l’utilisation de solutions existantes, a noté Mats Pellbck Scharp, responsable du développement durable chez Ericsson. Par exemple, les GPU sont plus efficaces que les CPU pour l’IA, et la progression des réseaux 3G vers les réseaux 5G augmente les économies d’énergie.
La 5G est la norme la plus économe en énergie jamais conçue, a déclaré Scharp. Nous pouvons construire la 5G sans augmenter la consommation d’énergie.
Des entreprises telles que Google optimisent la consommation d’énergie de leurs centres de données grâce à une conception, une technologie et des énergies renouvelables améliorées. « Cinq de nos centres de données dans le monde fonctionnent à près ou au-dessus de 90 % d’énergie sans carbone », a déclaré Jeff Dean, chercheur principal de Google et vice-président principal de Google Research.
Pourtant, soulignant le ralentissement possible du doublement des transistors dans un circuit intégré ou la loi de Moores, nous avons besoin de nouvelles approches pour répondre à cette demande de calcul, a déclaré Sam Naffziger, vice-président senior d’AMD, membre de l’entreprise et architecte de la technologie des produits. Naffziger a parlé de remédier à la surpuissance des performances. Par exemple, nous trouvions dans l’espace de jeu et d’apprentissage automatique que nous pouvions utiliser des mathématiques de moindre précision pour fournir une image aussi belle avec des calculs 16 bits qu’avec des calculs 32 bits, et au lieu des mathématiques 32b héritées pour former Réseaux AI, nous pouvons utiliser des calculs 8b ou 16b à faible énergie.
Représentation visuelle de la conversation lors de la session de l’atelier intitulée « Systèmes sans fil, en réseau et distribués ».
Image : Haley McDevitt
D’autres présentateurs ont identifié le calcul à la périphérie comme un gros consommateur d’énergie.
Nous devons également changer les appareils qui sont mis entre les mains de nos clients, a déclaré Heidi Hemmer, vice-présidente senior de l’ingénierie chez Verizon. Lorsque nous réfléchissons à la façon dont nous utilisons l’énergie, il est courant de passer aux centres de données, mais cela commence vraiment par l’appareil lui-même et l’énergie que les appareils utilisent. Ensuite, nous pouvons penser aux routeurs Web domestiques, aux réseaux distribués, aux centres de données et aux hubs. Les appareils sont en fait les moins économes en énergie, a conclu Hemmer.
Certains présentateurs avaient des points de vue différents. Plusieurs ont appelé à développer des chipsets en silicium dédiés pour plus d’efficacité. Cependant, l’animatrice du panel Muriel Medard, professeure Cecil H. Green à l’EECS, a décrit les recherches menées au MIT, à l’Université de Boston et à l’Université de Maynooth sur la puce GRAND (Guessing Random Additive Noise Decoding), disant que plutôt que d’avoir l’obsolescence des puces comme nouveaux codes entrent et dans différentes normes, vous pouvez utiliser une seule puce pour tous les codes.
Quelle que soit la puce ou le nouvel algorithme, Helen Greiner, PDG de Tertill (un robot de désherbage) et co-fondatrice d’iRobot, a souligné que pour commercialiser des produits, nous devons apprendre à ne plus vouloir obtenir le meilleur et le plus récent, le processeur le plus avancé qui est généralement plus cher. Elle a ajouté, j’aime dire que les démonstrations de robots coûtent un sou à la douzaine, mais les produits de robots sont très rares.
Greiner a souligné que les consommateurs peuvent jouer un rôle dans la promotion de produits plus économes en énergie, tout comme les conducteurs ont commencé à exiger des voitures électriques.
Dean voit également un rôle environnemental pour l’utilisateur final.
Nous avons permis à nos clients cloud de sélectionner la région cloud dans laquelle ils souhaitent exécuter leurs calculs, et ils peuvent décider de l’importance d’avoir une faible empreinte carbone, a-t-il déclaré, citant également d’autres interfaces qui pourraient permettre aux consommateurs de décider quel air les vols sont plus efficaces ou quel impact aurait l’installation d’un panneau solaire sur leur maison.
Cependant, a déclaré Scharp, Prolonger la durée de vie de votre smartphone ou de votre tablette est vraiment la meilleure action climatique que vous puissiez faire si vous souhaitez réduire votre empreinte carbone numérique.
Face à des demandes croissantes
Malgré leur optimisme, les présentateurs ont reconnu que le monde fait face à une demande croissante de calcul provenant de l’apprentissage automatique, de l’IA, des jeux et surtout de la blockchain. La modératrice du panel, Vivienne Sze, professeure associée à l’EECS, a noté l’énigme.
Nous pouvons faire un excellent travail en rendant l’informatique et la communication vraiment efficaces. Mais il y a cette tendance qu’une fois que les choses sont très efficaces, les gens en utilisent davantage, et cela pourrait entraîner une augmentation globale de l’utilisation de ces technologies, ce qui augmentera alors notre empreinte carbone globale, a déclaré Sze.
Les présentateurs ont vu un grand potentiel dans les partenariats université/industrie, en particulier dans les efforts de recherche du côté universitaire. En combinant ces deux forces ensemble, vous pouvez vraiment amplifier l’impact, a conclu Gousev.
Les présentateurs de l’atelier Climate Implications of Computing and Communications comprenaient également : Joel Emer, professeur de la pratique en EECS au MIT ; David Perreault, professeur Joseph F. et Nancy P. Keithley d’EECS au MIT; Jess del Alamo, MIT Donner Professor et professeur de génie électrique en EECS au MIT; Heike Riel, IBM Fellow et responsable de la science et de la technologie chez IBM ; et Takashi Ando, membre principal du personnel de recherche chez IBM Research. Les sessions d’atelier enregistrées sont disponibles sur YouTube.