L’informatique peut-elle nettoyer son acte ?
Wchapeau toi remarquez d’abord à quel point il est silencieux, déclare Kimmo Koski, le patron du finlandais IL Centre pour les sciences. Le Dr Koski décrit CHAMBRELe finnois pour neige est le supercalculateur le plus puissant d’Europe, situé à 250 km au sud du cercle polaire arctique, dans la ville de Kajaani en Finlande.
Votre navigateur ne prend pas en charge le
CHAMBRE, inauguré l’année dernière, est utilisé pour tout, de la modélisation climatique à la recherche de nouveaux médicaments. Il dispose de dizaines de milliers de processeurs individuels et est capable d’effectuer jusqu’à 429 quadrillions de calculs chaque seconde. Cela en fait le troisième supercalculateur le plus puissant au monde. Alimenté par l’hydroélectricité et utilisant sa chaleur résiduelle pour réchauffer les maisons de Kajaani, il affiche même des émissions négatives de dioxyde de carbone.
CHAMBRE offre un aperçu de l’avenir du calcul haute performance (HPC), à la fois sur des superordinateurs dédiés et dans l’infrastructure cloud qui gère une grande partie d’Internet. Au cours de la dernière décennie, la demande de HPC a explosé, grâce à des technologies telles que l’apprentissage automatique, le séquençage du génome et les simulations de tout, des marchés boursiers et des armes nucléaires à la météo. Il est probable qu’elle continue à augmenter, car de telles applications consommeront volontiers autant de puissance de calcul que vous pourrez leur en consacrer. Sur la même période, la quantité de puissance de calcul nécessaire pour former un personnel de pointe IA Le modèle double tous les cinq mois.
Tout cela a des implications pour l’environnement. HPCet l’informatique de manière plus générale devient une grande consommatrice d’énergie. L’Agence internationale de l’énergie estime que les centres de données représentent entre 1,5 % et 2 % de la consommation mondiale d’électricité, soit à peu près la même chose que l’ensemble de l’économie britannique. Ce chiffre devrait atteindre 4 % d’ici 2030. Soucieuse des engagements gouvernementaux de réduction des émissions de gaz à effet de serre, l’industrie informatique tente de trouver des moyens de faire plus avec moins et d’améliorer l’efficacité de ses produits. Le travail se déroule à trois niveaux : celui des micropuces individuelles ; des ordinateurs construits à partir de ces puces ; et les centres de données qui, à leur tour, hébergent les ordinateurs.
Commencez par les micropuces elles-mêmes. Les ordinateurs numériques sont devenus beaucoup plus efficaces au cours des 80 dernières années. Une machine moderne peut effectuer environ 10 000 milliards de calculs pour la même quantité d’énergie qu’un seul calcul aurait consommé au lendemain de la Seconde Guerre mondiale. Une grande partie de ces énormes progrès est le résultat des tentatives de l’industrie de s’en tenir à la loi de Moore, à savoir que le nombre de composants pouvant être entassés sur un circuit intégré double tous les deux ans.
Quand les jetons sont joués
Pendant plusieurs décennies, l’un des effets secondaires heureux de la loi de Moore a été que, à mesure que les circuits diminuaient, ils devenaient également plus économes. Cet effet est connu sous le nom de mise à l’échelle de Dennard, du nom de Robert Dennard, un scientifique travaillant alors à IBM qui a écrit un article sur le sujet en 1974. Au milieu des années 2000, cependant, la physique délicate des composants ultra-minuscules a signifié que cette relation a commencé à se rompre. Les ordinateurs continuent de gagner en efficacité à mesure que leurs composants diminuent, mais le rythme auquel ils le font a fortement ralenti.
Cela a obligé les fabricants de puces à travailler plus dur pour obtenir des gains qu’ils obtenaient auparavant gratuitement. Le CPUpéché CHAMBREles puces à usage général qui exécutent les programmes et coordonnent le reste de la machine sont fabriquées par DMLA, un concepteur de puces américain. Outre les supercalculateurs, il CPUs, aux côtés de ceux d’Intel, son plus grand rival, alimentent de nombreux centres de données qui font fonctionner Internet. En 2010, alors que la mise à l’échelle de Dennard était confinée aux livres d’histoire, l’entreprise a placé l’amélioration de l’efficacité énergétique en tête de sa liste de priorités, déclare Samuel Naffziger, architecte technologique produit chez DMLA.
De nos jours, ses puces utilisent toute une série d’astuces pour tenter de réduire la consommation d’énergie. Ils sont recouverts de capteurs qui surveillent et minimisent la quantité d’énergie envoyée aux parties du circuit en fonction des tâches qui leur sont assignées. D’autres améliorations ont consisté à garantir que la plus grande partie possible de la puce effectue un travail utile à tout moment, car les circuits inactifs gaspillent de l’énergie inutilement. DMLA espère qu’une combinaison d’astuces encore plus intelligentes et de composants encore plus petits lui permettra de multiplier par 30 l’efficacité de ses puces les plus puissantes d’ici 2025, par rapport à 2020.
Une autre option consiste à transférer le travail des tâches à usage général CPUs aux puces spécialisées conçues pour une gamme plus restreinte de tâches mathématiques. Les plus connues sont les unités de traitement graphique, ou GPUs. Développé à l’origine pour produire des graphismes plus élégants pour les jeux vidéo, GPUIls se sont révélés exceller dans de nombreuses tâches qui peuvent être divisées en petits morceaux, sur lesquels chacun peut ensuite être travaillé simultanément. De la même manière, les puces spécialisées gèrent de plus en plus des tâches telles que la mise en réseau, qui auraient auparavant été laissées au CPU à gérer.
De tels ajustements au niveau du système constituent la deuxième échelle à laquelle l’efficacité peut être améliorée. Quand vous jouez avec des milliers de CPUsable GPUs, la façon dont vous les connectez peut faire ou défaire l’efficacité énergétique d’un supercalculateur, explique Justin Hotard, responsable du calcul haute performance chez Hewlett Packard Enterprise, une entreprise spécialisée, entre autres, dans les supercalculateurs efficaces.
La meilleure manière de tout câbler reste un domaine de recherche actif. L’envoi d’un signal à une autre puce ailleurs dans l’ordinateur consomme beaucoup d’énergie. L’objectif est donc de minimiser la fréquence à laquelle cela se produit et de minimiser la distance que le signal doit parcourir lorsqu’il se produit. HPE préfère ce qu’on appelle une topologie en forme de libellule, un système à deux couches dans lequel des groupes de puces sont connectés les uns aux autres en clusters, et ces clusters sont câblés les uns aux autres à leur tour. Le système est modulaire, ce qui facilite son évolution en ajoutant simplement de nouveaux nœuds. Et un article publié en février par Francisco Andjar, informaticien à l’Université de Valladolid, et ses collègues, a montré, après de nombreuses analyses mathématiques, que la configuration libellule est proche de la conception idéale pour un calcul intensif efficace.
Et l’efficacité ne doit pas nécessairement se faire au détriment de la performance. Top500.org, un site Web, publie des classements des supercalculateurs en fonction de leur vitesse et de leur efficacité. Sa liste la plus récente, publiée en juin CHAMBRE comme la septième machine la plus efficace au monde ainsi que la troisième plus rapide. Frontier, un ordinateur installé au laboratoire national d’Oak Ridge dans le Tennessee, est de loin l’ordinateur le plus rapide au monde, environ quatre fois plus rapide que CHAMBRE. Néanmoins, en termes d’efficacité, Frontier se classe sixième.
La dernière échelle à laquelle des gains peuvent être réalisés est celle du centre de données, le hangar de haute technologie dans lequel vivent à la fois les superordinateurs et les serveurs plus quotidiens qui alimentent Internet. L’informatique produit beaucoup de chaleur. Malgré l’accent nouvellement mis sur l’efficacité, un CPU ou GPU peut produire 500 watts ou plus de chaleur à pleine inclinaison. Avec des dizaines de milliers de personnes dans un seul centre de données, cela signifie disposer de plusieurs mégawatts de chaleur.
Les garder au frais nécessite à son tour de l’énergie. La mesure standard de l’efficacité d’un centre de données est l’efficacité de la consommation d’énergie (PUE), le rapport entre la consommation électrique globale des centres de données et la quantité utilisée pour effectuer un travail utile. Selon l’Uptime Institute, une société de IL conseillers, un centre de données typique a un PUE de 1,58. Cela signifie qu’environ les deux tiers de son électricité sont consacrés au fonctionnement de ses ordinateurs, tandis qu’un tiers est destiné au fonctionnement du centre de données lui-même, dont la majeure partie sera consommée par ses systèmes de refroidissement.
Atteindre la ligne finlandaise
Une conception intelligente peut faire baisser ce chiffre beaucoup plus bas. La plupart des centres de données existants reposent sur le refroidissement par air. Le refroidissement liquide offre un meilleur transfert de chaleur, au prix d’un effort d’ingénierie supplémentaire. Plusieurs startups proposent même de plonger entièrement les circuits imprimés dans des bains liquides spécialement conçus. Grâce en partie à son utilisation du refroidissement liquide, Frontier bénéficie d’un PUE de 1,03. Une raison CHAMBRE a été construit près du cercle polaire arctique pour profiter de l’air frais du subarctique. Un ordinateur voisin, construit dans la même installation, utilise ce refroidissement gratuit pour atteindre un PUE note de seulement 1,02. Cela signifie que 98 % de l’électricité consommée est transformée en mathématiques utiles. Cela nous rapproche des limites de ce qui est possible, déclare le Dr Koski.

Même les meilleurs centres de données commerciaux ne parviennent pas à atteindre ces chiffres. Les Googles, par exemple, ont une moyenne PUE valeur de 1,1. Les derniers chiffres de l’Uptime Institute, publiés en juin, montrent qu’après plusieurs années d’amélioration constante, l’efficacité des centres de données mondiaux stagne depuis 2018 (voir graphique). L’économie, plutôt que l’informatique, en est la principale raison. Alors que la demande informatique a explosé, il est logique que les entreprises maintiennent en service plus longtemps des infrastructures plus anciennes et moins efficaces.
Ce qui n’est actuellement qu’un plaisir pourrait bientôt devenir une obligation légale. Conscients de leurs objectifs de réduction des émissions de carbone, les gouvernements américain, britannique et européen, entre autres, réfléchissent à de nouvelles règles qui pourraient obliger les centres de données à devenir plus efficaces. Une nouvelle loi allemande imposerait un minimum PUE de 1,5 d’ici 2027 et de 1,3 d’ici 2030. Nous voulons CHAMBRE pour illustrer comment le calcul haute performance peut atteindre des émissions nettes de carbone nulles, explique le Dr Koski. Ceux qui veulent des conseils pourraient faire pire que de réserver un voyage en Finlande.
Curieux du monde ? Pour profiter de notre couverture scientifique époustouflante, inscrivez-vous à Simply Science, notre newsletter hebdomadaire réservée aux abonnés.