Le « Momentum Computing » repousse les limites thermodynamiques de la technologie

Au cas où vous ne l’auriez pas remarqué, les ordinateurs sont chauds, littéralement. Un ordinateur portable peut pomper une chaleur torride, tandis que les centres de données consomment environ 200 térawattheures chaque année, ce qui est comparable à la consommation d’énergie de certains pays de taille moyenne. L’empreinte carbone des technologies de l’information et de la communication dans leur ensemble est proche de celle de la consommation de carburant dans l’industrie aéronautique. Et à mesure que les circuits informatiques deviennent de plus en plus petits et de plus en plus denses, ils deviennent plus susceptibles de fondre à cause de l’énergie qu’ils dissipent sous forme de chaleur.

Maintenant, le physicien James Crutchfield de l’Université de Californie à Davis et son étudiant diplômé Kyle Ray ont proposé une nouvelle façon d’effectuer des calculs qui ne dissiperaient qu’une petite fraction de la chaleur produite par les circuits conventionnels. En fait, leur approche, décrite dans un récent article de prépublication, pourrait amener la dissipation thermique en dessous même du minimum théorique que les lois de la physique imposent aux ordinateurs d’aujourd’hui. Cela pourrait réduire considérablement l’énergie nécessaire à la fois pour effectuer des calculs et pour refroidir les circuits. Et tout cela pourrait être fait, disent les chercheurs, en utilisant des dispositifs microélectroniques qui existent déjà.

En 1961, le physicien Rolf Landauer du centre de recherche Thomas J. Watson d’IBM à Yorktown Heights, NY, a montré que l’informatique conventionnelle entraîne un coût inévitable en termes de dissipation d’énergie, essentiellement de génération de chaleur et d’entropie. En effet, un ordinateur conventionnel doit parfois effacer des bits d’information dans ses circuits de mémoire afin de faire de la place pour plus. Chaque fois qu’un seul bit (avec la valeur 1 ou 0) est réinitialisé, une certaine quantité minimale d’énergie est dissipée, ce que Ray et Crutchfield ont baptisé « le Landauer ». Sa valeur dépend de la température ambiante : dans votre salon, un Landauer ferait environ 10–21 joule. (A titre de comparaison, une bougie allumée émet de l’ordre de 10 joules d’énergie par seconde.)

Les informaticiens ont depuis longtemps reconnu que la limite de Landauer sur le peu de chaleur produite par un calcul peut être dépassée par ne pas effacer toute information. Un calcul effectué de cette manière est entièrement réversible car ne jeter aucune information signifie que chaque étape peut être retracée. Il peut sembler que ce processus remplirait rapidement la mémoire d’un ordinateur. Mais dans les années 1970, Charles Bennett, également chez TJ Watson, a montré qu’au lieu de rejeter des informations à la fin du calcul, on pouvait le configurer pour « décalculer » les résultats intermédiaires qui ne sont plus nécessaires en inversant leurs étapes logiques et en retournant l’ordinateur à son état d’origine.

Le problème est que, pour éviter de transférer de la chaleur, c’est-à-dire pour être ce que les physiciens appellent un processus adiabatique, la série d’opérations logiques dans le calcul doit généralement être effectuée infiniment lentement. Dans un sens, cette approche évite tout « échauffement par friction » dans le processus, mais au prix d’une durée infiniment longue pour effectuer le calcul.

Cela ne semble donc guère être une solution pratique. « La sagesse conventionnelle a longtemps été que la dissipation d’énergie dans l’informatique réversible est proportionnelle à la vitesse », déclare l’informaticien Michael Frank des Sandia National Laboratories à Albuquerque, NM.

Jusqu’à la limite et au-delà

De toute façon, l’informatique basée sur le silicium ne s’approche pas de la limite de Landauer : actuellement, une telle informatique produit environ quelques milliers de Landauer en chaleur par opération logique, et il est difficile de voir comment même une puce de silicium super efficace du futur pourrait descendre en dessous de 100 environ. . Mais Ray et Crutchfield disent qu’il est possible de faire mieux en encodant les informations dans les courants électriques d’une nouvelle manière : non pas sous forme d’impulsions de charge mais dans la quantité de mouvement des particules en mouvement. Ils disent que cela permettrait de faire du calcul de manière réversible sans avoir à sacrifier la vitesse.

Les deux chercheurs et leurs collègues ont présenté l’idée de base du calcul de la quantité de mouvement l’année dernière. Le concept clé est que l’impulsion d’une particule codée en bits peut fournir une sorte de mémoire « gratuite » car elle contient des informations sur le mouvement passé et futur de la particule, et pas seulement sur son état instantané. « Auparavant, les informations étaient stockées en fonction de leur position : ‘Où est la particule ?’ », explique Crutchfield. Par exemple, un électron donné est-il dans ce canal ou ce une? « Momentum computing utilise des informations en position et en vitesse », dit-il.

Ces informations supplémentaires peuvent ensuite être exploitées pour le calcul réversible. Pour que l’idée fonctionne, les opérations logiques doivent se produire beaucoup plus rapidement que le temps nécessaire pour que le bit entre en équilibre thermique avec son environnement, ce qui randomisera le mouvement du bit et brouillera les informations. En d’autres termes, « l’informatique dynamique a besoin que l’appareil fonctionne à grande vitesse », explique Crutchfield. Pour que cela fonctionne, « vous devez calculer rapidement », c’est-à-dire de manière non adiabatique.

Les chercheurs ont réfléchi à la manière d’utiliser l’idée pour mettre en œuvre une opération logique appelée échange de bits, dans lequel deux bits inversent simultanément leur valeur : 1 devient 0, et vice versa. Ici, aucune information n’est rejetée ; il est juste reconfiguré, ce qui signifie qu’en théorie, il n’entraîne aucun coût d’effacement.

Pourtant, si l’information est codée uniquement dans la position d’une particule, un échange de bits – par exemple, basculer des particules entre un canal gauche et un canal droit – signifie que leurs identités sont brouillées et ne peuvent donc pas être distinguées de leur « avant » et  » après » déclare. Mais si les particules ont des impulsions opposées, elles restent distinctes, de sorte que l’opération crée un changement authentique et réversible.

Un appareil pratique

Ray et Crutchfield ont décrit comment cette idée pourrait être mise en œuvre dans un dispositif pratique, en particulier dans des bits quantiques à flux supraconducteur, ou qubits, qui sont les bits standard utilisés pour la plupart des ordinateurs quantiques actuels. « Nous sommes des parasites de la communauté de l’informatique quantique ! » Crutchfield admet joyeusement. Ces dispositifs sont constitués de boucles de matériau supraconducteur interrompues par des structures appelées jonctions Josephson (JJs), où une fine couche d’un matériau non supraconducteur est interposée entre deux supraconducteurs.

Les informations dans les circuits JJ sont généralement codées dans le sens de leur circulation dite de supercourant, qui peut être commutée à l’aide d’un rayonnement micro-ondes. Mais parce que les supercourants transportent de l’élan, ils peuvent également être utilisés pour le calcul de l’élan. Ray et Crutchfield ont effectué des simulations qui suggèrent que, dans certaines conditions, les circuits JJ devraient être en mesure de prendre en charge leur approche de calcul de l’impulsion. S’il était refroidi à des températures d’hélium liquide, le circuit pourrait effectuer une seule opération d’échange de bits en moins de 15 nanosecondes.

« Bien que notre proposition soit fondée sur un substrat spécifique pour être aussi concrète que possible et pour estimer avec précision les énergies requises », déclare Crutchfield, « la proposition est beaucoup plus générale que cela. » Cela devrait fonctionner, en principe, avec des circuits électroniques normaux (bien que refroidis cryogéniquement) ou même avec de minuscules dispositifs mécaniques soigneusement isolés qui peuvent transporter de l’élan (et donc effectuer des calculs) dans leurs parties mobiles. Une approche avec des bits supraconducteurs pourrait être particulièrement bien adaptée, cependant, dit Crutchfield, car « c’est une microtechnologie familière qui est connue pour très bien évoluer ».

Crutchfield devrait savoir : en collaboration avec Michael Roukes et ses collaborateurs du California Institute of Technology, Crutchfield a précédemment mesuré le coût de l’effacement d’un bit dans un appareil JJ et a montré qu’il est proche de la limite de Landauer. Dans les années 1980, Crutchfield et Roukes ont même servi de consultants pour la tentative d’IBM de construire un ordinateur JJ réversible, qui a finalement été abandonné en raison de ce qui était, à l’époque, des exigences de fabrication trop exigeantes.

Suivez la balle rebondissante

Exploiter la vitesse d’une particule pour le calcul n’est pas une idée entièrement nouvelle. L’informatique Momentum est étroitement analogue à un concept d’informatique réversible appelé informatique balistique qui a été proposé dans les années 1980 : dans celui-ci, l’information est codée dans des objets ou des particules qui se déplacent librement à travers les circuits sous leur propre inertie, emportant avec eux un signal qui est utilisé. à plusieurs reprises pour exécuter de nombreuses opérations logiques. Si la particule interagit élastiquement avec les autres, elle ne perdra aucune énergie dans le processus. Dans un tel dispositif, une fois les bits balistiques « lancés », ils alimentent à eux seuls le calcul sans autre apport d’énergie. Le calcul est réversible tant que les bits continuent de rebondir le long de leurs trajectoires. Les informations ne sont effacées et l’énergie n’est dissipée que lorsque leurs états sont lus.

Alors que, dans le calcul balistique, la vitesse d’une particule la transporte simplement à travers l’appareil, permettant à la particule de transporter des informations de l’entrée à la sortie, dit Crutchfield, dans le calcul de l’impulsion, la vitesse et la position d’une particule lui permettent collectivement d’incarner une séquence unique et non ambiguë de états au cours d’un calcul. Cette dernière circonstance est la clé de la réversibilité et donc de la faible dissipation, ajoute-t-il, car elle peut révéler exactement où chaque particule a été.

Des chercheurs, dont Frank, ont travaillé sur l’informatique balistique réversible pendant des décennies. Un défi est que, dans sa proposition initiale, le calcul balistique est dynamiquement instable car, par exemple, les collisions de particules peuvent être chaotiques et donc très sensibles aux moindres fluctuations aléatoires : elles ne peuvent alors pas être inversées. Mais les chercheurs ont fait des progrès pour résoudre les problèmes. Dans un récent article de préimpression, Kevin Osborn et Waltraut Wustmann, tous deux de l’Université du Maryland, ont proposé que les circuits JJ puissent être utilisés pour créer un circuit logique balistique réversible appelé registre à décalage, dans lequel la sortie d’une porte logique devient l’entrée de la suivante d’une série d’opérations « flip-flop ».

« Les circuits supraconducteurs sont une bonne plate-forme pour tester les circuits réversibles », déclare Osborn. Ses circuits JJ, ajoute-t-il, semblent être très proches de ceux stipulés par Ray et Crutchfield et pourraient donc être le meilleur candidat pour tester leur idée.

« Je dirais que tous nos groupes ont travaillé à partir de l’intuition que ces méthodes peuvent réaliser un meilleur compromis entre efficacité et vitesse que les approches traditionnelles de l’informatique réversible », déclare Frank. Ray et Crutchfield « ont probablement fait le travail le plus approfondi jusqu’à présent pour le démontrer au niveau de la théorie et de la simulation de dispositifs individuels ». Même ainsi, Frank prévient que toutes les différentes approches du calcul balistique et de l’impulsion « sont encore loin de devenir une technologie pratique ».

Crutchfield est plus optimiste. « Cela dépend vraiment de la volonté des gens de soutenir la montée en puissance », dit-il. Il pense que de petits circuits JJ de calcul d’impulsion à faible dissipation pourraient être réalisables dans quelques années, avec des microprocesseurs complets faisant leurs débuts au cours de cette décennie. En fin de compte, il prévoit que l’informatique dynamique de qualité grand public pourrait réaliser des gains d’efficacité énergétique de 1 000 fois ou plus par rapport aux approches actuelles. « Imaginer [if] votre ferme de serveurs Google hébergée dans un entrepôt géant et utilisant 1 000 kilowatts pour le calcul et le refroidissement [was instead] réduit à un seul kilowatt, soit l’équivalent de plusieurs ampoules à incandescence », explique Crutchfield.

Mais les avantages de la nouvelle approche, dit Crutchfield, pourraient être plus larges qu’une réduction pratique des coûts énergétiques. « Le Momentum computing conduira à un changement conceptuel dans la façon dont nous voyons le traitement de l’information dans le monde », dit-il, y compris la façon dont l’information est traitée dans les systèmes biologiques.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite