Les nanomatériaux ouvrent la voie à la prochaine génération informatique
L’informatique à semi-conducteurs existe depuis longtemps depuis les années 1950, lorsque les transistors ont commencé à remplacer les tubes à vide en tant que composant clé des circuits électroniques. Des générations de nouveaux dispositifs à semi-conducteurs qui traitent et stockent les informations électroniquement à des vitesses accélérées sont allées et venues alors que les transistors au germanium étaient remplacés par des transistors au silicium, suivis par des circuits intégrés, puis par des puces de plus en plus complexes remplies d’un nombre toujours plus élevé de transistors plus petits.
Depuis 1965, l’industrie a été guidée par les prédictions de la loi de Moore faites par Gordon Moore, co-fondateur du géant des microprocesseurs Intel, selon lesquelles des appareils toujours plus petits conduiront à une amélioration des performances informatiques et de l’efficacité énergétique. Les progrès de la nanotechnologie ont permis de réduire à l’échelle atomique les plus petites fonctionnalités des circuits intégrés les plus avancés d’aujourd’hui, mais cela est incompatible avec les dispositifs actuels. La prochaine étape majeure de l’informatique nécessite non seulement de nouveaux nanomatériaux, mais aussi une nouvelle architecture.
Les transistors CMOS (complémentaire métal-oxyde-semi-conducteur) sont les éléments de base des circuits intégrés depuis les années 1980. Les circuits CMOS, comme les générations d’ordinateurs numériques avant eux, reposent sur l’architecture fondamentale choisie par John von Neumann au milieu du XXe siècle. Son architecture a été conçue pour séparer les composants électroniques qui stockent les données dans les ordinateurs de ceux qui traitent les informations numériques. L’ordinateur stockait les informations en un seul endroit, puis les envoyait à d’autres circuits pour traitement. Séparer la mémoire stockée du processeur empêche les signaux d’interférer les uns avec les autres et conserve la précision nécessaire au calcul numérique. Cependant, le temps passé à déplacer les données de la mémoire vers les processeurs est devenu un goulot d’étranglement. Les développeurs recherchent désormais des architectures alternatives non von Neumann pour effectuer des calculs dans la mémoire afin d’éviter de perdre du temps à déplacer des données.
Un autre objectif est de passer à des systèmes neuromorphiques, qui utilisent des algorithmes et des conceptions de réseau qui imitent la connectivité élevée et le traitement parallèle du cerveau humain. Cela signifie développer de nouveaux neurones et synapses artificiels compatibles avec le traitement électronique, mais dépassant les performances des circuits CMOS, explique Mark Hersam, chercheur en chimie et science des matériaux. Ce n’est pas un mince exploit, ajoute-t-il, mais cela en vaudrait bien le coût. Je suis plus intéressé par l’informatique neuromorphique que par le traitement en mémoire, car je pense que l’émulation du cerveau est un changement de paradigme plus important, avec plus d’avantages potentiels.
Le défi, dans les deux cas, est d’identifier les meilleures technologies pour la tâche, un travail que Hersam poursuit à la Northwestern University à Evanston, dans l’Illinois. Dans le Nature Index, qui suit les articles de 82 revues de sciences naturelles sélectionnées, la Northwestern University est classée deuxième aux États-Unis pour la production liée aux nanotechnologies, après le Massachusetts Institute of Technology de Cambridge.
Les premiers indices d’un changement majeur dans l’informatique sont apparus vers 2012, alors que la loi de Moores commençait à s’arrêter et que les développeurs d’apprentissage en profondeur où les systèmes amélioraient leurs performances sur la base de l’expérience passée ont réalisé que les unités centrales de traitement (CPU) à usage général utilisées dans les ordinateurs conventionnels pourraient ne répondent pas à leurs besoins.
Vers un traitement plus rapide
La force des processeurs était leur polyvalence, explique Wilfried Haensch, qui a dirigé un groupe de développement de concepts pour la mémoire informatique au centre de recherche IBM Watson à Yorktown Heights, New York, jusqu’à sa retraite en 2020. Quel que soit le programme que vous proposez, le processeur peut l’exécuter, dit Haensch. Qu’il puisse l’exécuter efficacement est une autre histoire.
À la recherche de meilleurs processeurs pour l’apprentissage en profondeur, les développeurs d’IBM se sont tournés vers les unités de traitement graphique (GPU), conçues pour effectuer des calculs mathématiques avancés utilisés pour l’imagerie tridimensionnelle à grande vitesse dans les jeux informatiques. IBM a découvert que les GPU peuvent exécuter des algorithmes d’apprentissage en profondeur beaucoup plus efficacement que les processeurs, de sorte que l’équipe a câblé des puces pour exécuter des processus particuliers.
Dans d’autres machines, vous chargez des données et des instructions, mais dans les machines à flux de données, certaines instructions sont câblées dans le processeur, vous n’avez donc pas à charger les instructions, explique Haensch. Cela a marqué une rupture avec le modèle conventionnel de von Neumann, car les données transitaient par le processeur câblé, comme si des opérations étaient effectuées en mémoire. Cela a également fonctionné pour l’algorithme d’apprentissage en profondeur, car environ 80% de ses opérations utilisaient les mêmes mathématiques avancées que le traitement d’image.
Un ajustement plus poussé des matériaux actuels n’offre qu’une solution à court terme, déclare Haensch. Il existe de nombreuses nouvelles idées, de nouveaux dispositifs et de nouvelles nanostructures, dit-il, mais aucun n’est prêt à remplacer le CMOS. Et il n’y a aucune garantie quant à savoir si, ou quand, ils seront prêts à apporter la transformation dont l’industrie a besoin.
Parmi la classe d’appareils en développement la plus populaire, on trouve les memristors, qui ont à la fois une mémoire et une résistance électrique. Les memristors ressemblent aux résistances électriques standard, mais leur appliquer une entrée électrique peut modifier leur résistance, modifiant ainsi ce qui est stocké en mémoire. Avec trois couches deux terminaux qui se connectent à d’autres appareils, séparés par une couche de stockage, leur structure leur permet de stocker des données et de traiter des informations. Le concept a été proposé en 1971, mais ce n’est qu’en 2007 que R. Stanley Williams, chercheur au Hewlett-Packard Labs à Palo Alto, en Californie, a fabriqué le premier memristor à semi-conducteurs à couche mince utilisable dans un circuit.
Les memristors peuvent être fabriqués à l’échelle du nanomètre et peuvent commuter en moins d’une nanoseconde. Ils ont un grand potentiel pour développer de futurs systèmes informatiques au-delà des époques de la loi de von Neumann et Moores, Wei Lu et son groupe de l’Université du Michigan à Ann Arbor ont décrit dans une revue de 2018 de la technologie memristor (MA Zidan et coll. Électron naturel. 1, 2229; 2018). Construire un système unique qui combine toutes les propriétés souhaitées ne sera pas facile.
Matériaux de nouvelle génération
Les chercheurs se tournent vers de nouvelles classes de matériaux pour répondre aux besoins de l’informatique de pointe. Hersam et son collègue Vinod K. Sangwan, chercheur en science et ingénierie des matériaux à l’Université Northwestern, ont répertorié une longue liste de matériaux électroniques neuromorphiques potentiels qui comprend des matériaux zérodimensionnels (points quantiques), des matériaux unidimensionnels et bidimensionnels (graphène ), et les hétérostructures de van der Waals (plusieurs couches bidimensionnelles de matériaux qui adhèrent ensemble) (VK Sangwan et MC Hersam Nature Nanotechnologie. 15, 517528; 2020).
Les nanotubes de carbone unidimensionnels, par exemple, ont attiré l’attention pour leur utilisation dans les systèmes neuromorphiques parce qu’ils ressemblent aux axones tubulaires à travers lesquels les cellules nerveuses transmettent des signaux électriques dans les systèmes biologiques.
Les avis sont partagés sur la façon dont ces matériaux seront pris en compte dans l’avenir de l’informatique. Abu Sebastian, le responsable technique basé à Zurich de l’IBM Research AI Hardware Center à Albany, New York, se concentre sur les gains à court terme et voit des opportunités d’aller plus loin dans l’informatique numérique et neuromorphique.
Des entreprises telles que Mythic [an artificial intelligence company based in Austin, Texas] sont très proches de la commercialisation, dit-il. Du côté de la recherche, Lu dit qu’il y a beaucoup à comprendre. Les calculs complexes adaptés de l’imagerie doivent être rendus plus précis et plus précis pour que l’informatique neuromorphique en tire pleinement parti, dit-il. Haensch ajoute qu’il n’existe jusqu’à présent aucun matériel permettant une production commerciale viable.
Intel et IBM, qui est la principale institution d’entreprise pour la production liée aux nanosciences et aux nanotechnologies dans l’indice de la nature, ont de grands groupes travaillant sur l’informatique non von Neumann. Hewlett-Packard et la société d’intelligence artificielle basée à Paris Lights-On font partie de plusieurs entreprises qui se concentrent sur les applications à court terme.