L’informatique quantique est une vérification difficile et froide de la réalité
La révolution de l’ordinateur quantique est peut-être plus lointaine et plus limitée que beaucoup ont été amenés à le croire. C’est le message venant d’un groupe restreint mais bruyant d’éminents sceptiques au sein et autour de l’industrie émergente de l’informatique quantique.
Les ordinateurs quantiques ont été présentés comme une solution à un large éventail de problèmes, notamment la modélisation financière, l’optimisation de la logistique et l’accélération de l’apprentissage automatique. Certains des calendriers les plus ambitieux proposés par les sociétés d’informatique quantique suggèrent que ces machines pourraient avoir un impact sur des problèmes réels dans quelques années seulement. Mais il y a une résistance croissante à l’encontre de ce que beaucoup considèrent comme des attentes irréalistes à l’égard de cette technologie.
Metas LeCunPas si vite, qubit
Yann LeCun, responsable de la recherche sur l’IA chez Metas, a récemment fait la une des journaux après avoir jeté de l’eau froide sur la perspective d’une contribution significative des ordinateurs quantiques dans un avenir proche. S’exprimant lors d’un événement médiatique célébrant le 10e anniversaire de l’équipe de recherche fondamentale sur l’IA de Metas, il a déclaré que la technologie était un sujet scientifique fascinant, mais qu’il était moins convaincu de la possibilité de fabriquer des ordinateurs quantiques réellement utiles.
Bien que LeCun ne soit pas un expert en informatique quantique, des personnalités de premier plan dans le domaine se montrent également prudentes. Oskar Painter, responsable du matériel quantique chez Amazon Web Services, affirme qu’il y a actuellement énormément de battage médiatique dans l’industrie et qu’il peut être difficile de filtrer l’optimiste de l’irréaliste.
Un défi fondamental pour les ordinateurs quantiques d’aujourd’hui est qu’ils sont très sujets aux erreurs. Certains ont suggéré que ces processeurs dits quantiques bruyants à échelle intermédiaire (NISQ) pourraient encore être utilisés utilement. Mais Painter affirme qu’il est de plus en plus reconnu que cela est peu probable et que les systèmes de correction d’erreurs quantiques seront essentiels à la réalisation d’ordinateurs quantiques pratiques.
Nous avons découvert au cours des 10 dernières années que beaucoup de choses proposées ne fonctionnent pas. Et puis nous avons trouvé des raisons très simples à cela.
Matthias Troyer, Microsoft
La principale proposition consiste à répartir les informations sur de nombreux qubits physiques pour créer des qubits logiques plus robustes, mais cela pourrait nécessiter jusqu’à 1 000 qubits physiques pour chaque qubit logique. Certains ont suggéré que la correction des erreurs quantiques pourrait même être fondamentalement impossible, bien que ce ne soit pas une opinion dominante. Quoi qu’il en soit, la réalisation de ces projets à l’échelle et aux vitesses requises reste un objectif lointain, dit Painter.
Compte tenu des défis techniques restant à relever pour réaliser un ordinateur quantique tolérant aux pannes, capable d’exécuter des milliards de portes sur des milliers de qubits, il est difficile de fixer un calendrier, mais j’estime qu’il faudra au moins une décennie, dit-il.
MicrosoftClarity, s’il vous plaît
Le problème n’est pas seulement celui des délais. En mai, Matthias Troyer, chercheur technique chez Microsoft qui dirige les efforts d’informatique quantique de l’entreprise, a co-écrit un article dans Communication de l’ACM ce qui suggère que le nombre d’applications dans lesquelles les ordinateurs quantiques pourraient offrir un avantage significatif était plus limité que certains pourraient le laisser croire.
Nous avons découvert au cours des dix dernières années que beaucoup de choses proposées ne fonctionnent pas, dit-il. Et puis nous avons trouvé des raisons très simples à cela.
La principale promesse de l’informatique quantique est la capacité de résoudre des problèmes beaucoup plus rapidement que les ordinateurs classiques, mais la rapidité exacte varie. Il existe deux applications dans lesquelles les algorithmes quantiques semblent fournir une accélération exponentielle, explique Troyer. La première consiste à prendre en compte de grands nombres, ce qui pourrait permettre de briser le cryptage à clé publique sur lequel Internet est construit. L’autre consiste à simuler des systèmes quantiques, qui pourraient avoir des applications en chimie et en science des matériaux.
Des algorithmes quantiques ont été proposés pour résoudre une série d’autres problèmes, notamment l’optimisation, la conception de médicaments et la dynamique des fluides. Mais les accélérations vantées ne se traduisent pas toujours par un gain quadratique, ce qui signifie que le temps nécessaire à l’algorithme quantique pour résoudre un problème est la racine carrée du temps nécessaire à son homologue classique.
Troyer affirme que ces gains peuvent rapidement être anéantis par la surcharge de calcul massive encourue par les ordinateurs quantiques. Faire fonctionner un qubit est bien plus compliqué que commuter un transistor et est donc plusieurs fois plus lent. Cela signifie que pour des problèmes plus petits, un ordinateur classique sera toujours plus rapide, et le point auquel l’ordinateur quantique prendra l’avantage dépend de la rapidité avec laquelle la complexité de l’algorithme classique évolue.
Faire fonctionner un qubit est bien plus compliqué que commuter un transistor et est donc plusieurs fois plus lent.
Troyer et ses collègues ont comparé un seul GPU Nvidia A100 à un futur ordinateur quantique fictif, tolérant aux pannes, doté de 10 000 qubits logiques et de portes beaucoup plus rapides que les appareils actuels. Troyer dit qu’ils ont découvert qu’un algorithme quantique avec une accélération quadratique devrait fonctionner pendant des siècles, voire des millénaires, avant de pouvoir surpasser un algorithme classique sur des problèmes suffisamment importants pour être utiles.
Un autre obstacle important est la bande passante des données. Les vitesses de fonctionnement lentes des qubits limitent fondamentalement la vitesse à laquelle vous pouvez obtenir des données classiques entrant et sortant d’un ordinateur quantique. Même dans des scénarios futurs optimistes, cela sera probablement des milliers, voire des millions de fois, plus lent que les ordinateurs classiques, explique Troyer. Cela signifie que les applications gourmandes en données, comme l’apprentissage automatique ou la recherche dans des bases de données, seront certainement hors de portée dans un avenir prévisible.
La conclusion, dit Troyer, était que les ordinateurs quantiques ne brilleront vraiment que sur les problèmes de petites données avec des accélérations exponentielles. Tout le reste est une belle théorie, mais ne sera pas pratique, ajoute-t-il.
Le document n’a pas eu beaucoup d’impact sur la communauté quantique, explique Troyer, mais de nombreux clients de Microsoft étaient reconnaissants d’avoir des éclaircissements sur des applications réalistes pour l’informatique quantique. Il affirme avoir vu un certain nombre d’entreprises réduire, voire fermer leurs équipes d’informatique quantique, en particulier dans le secteur financier.
AaronsonBienvenue, sceptiques
Ces limitations ne devraient pas vraiment surprendre quiconque s’intéresse de près à la recherche sur l’informatique quantique, déclare Scott Aaronson, professeur d’informatique à l’Université du Texas à Austin. Il y a ces affirmations sur la façon dont l’informatique quantique va révolutionner l’apprentissage automatique, l’optimisation, la finance et toutes ces industries, pour lesquelles je pense que le scepticisme a toujours été justifié, dit-il. Si les gens commencent tout juste à y penser, alors, bienvenue.
Même s’il estime également que les applications pratiques sont encore loin, les progrès récents dans ce domaine lui donnent en réalité des raisons d’être optimiste. Plus tôt ce mois-ci, des chercheurs de la start-up d’informatique quantique QuEra et Harvard ont démontré qu’ils pouvaient utiliser un processeur de 280 qubits pour générer 48 qubits logiques, bien plus que ce que les expériences précédentes avaient réussi. Il s’agit sans aucun doute de la plus grande avancée expérimentale depuis plusieurs années, explique Aaronson.
Quand vous dites que le quantique va résoudre tous les problèmes du monde, et que ce n’est pas le cas, ou ce n’est pas le cas pour l’instant, cela crée un peu de déception.
Yuval Boger, QuEra
Yuval Boger, directeur du marketing chez QuEra, tient à souligner que l’expérience était une démonstration en laboratoire, mais il pense que les résultats ont amené certains à réévaluer leurs délais pour l’informatique quantique tolérante aux pannes. Dans le même temps, il dit qu’ils ont également remarqué une tendance des entreprises à détourner discrètement leurs ressources de l’informatique quantique.
Cela s’explique en partie par l’intérêt croissant pour l’IA depuis l’avènement des grands modèles de langage, explique-t-il. Mais il reconnaît que certains acteurs du secteur ont exagéré le potentiel à court terme de la technologie et estime que ce battage médiatique est une arme à double tranchant. Cela aide à attirer des investissements et à inciter les personnes talentueuses à se lancer dans ce domaine, dit-il. Mais d’un autre côté, quand vous dites que le quantique va résoudre tous les problèmes du monde, et que ce n’est pas le cas, ou ce n’est pas le cas pour l’instant, cela crée une petite déception.
Même dans les domaines où les ordinateurs quantiques semblent les plus prometteurs, les applications pourraient être plus limitées qu’espéré initialement. Ces dernières années, des articles rédigés par des chercheurs de la société de logiciels scientifiques Schrdinger et une équipe multi-institutionnelle ont suggéré que seul un nombre limité de problèmes en chimie quantique sont susceptibles de bénéficier des accélérations quantiques.
Merck KGaABel accélérateur, parfois
Il est également important de se rappeler que de nombreuses entreprises disposent déjà de flux de travail de chimie quantique matures et productifs qui fonctionnent sur du matériel classique, explique Philipp Harbach, responsable mondial de l’innovation numérique du groupe chez le géant pharmaceutique allemand Merck KGaA, à Darmstadt, en Allemagne (à ne pas confondre avec le société américaine Merck).
Dans le public, l’ordinateur quantique a été présenté comme s’il permettrait quelque chose qui n’est pas réalisable actuellement, ce qui est inexact, dit-il. Principalement, cela accélérera les processus existants plutôt que d’introduire un nouveau domaine d’application complètement disruptif. Nous évaluons donc ici une différence.
Le groupe Harbachs étudie depuis environ six ans la pertinence de l’informatique quantique pour les travaux de Mercks. Bien que les dispositifs NISQ puissent potentiellement être utiles pour certains problèmes hautement spécialisés, ils ont conclu que l’informatique quantique n’aura pas d’impact significatif sur l’industrie tant que la tolérance aux pannes ne sera pas atteinte. Même dans ce cas, l’ampleur de cet impact dépend vraiment du cas d’utilisation spécifique et des produits sur lesquels l’entreprise travaille, explique Harbach.
Les ordinateurs quantiques brillent par leur capacité à fournir des solutions précises à des problèmes qui deviennent insolubles à plus grande échelle pour les ordinateurs classiques. Cela pourrait être très utile pour certaines applications, comme la conception de nouveaux catalyseurs, explique Harbach. Mais la plupart des problèmes chimiques qui intéressent Merck impliquent le criblage très rapide d’un grand nombre de molécules candidates.
La plupart des problèmes en chimie quantique n’évoluent pas de manière exponentielle et les approximations suffisent, dit-il. Ce sont des problèmes bien résolus, il vous suffit de les rendre plus rapides en augmentant la taille du système.
Néanmoins, il peut encore y avoir des raisons d’être optimiste, estime Troyer de Microsoft. Même si les ordinateurs quantiques ne peuvent résoudre qu’une palette limitée de problèmes dans des domaines tels que la chimie et la science des matériaux, leur impact pourrait encore changer la donne. Nous parlons de l’âge de pierre, de l’âge du bronze, de l’âge du fer et de l’âge du silicium. Les matériaux ont donc un impact énorme sur l’humanité, dit-il.
Selon Troyer, l’objectif d’exprimer un certain scepticisme n’est pas de diminuer l’intérêt pour ce domaine, mais de garantir que les chercheurs se concentrent sur les applications les plus prometteuses de l’informatique quantique ayant les plus grandes chances d’impact.
MISE À JOUR : 28 décembre 2023 : Cet article a été mis à jour pour clarifier le fait que Matthias Troyer, cité ci-dessus, a connu une réduction des effectifs dans le secteur financier mais pas dans le secteur des sciences de la vie, qui sont tous deux Spectre avait initialement signalé par erreur .
À partir des articles de votre site
Articles connexes sur le Web