IBM : les ordinateurs quantiques font déjà le gros du travail
Aussi puissants que puissent être théoriquement les ordinateurs quantiques un jour, ils sont actuellement si sujets aux erreurs que leur utilité ultime est souvent remise en question. Maintenant, cependant, IBM affirme que l’informatique quantique pourrait entrer dans une nouvelle ère d’utilité plus tôt que prévu, avec son ordinateur quantique Eagle de 127 qubits fournissant potentiellement des résultats précis sur des problèmes utiles au-delà de ce que même les superordinateurs d’aujourd’hui peuvent résoudre.
Les ordinateurs quantiques peuvent en théorie trouver des réponses à des problèmes que les ordinateurs classiques prendraient des éternités à résoudre. Plus un ordinateur quantique a de composants, connus sous le nom de bits quantiques ou qubits, reliés entre eux, plus il peut effectuer de calculs de base, appelés portes quantiques, de manière exponentielle.
Ces méthodes peuvent être appliquées à d’autres circuits plus généraux.
Kristan Temme, IBM
Le principal problème auquel sont confrontés les ordinateurs quantiques est leur vulnérabilité notoire aux perturbations dues à la moindre perturbation. Les ordinateurs quantiques de pointe actuels souffrent généralement d’environ une erreur toutes les 1 000 opérations, et de nombreuses applications pratiques exigent des taux d’erreur inférieurs d’un milliard de fois ou plus.
Les scientifiques espèrent un jour construire des ordinateurs quantiques dits tolérants aux pannes, qui peuvent posséder de nombreux qubits redondants. De cette façon, même si quelques qubits échouent, les techniques de correction d’erreurs quantiques peuvent aider les ordinateurs quantiques à détecter et à prendre en compte ces erreurs.
Utilité quantique : L’expérience IBM Quantum et UC Berkeley trace la voie vers une informatique quantique utile.IBM/www.youtube.com
Cependant, les ordinateurs quantiques existants sont des plates-formes dites quantiques à échelle intermédiaire bruyante (NISQ). Cela signifie qu’ils sont trop bourrés d’erreurs et possèdent trop peu de qubits pour exécuter avec succès des techniques de correction d’erreurs quantiques.
Malgré la nature précoce actuelle de l’informatique quantique, des expériences antérieures de Google et d’autres ont affirmé que les ordinateurs quantiques étaient peut-être entrés dans l’ère de l’avantage quantique, de la primauté quantique ou de la suprématie quantique sur les ordinateurs typiques. Les critiques à leur tour ont fait valoir que de tels tests montraient seulement que les ordinateurs quantiques étaient capables de surpasser les machines classiques sur des problèmes artificiels. En tant que tel, il reste vivement débattu de savoir si les ordinateurs quantiques sont assez bons pour s’avérer utiles en ce moment.
IBM révèle maintenant que son processeur quantique Eagle peut simuler avec précision la physique que les ordinateurs ordinaires ont du mal à modéliser au-delà d’un certain niveau de complexité. Non seulement ces simulations sont réellement utiles aux chercheurs, selon la société, mais les méthodes qu’ils ont développées pourraient être appliquées à d’autres types d’algorithmes fonctionnant sur des machines quantiques aujourd’hui.
Dans des expériences, les chercheurs ont demandé à l’ordinateur quantique d’IBM de modéliser la dynamique des spins des électrons dans un matériau pour prédire ses propriétés, telles que la magnétisation. Ce modèle est celui que les scientifiques comprennent bien, ce qui permet aux chercheurs de valider plus facilement l’exactitude des résultats des ordinateurs quantiques.
Il est important de noter que nos méthodes ne se limitent pas à ce modèle particulier, déclare le co-auteur de l’étude Kristan Temme, physicien quantique au centre de recherche Thomas J. Watson d’IBM, à Yorktown Heights, New York. Ces méthodes peuvent être appliquées à d’autres circuits plus généraux.
Ce graphique montre les performances de l’ordinateur quantique par rapport aux méthodes d’approximation classiques de pointe par rapport à la méthode de force brute classique exacte pour une série de problèmes de calcul de plus en plus difficiles.IBM
Dans le même temps, des scientifiques de l’Université de Californie à Berkeley ont effectué des versions de ces simulations sur des superordinateurs classiques pour comparer les performances de l’ordinateur quantique. Ils ont utilisé deux ensembles de techniques. Les simulations de force brute ont fourni les résultats les plus précis, mais ont également exigé trop de puissance de traitement pour simuler de grands systèmes complexes. D’un autre côté, les méthodes d’approximation pourraient estimer les réponses pour les grands systèmes, mais elles s’avèrent généralement de moins en moins précises à mesure qu’un système grandit.
Ce graphique compare les performances de l’ordinateur quantique par rapport aux méthodes d’approximation classiques dans le régime au-delà des capacités des méthodes de force brute classiques exactes.IBM
À la plus grande échelle examinée, l’ordinateur quantique était environ trois fois plus rapide que les méthodes d’approximation classiques, trouvant des réponses en neuf heures contre 30. Plus important encore, les chercheurs ont découvert qu’à mesure que l’échelle des modèles augmentait, l’ordinateur quantique correspondait à la simulations classiques de force brute, tandis que les méthodes d’approximation classiques sont devenues moins précises.
Ce que nous faisons dans ce travail est de démontrer que nous pouvons exécuter des circuits quantiques à très grande échelle et obtenir des résultats corrects, ce qui a toujours été remis en question et pour lequel de nombreuses personnes ont soutenu qu’il ne serait pas possible sur les appareils actuels, Temme dit.
Lorsque les comparaisons ont montré que les résultats quantiques n’étaient pas en accord avec les méthodes d’approximation classiques, nous avons d’abord supposé que l’expérience avait fait une erreur, dit Temme. Ce fut une surprise d’apprendre alors que l’ordinateur quantique correspondait aux simulations classiques de force brute plutôt qu’aux méthodes d’approximation classiques, ajoute-t-il.
Nous espérons que cela conduira à un va-et-vient entre les méthodes, que l’ordinateur quantique finira par gagner.
Kristan Temme, IBM
Les scientifiques ont effectué des tests dans lesquels ils ont généré des résultats à partir de 127 qubits exécutant 60 étapes de 2 880 portes quantiques. Ils notent que ce qu’un ordinateur quantique peut théoriquement faire avec 68 qubits est déjà au-delà de ce que les simulations classiques de force brute sont capables de calculer. Bien que les chercheurs ne puissent pas prouver si les réponses fournies par l’ordinateur quantique lors de l’utilisation de plus de 68 qubits sont correctes, ils affirment que son succès lors des exécutions précédentes les rend confiants.
Les scientifiques d’IBM avertissent qu’ils ne prétendent pas que leur ordinateur quantique est meilleur que l’informatique classique. Les recherches futures pourraient bientôt découvrir que les ordinateurs ordinaires peuvent trouver des réponses correctes pour les calculs utilisés dans ces expériences, disent-ils.
Nous espérons que cela conduira à un va-et-vient entre les méthodes, que l’ordinateur quantique finira par gagner, dit Temme.
Dans tous les cas, même si les ordinateurs quantiques ne surpassent pas complètement les ordinateurs classiques, ces nouvelles découvertes suggèrent qu’ils peuvent encore s’avérer utiles pour des problèmes que les ordinateurs ordinaires trouvent extraordinairement difficiles. Cela suggère que nous entrons peut-être dans une nouvelle ère d’utilité pour l’informatique quantique, a déclaré Daro Gil, vice-président senior et directeur d’IBM Research, dans un communiqué.
IBM note que son matériel quantique affichait des qubits plus stables et des taux d’erreur plus faibles qu’auparavant. Cependant, les nouvelles découvertes dépendaient de ce qu’IBM appelle des techniques d’atténuation des erreurs quantiques, qui examinent la sortie d’un ordinateur quantique pour tenir compte et éliminer le bruit subi par ses circuits.
La stratégie d’atténuation des erreurs quantiques qu’IBM a utilisée dans la nouvelle étude, l’extrapolation sans bruit, les calculs quantiques répétés à différents niveaux de bruit que le processeur quantique peut avoir subis de son environnement. Cela a aidé les chercheurs à extrapoler ce que l’ordinateur quantique aurait calculé en l’absence de bruit.
En fin de compte, nous voudrons avoir un ordinateur quantique tolérant aux pannes. La direction à long terme doit être de combler ces résultats jusqu’à un point où nous pouvons utiliser la correction d’erreur quantique.
Kristan Temme, IBM
Notre matériel et nos méthodes d’atténuation des erreurs sont maintenant au niveau où ils peuvent être utilisés pour commencer à mettre en œuvre l’écrasante majorité de tous les algorithmes à court terme qui ont été proposés au cours des cinq à 10 dernières années, pour voir quel algorithme fournit réellement un avantage quantique dans la pratique, dit Temme.
Un inconvénient de l’extrapolation sans bruit est qu’elle nécessite un ordinateur quantique pour exécuter ses circuits plusieurs fois. Pour la méthode d’extrapolation à bruit nul que nous avons utilisée ici, nous devons exécuter la même expérience à trois niveaux de bruit différents, explique Temme. Il s’agit d’un coût qui doit être payé pour chaque point de données dans le calcul, c’est-à-dire chaque fois que nous utilisons le processeur.
IBM note que ces nouvelles découvertes représentent les premiers résultats sur l’atténuation des erreurs quantiques à cette échelle. Nous pensons qu’il y a encore beaucoup de place pour l’amélioration de ces méthodes, dit Temme. Les recherches futures peuvent également tester si l’atténuation des erreurs quantiques peut s’appliquer de manière générale, comme l’espère la société, à d’autres types d’applications quantiques au-delà de ce modèle unique, ajoute-t-il.
IBM affirme que ses ordinateurs quantiques fonctionnant à la fois sur le cloud et sur site chez des partenaires au Japon, en Allemagne et aux États-Unis seront alimentés par un minimum de 127 qubits au cours de l’année prochaine.
En fin de compte, nous voudrons avoir un ordinateur quantique tolérant aux pannes, dit Temme. La direction à long terme doit être de combler ces résultats jusqu’à un point où nous pouvons utiliser la correction d’erreur quantique. Nous nous attendons à ce que cela stimule le développement du matériel, où chaque amélioration au niveau des composants se traduit désormais par des calculs plus complexes pouvant être exécutés, conduisant à une transition plus fluide vers un appareil tolérant aux pannes.
Les scientifiques ont détaillé leurs découvertes le 14 juin dans la revue Nature.
À partir des articles de votre site
Articles connexes sur le Web