IBM se prépare pour le point d’inflexion de l’informatique quantique

IBM vient de terminer son Quantum Summit annuel. La société a franchi plusieurs étapes de la feuille de route Quantum et s’est lancée un nouveau défi. Au cours de ces sommets, IBM informe l’industrie de ses efforts continus pour faire de l’informatique quantique un élément clé de l’avenir de l’informatique et fixe des objectifs pour les développements futurs. Le thème du sommet était La prochaine vague, car IBM pense que le quantique approche rapidement d’un point d’inflexion. Le sommet a eu lieu cette année au centre-ville de Manhattan et a réuni de nombreux partenaires commerciaux d’IBM, notamment Boeing, Bosch, Vodaphone et bien d’autres. Il a également été bien suivi par les universitaires et les chercheurs du gouvernement.

La clé de l’acceptation et de la maturation de l’informatique quantique en tant qu’industrie sera la construction d’un écosystème sain et d’un ensemble de partenariats. IBMs Quantum Network compte désormais plus de 200 membres. La société a ajouté de nouveaux centres d’innovation quantique à l’Arizona State University, DESY, IIT Madras et le centre d’innovation uptownBasel récemment ouvert en Suisse. Ses derniers partenaires industriels sont Bosch, Crédit Mutuel Alliance Fdrale, Erste Digital, Tokyo Electron, HSBC et Vodafone. IBM propose plusieurs offres pour son programme quantique : notamment un plan ouvert, un plan de paiement à l’utilisation, ainsi qu’un plan premium. La société propose également un programme Quantum Accelerator avec des ressources de soutien aux entreprises à tout moment de leur parcours vers la préparation quantique.

L’un des nouveaux partenaires ajoutés au réseau IBM Quantum est la multinationale de télécommunications Vodafone, qui explore l’informatique quantique et la cryptographie quantique en tant que partenaire principal dans le cadre du consortium 3GPP. Un autre partenaire est la banque française Crédit Mutuel qui explore des cas d’utilisation dans les services financiers. En outre, uptownBasel propose un développement des compétences et promeut des projets d’innovation de premier plan sur la technologie informatique quantique et haute performance.

IBM a fait 12 annonces majeures lors du sommet, ce qui est difficile à condenser en une seule histoire. Une annonce matérielle clé a été Osprey, la nouvelle unité de traitement quantique (QPU) de 433 bits quantiques (qubit) d’IBM et le plus grand processeur quantique supraconducteur au monde.

Dans l’ensemble, IBM apporte des améliorations continues aux ordinateurs quantiques : échelle (plus de qubits), qualité (augmentation du volume quantique prenant en compte le temps de cohérence et les taux d’erreur) et vitesse (CLOP ou opérations de la couche circuit par seconde). Le nombre de qubits triple avec l’introduction du QPU Osprey à 433 qubits. Il y a une amélioration de 4x du volume quantique, passant de 128 à 512. Et il y a une amélioration de 10x du CLOPS de 1,4k à 15k dépassant l’objectif d’IBM de 10k CLOPS de 50% sur ses puces Falcon.

IBM a également publié un accès complet aux circuits dynamiques quantiques, ceux qui intègrent l’informatique classique pendant la durée du circuit pour effectuer un éventail plus riche d’opérations de circuit. Les circuits dynamiques, entre autres avantages, réduiront considérablement la longueur de certains circuits quantiques, ce qui rend plus pratique la conception de circuits quantiques utiles.

Pour résoudre les problèmes de mise à l’échelle du système multi-quantique, IBM avait besoin d’une nouvelle conception de cryostat. La société avait précédemment annoncé la conception d’IBM Quantum System Two, mais à mesure qu’elle se rapproche de la mise en œuvre, la conception de l’artiste a changé et une nouvelle conception a été révélée lors du sommet. Avec IBM Quantum System Two, plusieurs cryostats peuvent être positionnés les uns à côté des autres pour former un système unique avec des liaisons de communication. IBM prévoit de mettre le System Two en ligne d’ici la fin de 2023. Avec le système de nouvelle génération, IBM prévoit de construire la prochaine vague d’informatique quantique et intégrera le middleware pour le quantique avec des flux de travail quantiques et classiques dans un environnement multicloud.

Avec le développement de la technologie informatique quantique, il y a aussi la menace qu’elle puisse être utilisée comme une arme. Plus précisément, l’informatique quantique a de bonnes chances d’avancer jusqu’au point où elle peut casser les protocoles de cryptage à clé publique à l’aide de l’algorithme de Shors. Cette future menace est également abordée par l’organisme de normalisation US National Institute of Standards and Technology (NIST) dans ses normes de chiffrement de nouvelle génération. IBM a rappelé au public qu’il avait déjà déployé la prise en charge de ces normes de nouvelle génération dans son dernier ordinateur central IBM Z16.

PLUS DE FORBESAlors que le NIST se prépare pour Quantum Safe Security, IBM déploie son support

IBM Fellow et vice-président de Quantum Jay Gambetta a terminé la liste des annonces avec un défi qu’il a appelé 100×100. La citation dans son article de blog : En 2024, nous prévoyons de proposer un outil capable de calculer des observables non biaisés de circuits avec 100 qubits et 100 opérations de profondeur de porte dans un temps d’exécution raisonnable. Nous étions confiants dans notre capacité à fournir cet outil grâce à Heron : si nous pouvons construire un processeur Heron avec des taux d’erreur inférieurs au seuil de fidélité de la porte à trois neuf, plus l’infrastructure logicielle pour lire les circuits de concert avec les ressources classiques, alors nous pouvons exécutez un circuit de 100×100 en moins d’une journée et produisez des résultats impartiaux. Ce système sera capable d’exécuter des circuits quantiques avec une complexité et une durée d’exécution au-delà des capacités des meilleurs ordinateurs classiques d’aujourd’hui. À ce seuil, IBM pense être en mesure de démontrer que les ordinateurs quantiques peuvent résoudre des problèmes qui ne sont pas pratiques sur les ordinateurs classiques, souvent appelés Quantum Advantage. Avoir des QPU avec plus de 100 qubits presque sans erreur permet la mise en œuvre de circuits plus profonds et donc d’opérations plus complexes.

Même si le concept d’un ordinateur quantique est en développement depuis des décennies, ce n’est que récemment que nous avons atteint le point où nous avons suffisamment de qubits pour rendre les choses intéressantes. Une bonne partie est encore un projet scientifique. Les outils sont de plus en plus sophistiqués et de plus en plus accessibles. Mais c’est toujours un domaine à la recherche de problèmes à résoudre. De plus, les pionniers de l’informatique quantique parlent encore en des termes qui ne sont pas facilement compris par les programmeurs traditionnels. Nous sommes à peu près dans la position où se trouvaient les réseaux de neurones et le traitement de l’apprentissage en profondeur il y a environ dix ans. Nous assistons peut-être à un point d’inflexion similaire pour l’informatique quantique à mesure qu’elle augmente ses capacités. La vraie différence est que vous pouvez exécuter le traitement de l’IA sur une vaste gamme d’appareils informatiques, des microcontrôleurs aux superordinateurs. L’informatique quantique supraconductrice nécessite un équipement spécialisé qui ne peut être pris en charge qu’à l’échelle d’un centre de données. Il existe d’autres types de dispositifs informatiques quantiques qui peuvent trouver des applications dans certains domaines, mais pour la vitesse et la capacité les plus élevées, IBM a fait son pari sur les qubits supraconducteurs.

IBM s’est engagé dans l’informatique quantique car, comme Dario Gil, le responsable de la recherche de l’entreprise, l’a dit au public au début de l’événement, il existe trois domaines généraux de l’informatique : les bits (classique), les neurones (IA) et les qubits (quantique ). L’IA et le quantique nécessiteront toujours un contrôle et des connexions à l’informatique classique et ne remplaceront pas de sitôt les bits ordinaires. Mais l’IA et le quantique peuvent tous deux fournir des fonctions spécialisées qui sont difficiles ou même peu pratiques avec l’informatique classique. Alors que l’IA s’est déjà établie sur le marché grand public, le quantique est encore une technologie très naissante. Il existe des analogies entre l’IA et le quantique. Par exemple, les deux fournissent des résultats probabilistes (stochastiques). L’IA fournit une réponse probabiliste correcte et le quantum fournit une distribution de probabilité. Le parcours de l’IA pour gagner l’acceptation du grand public ne s’est pas fait du jour au lendemain, mais une fois qu’elle a été reconnue comme un outil puissant, les applications ont surgi partout. Quantum est toujours sur la voie de l’acceptation et de la reconnaissance de son pouvoir. L’informatique quantique cherche toujours sa niche. L’application du quantique aux problèmes du monde réel est peut-être plus limitée aujourd’hui, mais TIRIAS Research pense que l’informatique quantique aidera à résoudre certains des problèmes les plus difficiles que l’informatique classique ne peut qu’approximer et que l’IA ne peut que deviner.

Tirias Research suit et conseille les entreprises de tout l’écosystème électronique, des semi-conducteurs aux systèmes et capteurs au cloud. Les membres de l’équipe de recherche de Tirias ont été consultants pour IBM et d’autres entreprises dans les écosystèmes de la sécurité, de l’IA et du quantique.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite