Le logiciel, et non le matériel, pilotera l’informatique quantique et neuromorphique
Dans les domaines informatiques émergents comme l’informatique quantique et l’informatique neuromorphique, le matériel retient généralement la part du lion de l’attention. Vous pouvez voir les systèmes et les puces qui les pilotent, parler des qubits et de l’informatique qui simule le fonctionnement du cerveau humain, trier les vitesses et les flux, parler des interconnexions, de la consommation d’énergie et des transistors, et imaginer que tout cela devient plus petit et plus dense au fur et à mesure que les dernières générations se déploient.
Mais comme Intel l’a noté cette semaine lors de son salon Intel Innovation 2022, alors que le matériel est important pour donner vie au quantique et au neuromorphique, ce qui stimulera l’adoption est le logiciel qui l’accompagne. Les systèmes sont agréables à regarder, mais ce sont des décorations si les organisations ne peuvent pas les utiliser.
C’était le message derrière certaines des nouvelles d’Intel liées à l’informatique quantique et neuromorphique lors d’une conférence à San Jose, en Californie. Côté quantique, Intel a dévoilé la bêta de son Quantum SDK (kit de développement logiciel), un package qui comprend diverses applications et algorithmes, un runtime quantique, un compilateur quantique C++ et le simulateur quantique Intel.
Dans le domaine neuromorphique, la société a dévoilé Kapoho Point, une carte système contenant des puces de recherche Intel Loihi 2 qui peuvent être utilisées dans des facteurs de forme aussi petits que les drones, les satellites et les voitures intelligentes. Les cartes qui peuvent piloter des modèles d’IA comportant jusqu’à 1 milliard de paramètres et résoudre des problèmes d’optimisation comportant jusqu’à 8 millions de variables peuvent également évoluer en empilant jusqu’à huit (pour l’instant) pour résoudre des problèmes plus importants.
Selon Intel, Kapoho Point offre 10 fois plus de vitesse et 1 000 fois plus d’efficacité énergétique que les systèmes à processeur les plus modernes.
Cependant, Intel a également proposé une amélioration progressive de Lava, sa pile logicielle open source pour l’informatique neuromorphique introduite pour la première fois il y a un an avec Loihi 2. Les améliorations apportées au cadre modulaire pour le développement d’algorithmes neuromorphiques incluent une meilleure prise en charge des fonctionnalités de Loihi 2, y compris les neurones programmables, événements gradués et apprentissage continu.
De telles offres correspondent à l’approche logicielle en expansion qu’Intel adopte dans toute l’entreprise sous la direction du PDG Pat Gelsinger alors qu’il cherche à moderniser une entreprise connue depuis des décennies en tant que fabricant de matériel et de composants, mais qui trouve maintenant sa voie dans un monde informatique en évolution où le matériel est dicté par les besoins de l’application.
Comme pour de nombreux logiciels de l’entreprise, il reste à voir comment Quantum SDK et Lava évolueront au sein du modèle commercial d’Intel. La société affirme que ces deux progiciels ouverts seront utilisés pour aider à développer ces marchés relativement nouveaux, mais une question est de savoir si Intel trouvera ultérieurement des moyens de monétiser le logiciel pour augmenter ses résultats ou s’ils sont plus utiles comme des moyens d’accélérer l’adoption de ses propres ambitions quantiques et neuromorphiques en élargissant la clientèle des offres.
S’adressant aux journalistes quelques jours avant le début de l’innovation, Anne Matsuura, directrice des technologies quantiques et moléculaires chez Intel, a déclaré que la société travaillait sur un logiciel pour soutenir ses efforts quantiques depuis un certain temps, mais n’avait pas jusqu’à récemment pensé à le rassembler. dans un SDK que d’autres pourraient utiliser.
Même si nous disons d’abord les logiciels et que nous évoluons vers une entreprise axée sur les logiciels, Intel est une entreprise de matériel, a déclaré Matsuura. Nous n’avions pas initialement prévu de sortir le logiciel séparément. Mais au début, nous avons été inspirés par d’autres entreprises. Nous avons pensé : « Nous devons également envisager de développer un écosystème d’utilisateurs pour les technologies quantiques d’Intel », et nous avons commencé à réaliser que c’était en fait une bonne idée de publier le logiciel en premier. C’est la seule raison pour laquelle nous avons attendu si longtemps. Cela ne nous était pas venu à l’esprit.
Cela dit, le logiciel est un élément clé du déploiement éventuel d’un ordinateur quantique basé sur Intel, a-t-elle déclaré. L’un des objectifs est d’habituer les gens à utiliser nos logiciels, de les habituer à utiliser la technologie quantique d’Intel. De cette façon, vous apprenez essentiellement à programmer un ordinateur quantique Intel à l’aide du SDK Quantum. C’est en quelque sorte l’impact. En ce qui concerne les performances, je ne sais pas s’il y a beaucoup d’impact sur les performances réelles des qubits eux-mêmes, mais notre logiciel SDK, notre pile, a été créé en tandem avec notre puce qubit, nous sommes donc particulièrement adaptés pour fonctionner les qubits Intel.
La base du SDK Quantum est l’utilisation de la description de niveau intermédiaire LLVM de l’informatique classique et est optimisée pour les algorithmes quantiques classiques, ou algorithmes variationnels, qui sont parmi les plus populaires aujourd’hui. Selon Matsuura, le logiciel fonctionnera également avec des composants tels que les simulateurs quantiques de la société et éventuellement les puces quantiques basées sur le spin-qubit d’Intel, qui ressemblent à des transistors.
Intel a créé une gamme de plaquettes de 300 millimètres pour ses puces quantum dot spin-qubit et se concentre sur tout, des architectures matérielles et logicielles aux applications et aux charges de travail.
À l’heure actuelle, le SDK comprend un compilateur pour un jeu d’instructions quantiques binaires et un runtime quantique pour gérer l’exécution du programme, a déclaré Matsuura. Le compilateur permet des opérations quantiques définies par l’utilisateur et les décompose en opérations disponibles sur la puce intel quantum dot qubit, a-t-elle déclaré. Nous avons amélioré le LLVM standard de l’industrie [low-level virtual machine] représentation intermédiaire avec extensions quantiques. Nous l’avons fait intentionnellement en utilisant les normes de l’industrie afin qu’à l’avenir nous puissions ouvrir le frontal du compilateur et permettre aux utilisateurs d’utiliser le compilateur frontal de leur choix et de cibler notre interface IR LLVM.
Intel a déjà ouvert le simulateur quantique dans le SDK et peut exécuter des opérations à un et deux qubits et peut simuler 30 qubits sur un ordinateur portable et plus de 40 qubits sur des nœuds de calcul distribués. Intel a l’intention de déployer la version 1.0 du SDK au premier trimestre de l’année prochaine et plus tard un SDK complet comprenant à la fois le matériel et les logiciels.
Dans la version 1.0, Intel travaille à permettre aux développeurs d’importer des outils non-Intel, comme Qiskit et Cirq, dans le SDK. Dans le même temps, Intel contribue également au financement d’établissements d’enseignement supérieur comme Penn State aux États-Unis et l’Institut de technologie de Deggendorf en Allemagne.
Comme pour le SDK Quantum, Intel n’avait initialement pas l’intention de créer un cadre logiciel à partir du logiciel développé et utilisé en interne pour l’informatique neuromorphique, selon Mike Davies, ingénieur principal et directeur des fabricants de puces Neuromorphic Computing Lab. Cependant, il est devenu évident que l’absence d’une pile logicielle à usage général entravait les efforts de l’industrie dans ce domaine.
Jusqu’à Lava, il était très difficile pour les groupes de s’appuyer sur les résultats d’autres groupes, même au sein de notre propre communauté, car les logiciels ont tendance à être très cloisonnés, très laborieux pour construire ces exemples convaincants, a déclaré Davies aux journalistes. Mais tant que ces exemples sont développés d’une manière qui ne peut pas être facilement transférée entre les groupes et que vous ne pouvez pas les concevoir à un niveau élevé d’abstraction, il devient très difficile de déplacer cela dans le domaine commercial où nous devons atteindre un large communauté de développeurs grand public qui n’ont pas passé des années à faire des doctorats en neurosciences computationnelles et en ingénierie neuromorphique.
Lava est un framework open-source avec une licence permissive, donc on s’attend à ce que d’autres fabricants de puces neuromorphiques comme IBM, Qualcomm et BrainChip portent Lava sur leurs propres frameworks. Ce n’est pas propriétaire, bien qu’Intel en soit le principal contributeur, a déclaré Davies.
La dernière itération de Lava est la version 0.5, bien que la société ait régulièrement déployé des versions de Lava sur GitHub, a-t-il déclaré. Il illustre également, ainsi que les améliorations du circuit dans Loihi 2, les progrès réalisés dans la puce pour l’exécution de réseaux de neurones à anticipation profonde, un type de réseau de base utilisé dans certaines utilisations d’apprentissage supervisé. Il y a moins de ressources de puce nécessaires pour prendre en charge ces réseaux, l’opération d’inférence est jusqu’à 12 fois plus rapide que Loihi 1 et 50 fois plus économe en énergie.
Ce ne sont pas les types de charges de travail pour lesquelles Loihi a été conçu pour prendre en charge les GPU et d’autres accélérateurs peuvent bien exécuter des réseaux à anticipation profonde. Et Intel en est conscient. Il est très important que nous soutenions les réseaux de neurones à anticipation du type que tout le monde utilise et aime aujourd’hui, car ils ne sont qu’un élément de base important pour les futures applications neuromorphiques. Davies a dit.