Google fait une percée dans l’informatique quantique, bien plus importante que l’IA

Le battage médiatique autour de la montée en puissance de ChatGPT et du terrain supposé que Google perd face à Microsoft Corp. et OpenAI dans les guerres de recherche a éclipsé des développements plus importants en informatique, des progrès qui auront des implications bien plus importantes que le site Web qui propose de meilleurs conseils fiscaux.

L’informatique quantique est le Saint Graal des scientifiques et des chercheurs, mais elle est encore à des décennies de la réalité. Cependant, la société mère de Google, Alphabet Inc., a fait avancer la balle le mois dernier en annonçant qu’elle avait trouvé des moyens d’améliorer l’un des plus gros problèmes auxquels était confronté le domaine naissant : la précision.

À ce jour, tous les calculs se font à l’échelle binaire. Une information est stockée sous la forme 1 ou 0, et ces unités binaires (bits) sont regroupées pour un calcul ultérieur. Nous avons besoin de 4 bits pour stocker le nombre 8 (1000 en binaire), par exemple. C’est lent et maladroit, mais au moins c’est simple et précis. Les puces en silicium contiennent et traitent des bits depuis près de sept décennies.

Les bits quantiques qubits peuvent stocker des données sous plus de deux formes (il peut être à la fois 1 et 0 en même temps). Cela signifie que de plus grandes quantités d’informations peuvent être traitées dans un laps de temps donné. Parmi les nombreux inconvénients, il y a le fait que la manifestation physique d’un qubit nécessite des températures super froides juste au-dessus de 0 degré Kelvin et est sensible même à la plus infime quantité d’interférences, comme la lumière. Ils sont également sujets aux erreurs, ce qui est un gros problème en informatique.

Dans un article publié dans Nature le mois dernier, Google affirme avoir fait une énorme percée dans un sous-domaine important appelé correction d’erreur quantique. L’approche est assez simple. Au lieu de s’appuyer sur des qubits physiques individuels, les scientifiques stockent des informations sur de nombreux qubits physiques, mais considèrent ensuite cette collection comme une seule (appelée qubit logique).

Google avait émis l’hypothèse que le regroupement d’un plus grand nombre de qubits physiques pour former un seul qubit logique réduirait le taux d’erreur. Dans son document de recherche, décrit dans un article de blog du PDG Sundar Pichai, l’équipe a découvert qu’un qubit logique formé de 49 qubits physiques surpassait en effet celui composé de 17.

En réalité, consacrer 49 qubits à la gestion d’un seul qubit logique semble inefficace et même exagéré. Imaginez stocker vos photos sur 49 disques durs juste pour vous assurer que, collectivement, un seul disque dur est sans erreur. Mais étant donné le vaste potentiel de l’informatique quantique, même de tels petits pas représentent des progrès significatifs.

Plus important encore, cela donne à la communauté scientifique au sens large une base à partir de laquelle s’appuyer sur ces connaissances pour faire progresser les domaines connexes, notamment la science des matériaux, les mathématiques et le génie électrique, qui seront tous nécessaires pour faire de l’ordinateur quantique une réalité. L’espoir de construire un système capable de résoudre un problème qu’aucune machine actuelle ne pourrait réellement gérer s’appelle la suprématie quantique.

Il y a quatre ans, Google affirmait avoir réalisé un test en 200 secondes pour une tâche qui prendrait des milliers d’années à un supercalculateur conventionnel, preuve qu’il était sur la voie de la suprématie quantique.

Mais comme les outils d’intelligence artificielle tels que ChatGPT, prouver qu’ils fonctionnent n’est qu’une partie du puzzle. Haute précision et faibles taux d’erreur, ce que les chatbots récents ont tendance à rester insaisissable. L’amélioration sur ce front est un objectif majeur pour les développeurs des deux technologies, OpenAI déclarant cette semaine que son nouveau GPT-4 est 40% plus susceptible de produire des résultats factuels que son prédécesseur.

Malheureusement, un ordinateur surfondu qui analyse des données n’est pas aussi amusant qu’un assistant numérique capable d’écrire des limericks ou de rédiger une dissertation scolaire. Mais à l’avenir, ces percées seront aussi comparables que la valeur de divertissement de la télévision par rapport à l’exploit révolutionnaire d’atterrir un humain sur la lune.



Avis de non-responsabilité : il s’agit d’un article d’opinion de Bloomberg, et ce sont les opinions personnelles de l’auteur. Ils ne reflètent pas les opinions de www.business-standard.com ou du journal Business Standard

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite