L’apprentissage automatique, exploité à l’informatique extrême, aide au développement de l’énergie de fusion

Les chercheurs du MIT Pablo Rodriguez-Fernandez et Nathan Howard viennent de terminer l’un des calculs les plus exigeants de la science de la fusion prédisant les profils de température et de densité d’un plasma confiné magnétiquement via une simulation de premier principe de la turbulence du plasma. Résoudre ce problème par la force brute dépasse les capacités des superordinateurs, même les plus avancés. Au lieu de cela, les chercheurs ont utilisé une méthodologie d’optimisation développée pour l’apprentissage automatique afin de réduire considérablement le temps CPU requis tout en maintenant la précision de la solution.

Énergie de fusion

La fusion offre la promesse d’une énergie illimitée et sans carbone grâce au même processus physique qui alimente le soleil et les étoiles. Cela nécessite de chauffer le carburant à des températures supérieures à 100 millions de degrés, bien au-dessus du point où les électrons sont dépouillés de leurs atomes, créant une forme de matière appelée plasma. Sur Terre, les chercheurs utilisent des champs magnétiques puissants pour isoler et isoler le plasma chaud de la matière ordinaire. Plus le champ magnétique est fort, meilleure est la qualité de l’isolation qu’il fournit.

Rodriguez-Fernandez et Howard se sont concentrés sur la prédiction des performances attendues du dispositif SPARC, une expérience de fusion compacte à champ magnétique élevé, actuellement en construction par la société dérivée du MIT Commonwealth Fusion Systems (CFS) et des chercheurs du MIT Plasma Science et Fusion Center. Alors que le calcul nécessitait une quantité extraordinaire de temps informatique, plus de 8 millions d’heures CPU, ce qui était remarquable n’était pas le temps utilisé, mais le peu, étant donné le défi de calcul intimidant.

Le défi informatique de l’énergie de fusion

La turbulence, qui est le mécanisme de la majeure partie de la perte de chaleur dans un plasma confiné, est l’un des grands défis scientifiques et le plus grand problème qui subsiste en physique classique. Les équations qui régissent les plasmas de fusion sont bien connues, mais les solutions analytiques ne sont pas possibles dans les régimes d’intérêt, où les non-linéarités sont importantes et les solutions englobent une vaste gamme d’échelles spatiales et temporelles. Les scientifiques ont recours à la résolution des équations par simulation numérique sur ordinateur. Ce n’est pas un hasard si les chercheurs en fusion ont été les pionniers de la physique computationnelle au cours des 50 dernières années.

L’un des problèmes fondamentaux pour les chercheurs est de prédire de manière fiable la température et la densité du plasma compte tenu uniquement de la configuration du champ magnétique et de la puissance d’entrée appliquée de l’extérieur. Dans les dispositifs de confinement comme SPARC, la puissance externe et l’apport de chaleur du processus de fusion sont perdus par turbulence dans le plasma. La turbulence elle-même est entraînée par la différence entre la température extrêmement élevée du cœur du plasma et les températures relativement froides du bord du plasma (seulement quelques millions de degrés). Prédire les performances d’un plasma de fusion auto-échauffé nécessite donc un calcul du bilan de puissance entre la puissance de fusion apportée et les pertes dues à la turbulence.

Ces calculs commencent généralement par supposer des profils de température et de densité du plasma à un endroit particulier, puis calculent la chaleur transportée localement par la turbulence. Cependant, une prédiction utile nécessite un calcul auto-cohérent des profils sur l’ensemble du plasma, qui comprend à la fois l’apport de chaleur et les pertes turbulentes. La résolution directe de ce problème dépasse les capacités de n’importe quel ordinateur existant, c’est pourquoi les chercheurs ont développé une approche qui assemble les profils à partir d’une série de calculs locaux exigeants mais traitables. Cette méthode fonctionne, mais comme les flux de chaleur et de particules dépendent de plusieurs paramètres, les calculs peuvent être très lents à converger.

Cependant, les techniques issues du domaine de l’apprentissage automatique sont bien adaptées pour optimiser un tel calcul. En commençant par un ensemble de calculs locaux intensifs en calcul exécutés avec le code CGYRO de physique complète et de premiers principes (fourni par une équipe de General Atomics dirigée par Jeff Candy), Rodriguez-Fernandez et Howard ont ajusté un modèle mathématique de substitution, qui a été utilisé pour explorer et optimiser une recherche dans l’espace des paramètres. Les résultats de l’optimisation ont été comparés aux calculs exacts à chaque point optimal, et le système a été itéré jusqu’au niveau de précision souhaité. Les chercheurs estiment que la technique a réduit le nombre d’exécutions du code CGYRO par un facteur de quatre.

Une nouvelle approche augmente la confiance dans les prévisions

Ce travail, décrit dans une publication récente dans la revue La fusion nucléaire, est le calcul de fidélité le plus élevé jamais réalisé sur le cœur d’un plasma de fusion. Il affine et confirme les prédictions faites avec des modèles moins exigeants. Le professeur Jonathan Citrin, de l’Université de technologie d’Eindhoven et chef du groupe de modélisation de la fusion pour DIFFER, l’Institut néerlandais de recherche fondamentale sur l’énergie, a commenté : « Le travail accélère considérablement nos capacités à effectuer plus régulièrement des prédictions de scénarios de tokamak ultra-haute fidélité. Cet algorithme peut aider à fournir le test de validation ultime de la conception de la machine ou de l’optimisation des scénarios réalisée avec une modélisation plus rapide et plus réduite, augmentant considérablement notre confiance dans les résultats. »

En plus d’augmenter la confiance dans les performances de fusion de l’expérience SPARC, cette technique fournit une feuille de route pour vérifier et calibrer des modèles de physique réduits, qui fonctionnent avec une petite fraction de la puissance de calcul. De tels modèles, recoupés avec les résultats générés par les simulations de turbulence, fourniront une prédiction fiable avant chaque décharge SPARC, aidant à guider les campagnes expérimentales et améliorant l’exploitation scientifique du dispositif. Il peut également être utilisé pour modifier et améliorer même des modèles simples basés sur les données, qui s’exécutent extrêmement rapidement, permettant aux chercheurs de passer au crible d’énormes plages de paramètres pour affiner les expériences possibles ou les futures machines possibles.

La recherche a été financée par le SCF, avec le soutien informatique du National Energy Research Scientific Computing Center, une installation des utilisateurs du Bureau des sciences du Département américain de l’énergie.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite