La clé d’une IA et d’un apprentissage automatique résilients et écoénergétiques pourrait résider dans le cerveau humain | Université d’État de Pennsylvanie
UNIVERSITY PARK, Pennsylvanie. Une compréhension plus claire du fonctionnement d’un type de cellule cérébrale appelée astrocytes et pouvant être imitée dans la physique des dispositifs matériels, peut entraîner une intelligence artificielle (IA) et un apprentissage automatique qui s’auto-répare et consomme beaucoup moins d’énergie que les technologies actuelles, selon une équipe de chercheurs de Penn State.
Les astrocytes sont nommés pour leur forme d’étoile et sont un type de cellules gliales, qui sont des cellules de soutien pour les neurones dans le cerveau. Ils jouent un rôle crucial dans les fonctions cérébrales telles que la mémoire, l’apprentissage, l’autoréparation et la synchronisation.
« Ce projet est né d’observations récentes en neurosciences computationnelles, car il y a eu beaucoup d’efforts et de compréhension du fonctionnement du cerveau et les gens essaient de réviser le modèle de connexions neurones-synapse simplistes, a déclaré Abhronil Sengupta, professeur adjoint de génie électrique et d’informatique. Il s’avère il existe un troisième composant dans le cerveau, les théastrocytes, qui constituent une partie importante des cellules du cerveau, mais son rôle dans l’apprentissage automatique et les neurosciences a en quelque sorte été négligé.
Dans le même temps, les domaines de l’IA et de l’apprentissage automatique connaissent un boom. Selon la société d’analyse Burning Glass Technologies, la demande de compétences en IA et en apprentissage automatique devrait augmenter d’un taux de croissance composé de 71 % d’ici 2025. Cependant, l’IA et l’apprentissage automatique sont confrontés à un défi. à mesure que l’utilisation de ces technologies augmente, elles consomment beaucoup d’énergie.
« Un problème souvent sous-estimé de l’IA et de l’apprentissage automatique est la quantité de consommation d’énergie de ces systèmes, a déclaré Sengupta. Il y a quelques années, par exemple, IBM a essayé de simuler l’activité cérébrale d’un chat, et ce faisant, a fini par consommer environ quelques mégawatts de puissance. Et si nous devions simplement étendre ce nombre pour simuler l’activité cérébrale d’un être humain sur le meilleur superordinateur possible que nous ayons aujourd’hui, la consommation d’énergie serait encore plus élevée que les mégawatts.
Toute cette consommation d’énergie est due à la danse complexe des commutateurs, des semi-conducteurs et d’autres processus mécaniques et électriques qui se produisent dans le traitement informatique, qui augmente considérablement lorsque les processus sont aussi complexes que ce que l’IA et l’apprentissage automatique exigent. Une solution potentielle est l’informatique neuromorphique, qui est l’informatique qui imite les fonctions cérébrales. L’informatique neuromorphique intéresse les chercheurs car le cerveau humain a évolué en utilisant beaucoup moins d’énergie pour ses processus qu’un ordinateur, donc imiter ces fonctions ferait de l’IA et de l’apprentissage automatique un processus plus économe en énergie.
Une autre fonction cérébrale qui présente un potentiel pour l’informatique neuromorphique est la façon dont le cerveau peut auto-réparer les neurones et les synapses endommagés.