Les puces analogiques trouvent un nouveau souffle dans l’intelligence artificielle
Le besoin de vitesse est un sujet brûlant parmi les participants à cette semaine AI Hardware Summit, des modèles de langage d’IA plus grands, des puces plus rapides et plus de bande passante pour que les machines d’IA puissent faire des prédictions précises.
Mais certaines startups matérielles adoptent une approche de retour en arrière pour l’informatique IA pour contrer l’approche du plus c’est mieux. Des entreprises comme Innatera, Rain Neuromorphics et d’autres créent des cerveaux en silicium avec des circuits analogiques pour imiter les fonctionnalités du cerveau.
Le cerveau est intrinsèquement analogique, absorbant des données sensorielles brutes, et ces fabricants de puces tentent de recréer le fonctionnement des neurones et des synapses du cerveau dans les circuits analogiques traditionnels.
Les puces analogiques peuvent être de très bons dispositifs de détection à faible consommation d’énergie, en particulier pour certaines applications sonores et visuelles, a déclaré Kevin Krewell, analyste chez Tirias Research.
« Analogique est une représentation plus proche de la façon dont le cerveau agit en utilisant des cellules de mémoire distribuées pour maintenir le poids des neurones ou une autre manière de maintenir un poids analogique », a déclaré Krewell.
L’IA et l’apprentissage automatique reposent principalement sur des puces numériques en périphérie ou dans des centres de données. Mais il y a une place pour les puces analogiques en périphérie, comme dans les smartphones ou les voitures, qui ont besoin d’une intelligence instantanée sans envoyer de données au cloud, qui est utilisé pour fournir des services d’IA.
« Nous ne visons pas à remplacer l’ensemble du pipeline d’IA », a déclaré Sumeet Kumar, PDG d’Innatera Nanosystems BV, basée à Rijkswijk, aux Pays-Bas.
La puce d’IA de troisième génération d’Innateras possède 256 neurones et 65 000 synapses et exécute l’inférence à moins de 1 milliwatt, ce qui ne ressemble pas beaucoup au cerveau humain, qui compte 86 milliards de neurones et fonctionne à environ 20 watts. Mais Kumar a déclaré qu’il est possible de créer un réseau récurrent entièrement connecté sur le dessus, et la puce peut fonctionner sur des piles bouton.
La puce est utilisée par les clients pour exécuter des applications radar et audio, avec des performances compétitives par rapport aux autres puces de la même classe. L’objectif de la puce est d’intégrer de faibles niveaux d’apprentissage et d’inférence sur l’appareil, ce qui est considéré comme un grand défi pour l’IA parmi les participants au salon.
« Ce que nous essayons de faire, c’est que nous reconnaissons que lorsque les données se déplacent d’un capteur vers le cloud, elles sont en fait transformées à plusieurs étapes par différents types d’IA. Et ce que nous voyons très souvent, ce sont des clients qui manipulent des données de capteur de bas niveau dans le cloud, ce qui est totalement inutile », a déclaré Kumar.
La puce Innatera prend les informations provenant d’un capteur, qui sont converties en pics, et le contenu de l’entrée est encodé exactement au moment où ces pics se produisent.
« C’est exactement comme ça que ça se passe dans votre cerveau. Quand vous entendez quelque chose, il y a… de minuscules cheveux [cells] dans votre oreille, qui détecte en fait chaque bande de fréquence et quelle est l’énergie dans cette bande. Et ces cheveux [cells] vibrera, produira des pointes, qui iront ensuite dans le reste de votre cortex auditif. Essentiellement, nous suivons exactement le même principe », a déclaré Kumar.
Sous-tendant ce principe, à l’intérieur des neurones du cerveau, il y a des ions calcium et des ions sodium faibles, et ces concentrations changent avec le temps. La puce Innateras reproduit ce même type de comportement en utilisant des courants.
Nous évaluons la quantité de courant entrant dans le neurone et sortant du neurone. C’est ainsi que nous imitons le cerveau », a déclaré Kumar.
L’idée n’est pas de perturber le flux actuel d’IA dans le cloud, mais de remplacer la récolte actuelle de puces d’IA en périphérie qui ne sont pas capables de prendre des décisions sur l’appareil. La puce réduit également le processus de conversion des signaux analogiques en signaux numériques.
« Vous ne pouvez pas vraiment traduire un signal analogique sur une longue distance, car alors vous avez en fait une dégradation. Nous évitons cela en convertissant ce signal analogique en un pic », a déclaré Kumar.
Le fondement de l’IA aujourd’hui repose sur la simulation de l’action des neurones du cerveau à l’aide de puces et de techniques numériques, ce qui a rencontré un grand succès. Sur la base des progrès de la loi de Moore, ces circuits et réseaux numériques sont devenus plus grands et plus rapides.
Mais l’analogique a ses problèmes. Par exemple, il est plus difficile d’obtenir une cohérence entre les puces analogiques avec des problèmes d’étalonnage comme la dérive,
« Les circuits analogiques et les cellules de mémoire n’évoluent pas comme les circuits numériques. Et la plupart du temps, l’analogique doit finalement être converti en numérique pour interagir avec le reste du système », a déclaré Krewell.
Certes, le concept de puces neuromorphiques n’est pas nouveau. Des entreprises comme Intel et IBM ont développé des puces inspirées par le cerveau, et les universités développent leurs propres versions avec des circuits analogiques. Intel et d’autres ont fait prendre conscience de la différence entre les puces neuromorphiques et l’IA conventionnelle, mais les startups ont ressenti le besoin de sortir leurs produits car les exigences de calcul de l’IA et l’efficacité énergétique augmentent à un rythme insoutenable.
Une autre société de puces d’IA, Rain Neuromorphics, a déclaré que sa puce imitant le cerveau serait utilisée dans les accélérateurs de particules du Laboratoire national d’Argonne.
Dans une présentation au AI Hardware Summit, la société n’a pas fourni beaucoup de détails sur la façon dont la puce serait utilisée, mais le PDG de la société, Gordon Wilson, a déclaré que la puce agirait comme des cerveaux en silicium qui aideraient le laboratoire de recherche à étudier et tirer des conclusions sur les collisions de particules.
Le cerveau en silicium fournira une intelligence sur l’appareil pour se protéger contre la dérive des capteurs, ce qui peut entraîner l’envoi de données erronées aux systèmes d’IA. Le concept de dérive de capteur est similaire à la dérive de modèle dans l’IA, dans laquelle de mauvaises données introduites dans un modèle d’apprentissage peuvent faire dévier le système d’IA de sa trajectoire.
Wilson a affirmé que les capacités des puces sur l’appareil sont plus économes en énergie par rapport à l’IA dans le cloud.
« Vous avez besoin de la capacité d’apprendre à la volée. Vous avez besoin de la capacité de vous entraîner et de vous ajuster à cette dérive du capteur pour maintenir les performances de ce système », a déclaré Wilson.
La première itération de la puce Rain « ne sera essentiellement pas radicalement différente de … d’autres analogues ou mélanges de puces », a déclaré Wilson. Mais il aura la capacité d’apprendre, ce qui débloquera plus de valeur.
Wilson a souligné différents types de mémoire, comme les circuits de memristor, offrant la capacité d’apprendre. Les memristors sont en cours de développement depuis les années 1960 et poursuivis par HP (qui deviendra plus tard HPE) pour être utilisés dans un méga-ordinateur appelé The Machine, mais la technologie reste encore une nouveauté.
« Memristor sert de résistance mémoire. C’est une résistance qui peut ajuster sa résistance. Il est utilisé comme une synapse artificielle », a déclaré Wilson. Dans un cerveau, les synapses ne sont pas tenues d’être parfaites, et les exigences seront différentes pour les memristors de Rain.
Le capital-risqueur Sam Altman, connu pour son travail dans l’IA en tant que PDG d’OpenAI, a investi 25 millions de dollars dans Rain Neuromorphics plus tôt cette année.