Calculer avec la lumière

Cet article examinera une technologie de traitement d’inférence IA utilisant la lumière plutôt que les électrons de Lightmatter et combinée avec le CMOS traditionnel, y compris la mémoire SRAM. Cet article est basé sur une interview avec le PDG de Lightmatter, Nick Harris. La société considère que ce produit est utile pour l’inférence des centres de données et peut-être éventuellement dans certaines applications industrielles et grand public intensives en calcul d’IA (telles que les véhicules autonomes).

Il existe des prévisions largement citées qui prévoient une accélération de la consommation d’énergie des technologies de l’information et des communications (TIC) au cours des années 2020 avec un article de Nature de 2018 estimant que si les tendances actuelles se poursuivent, cela consommera plus de 20 % de la demande d’électricité d’ici 2030. Lors de plusieurs événements de l’industrie J’ai entendu des discours qui disaient que l’une des limites importantes des performances des centres de données serait la quantité d’énergie consommée. Les dernières solutions GPU de NVIDIA utilisent des processeurs de plus de 400 W et cette consommation d’énergie pourrait plus que doubler dans les futures puces de processeur AI. Des solutions capables d’accélérer des fonctions de calcul importantes tout en consommant moins d’énergie seront importantes pour fournir des centres de données plus durables et économiques.

La puce Lightmatters Envise (illustrée ci-dessous) est un accélérateur d’apprentissage automatique à usage général qui combine la photonique (PIC) et les dispositifs à base de transistors CMOS (ASIC) dans un seul module compact. L’appareil utilise la photonique au silicium pour les tâches d’inférence IA hautes performances et consomme beaucoup moins d’énergie que les solutions CMOS uniquement, ce qui contribue à réduire la charge électrique projetée des centres de données.

La figure ci-dessous montre les puces CMOS et photoniques qui sont combinées dans le module de calcul Envise. 500 Mo de SRAM sont utilisés pour stocker les niveaux de pondération à partir d’un modèle d’apprentissage automatique (ML) formé.

La puce optique Envise effectue un traitement analogique et n’a donc pas la précision des calculs de nombres à virgule flottante utilisés dans l’informatique conventionnelle. Ainsi, les processeurs Envise sont plus adaptés aux applications où ce manque de précision n’est pas un problème, comme l’inférence IA. Envise fournit ainsi un ordinateur spécialisé qui excelle pour certains types de problèmes. Avec le ralentissement de la mise à l’échelle du processeur traditionnel, les appareils informatiques spécialisés tels qu’Envise joueront un rôle important pour le calcul d’applications spécifiques.

Envise fonctionne de manière similaire aux dispositifs de flux de tenseur de Google pour les applications d’IA à usage général, sauf qu’il utilise un moteur de processeur d’IA optique. Toute application utilisant l’algèbre linéaire peut être exécutée sur les modules Envise, y compris l’inférence IA, le traitement du langage naturel, la modélisation financière et le lancer de rayons.

Lightmatter proposera ses processeurs Envise dans un serveur Envise combinant 16 modules Envise avec des processeurs AMD EPYC, et un SSD et une DRAM DDR4, voir le schéma ci-dessous.

Lightmatter a une feuille de route pour un traitement encore plus rapide en utilisant plus de couleurs pour les canaux de traitement parallèles, chaque couleur agissant comme un ordinateur virtuel séparé.

Nick a déclaré qu’en plus des applications de centre de données pour Envise, il pouvait voir la technologie utilisée pour activer les véhicules électriques autonomes qui nécessitent une IA haute performance mais sont limités par la puissance de la batterie, ce qui facilite la fourniture d’une autonomie convaincante par charge de véhicule. En plus du module Envise, Lightmatter propose également une technologie d’interconnexion optique qu’il appelle Passage.

Lightmatter fabrique des processeurs IA optiques qui peuvent fournir des résultats rapides avec une consommation d’énergie inférieure à celle des produits CMOS conventionnels. Leur module de calcul combine la logique et la mémoire CMOS avec des unités de traitement analogiques optiques utiles pour l’inférence IA, le traitement du langage naturel, la modélisation financière et le lancer de rayons.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite