GSI Technologies : semble plus pertinent pour le paysage informatique (NASDAQ : GSIT)

Google annonce un investissement de 1 milliard d'euros en Allemagne, y compris les énergies renouvelables

Sean Gallup/Getty ImagesActualités

Publié sur le Value Lab 03/12/21

Cet article concerne GSI Technologies (NASDAQ :NASDAQ : GSIT)mais il s’agit tout autant de ce que Google (NASDAQ :GOOG) fait avec ses algorithmes de recherche. Je suis un scientifique des données et non un informaticien, donc pas un expert en matériel, mais si je comprends bien, le passage de Google de l’utilisation du BERT aux méthodes multimodales de recherche rendrait l’APU Gemini pertinent s’il pouvait le commercialiser assez tôt. Avec les API Gemini APU en cours de construction, j’espère qu’elles seront à temps pour attraper ce vent. GSIT n’est actuellement évalué qu’à une centaine de millions de capitalisation boursière, mais s’il devenait un fournisseur de matériel majeur pour Google, il y aurait probablement au moins une opportunité 5x ici, sinon 50x compte tenu de l’étendue des applications et de la croissance de ces applications. Avec les APU Gemini idéaux pour les applications de recherche ainsi que les recommandations discutées dans les articles précédents, nous pensons que cela pourrait être un jeu révolutionnaire pour une autre raison encore.

Que fait Google pour lequel GSIT pourrait aider ?

Google passe de l’utilisation de BERT à l’utilisation d’un système multimodal pour comprendre les informations contenues dans une requête.

Mais qu’est-ce que le BERT ?

Mon explication pour le profane est quelque chose comme ça. Si vous représentez un mot par une matrice unique de nombres, cette clé ne dépendra pas du contexte du mot. Bien sûr, le contexte du mot compte beaucoup. Pensez « l’homme mord le chien » par rapport au « chien mord l’homme ». BERT s’entraîne à deviner quels mots manquent dans les phrases où des choses sont laissées de côté au hasard. Ensuite, il peut comprendre les requêtes futures en s’entraînant à prêter attention à tous les éléments de la phrase en référence à chacun des autres éléments de la phrase. Chaque fois que vous avez besoin de former ce modèle, cela nécessite une série d’opérations matricielles et de nombreuses permutations de ces opérations matricielles pour chaque mot d’une phrase car il prête attention aux relations entre les mots. En plus de la représentation des mots étant déjà une matrice, cela se traduit par un tas d’opérations matricielles. Et cela se produit à de nombreuses têtes en parallèle et à travers de nombreuses couches. Ainsi, les opérations sont déjà complexes en elles-mêmes, et il existe également une matrice de ces opérations, il y a donc ici beaucoup de dimensions qui nécessiteront d’accéder à la mémoire et de faire des calculs. Tout cela se traduit par un modèle capable de générer un langage, de manière extrêmement convaincante, où vous ne sauriez absolument pas qu’il s’agit d’une IA, ce qui signifie qu’il a également une compréhension presque humaine de l’intention d’une requête. C’est ce qui fait de Google un bon moteur de recherche. Vous n’avez pas besoin d’interroger de manière parfaite, le moteur déduira le sens de votre requête pour vous donner les résultats souhaités.

Maintenant, imaginez qu’en plus de toutes ces opérations, vous ajoutiez une toute autre dimension à cela. Imaginez combiner le sens des mots avec l’apparence des images. Tout comme les mots, les images ont également des représentations matricielles. Ils sont en trois dimensions. Deux dimensions sont l’espace, et la dernière dimension est le canal de couleur (RBG). La taille de l’image détermine le nombre de pixels, chacun avec une valeur d’intensité pour le rouge, le vert et le bleu. Beaucoup de nombres et des matrices potentiellement grandes. Ce qu’est MUM, le modèle multimodal que Google veut utiliser maintenant à la place de BERT, consiste à combiner une compréhension du sens d’une phrase avec les valeurs d’intensités de pixels dans chaque canal qui composent l’apparence d’une image. Donc, en plus de toutes ces opérations matricielles liées aux mots, nous augmentons massivement la complexité de l’apprentissage en combinant cela désormais avec des matrices d’images également, qui contiennent beaucoup de valeurs ! À l’avenir, même les informations audio pourraient recevoir des représentations numériques et être ensuite combinées dans ces systèmes multimodaux pour combiner des données de différents types afin d’améliorer la compréhension des requêtes par Google.

conclusion

Les GPU et même les TPU fonctionnent sur l’architecture Von Neumann. Cela a des limites inhérentes où des accès fréquents à la mémoire avant d’effectuer des calculs créent un goulot d’étranglement. Le brevet GSIT acquis auprès de MikaMonu signifie que ce n’est plus un problème, les opérations de mémoire en place étant possibles. En raison de tous les calculs que les modèles de Google effectuent déjà à partir de la mémoire, et avec des systèmes multimodaux susceptibles d’augmenter la complexité des calculs de manière à peu près exponentielle, l’APU Gemini qui ne repose pas sur l’architecture Von Neumann pourrait changer la donne. . L’entreprise reste autofinancée et nous espérons qu’elle pourra bientôt commencer à livrer un produit commercial. Tant que leur brevet peut rester protégé et qu’ils créent un produit qui peut être commercialisé, nous pensons qu’il sera utile pour certaines des applications les plus précieuses au monde.

Bien sûr, nous ne savons pas ce qui va se passer et nous ne sommes pas des experts en matériel. Mais nous en savons assez pour comprendre ce que cet APU pourrait être capable de faire pour ces entreprises. Avec des calculs massivement plus rapides et moins énergivores, Google, Netflix (NASDAQ : NFLX) et Amazone (NASDAQ:AMZN) devraient faire la queue à leur porte une fois que le Gemini sera prêt à être vendu.

Il est difficile de dire exactement quelle est l’opportunité. Le Gemini va être des ordres de grandeur plus rapide dans certaines applications, et susceptible de réduire la consommation d’énergie par conséquent de 60 à 70 %. En supposant que le marché disponible puisse être construit à partir des coûts de cloud computing de Netflix dans une approche ascendante, considérez leurs dépenses d’environ 30 millions de dollars par mois, ou 360 millions de dollars par an pour les besoins d’AWS. Netflix représente environ 50% du marché du streaming, donc pour les besoins des sociétés de streaming, qui sont essentiellement des moteurs de recommandation, la valeur du marché pour Gemini pourrait être d’environ 720 millions de dollars en streaming. Bien sûr, le streaming et leurs moteurs de recommandation ne sont qu’un petit sous-ensemble des moteurs de recommandation exécutés sur des serveurs dans l’ensemble du commerce électronique. Ensuite, il y a aussi la recherche, donc regarder simplement le streaming sous-estime les choses. Mais en supposant que les 720 millions de dollars soient un chiffre super conservateur et en supposant une marge d’exploitation de 10 %, ce que GSIT avait pour son ancienne activité SRAM, vous obtenez un EBIT de 72 millions de dollars. GSI Technology est une entreprise de 100 millions de dollars, ce qui signifie un multiple de 1,4x sur cette prévision d’EBIT. C’est très bas, les sociétés de semi-conducteurs réalisant facilement un multiple EBIT de 15x, ce qui valoriserait le GSIT à 1 milliard de dollars, suggérant une opportunité potentielle multipliée par 10. Cela pourrait finir par être beaucoup plus élevé que cela étant donné que nous n’avons pris en compte que les coûts de serveur en ce qui concerne le streaming.

Dans tous les cas, alors que GSIT prépare son Gemini pour la production dans les fonderies et l’expédition vers des serveurs de clients, espérons-le, de renom comme Amazon et Google, ils parviennent toujours à rester un peu au-dessus de l’eau en termes de consommation de trésorerie avec leurs activités héritées. Sans R&D, leur revenu d’exploitation serait d’environ 3 millions de dollars, mais ils sont en territoire de consommation de trésorerie, la R&D étant supérieure à 20 millions de dollars à ce stade tout en essayant de développer des API et des bibliothèques pour les Gemini. Des augmentations de capital sont donc dans les cartes avec un capital versé supplémentaire en croissance de 20% depuis l’année dernière. La dilution est certes non négligeable ici, ce qui est un risque. Mais les API sont en cours d’élaboration au moment où nous parlons, et la société espère pouvoir proposer son produit aux premiers clients au premier trimestre 2022. Après cela, il ne devrait pas y avoir plus de deux ans de dilution avant que le produit ne soit pleinement lancé, espérons-le, à mesure que les pénuries de semi-conducteurs s’atténueront. Avec 10x, ou peut-être 5x après deux ans de dilution, étant l’estimation très prudente de la hausse, et des marchés disponibles au-delà du streaming comme pour la recherche et des algorithmes multimodaux Google plus complexes, l’opportunité reste très convaincante en tant que petite exposition spéculative.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite