L’IA est intégrée au processus de fabrication de puces d’Intel, depuis « la conception frontale du silicium, le back-end, le développement de logiciels, jusqu’à la fabrication ».
L’IA a son utilité. Bien qu’il soit tentant de considérer l’IA en termes de chatbots, de générateurs d’images et peut-être de ce qui pourrait nous détruire tous si nous n’y faisons pas attention, les grandes entreprises technologiques ont été occupées à mettre en œuvre l’optimisation de l’IA et de l’apprentissage automatique dans de multiples aspects de leur activité. dans une quête pour intégrer ce qui était autrefois un concept marginal dans les processus qui créent les produits que vous possédez peut-être déjà.
J’ai récemment eu la chance de discuter avec Gokul Subramaniam, président d’Intel Inde et vice-président et responsable du développement durable du groupe informatique client, dans le cadre d’une discussion approfondie sur les objectifs de développement durable d’Intel, les cycles de vie des produits et bien plus encore.
J’en ai profité pour demander comment Intel utilise les modèles d’IA et d’apprentissage automatique en termes d’efficacité au sein de ses produits, et si l’IA était utilisée pour optimiser le processus.
« Nous avons l’IA dans l’ingénierie comme un domaine d’intervention majeur, depuis l’avant de notre conception de silicium au niveau RTL, jusqu’au back-end, qui est essentiellement la post-mise sous tension du silicium, jusqu’à la préparation à la production. Et puis dans notre développement et débogage de logiciels, nous utilisons l’IA ainsi que dans notre utilisation en fabrication, et pour tester la façon dont nous utilisons l’IA.
« Nous utilisons également l’IA pour une grande partie des données de télémétrie que nous collectons afin de déterminer les décisions que nous pouvons prendre du point de vue de l’utilisation, etc. C’est donc un domaine d’intervention important tout au long du cycle de vie, de la conception frontale du silicium, back-end, développement de logiciels, jusqu’à la fabrication.
Il semble donc que, selon Intel, l’IA soit déjà impliquée dans un grand nombre d’aspects de la conception et de la production des puces. Cependant, étant donné que notre discussion tournait autour des objectifs d’Intel en matière de durabilité, j’ai également profité de l’occasion pour lui demander son point de vue sur l’évolutivité de l’IA et la durabilité des demandes croissantes de puissance qui l’accompagnent.
« L’une des choses en lesquelles Intel croit est le continuum de l’IA, du centre de données cloud à la périphérie du réseau et au PC. Maintenant, cela signifie que c’est un continuum de l’IA, ce n’est pas une taille unique, vous ne pouvez pas simplement avoir un une vision unique ou monolithique de l’informatique. Il existe une variété de besoins dans le continuum de l’IA, des grands et très grands modèles aux modèles petits et agiles qui peuvent potentiellement être présents dans les appareils en périphérie.
« Il y a donc de tout, depuis le calcul haute performance, comme les laboratoires d’Argonne qui comptent des dizaines de milliers de serveurs, jusqu’aux petites entreprises sur site, qui peuvent n’avoir besoin que de quelques Xeons ou peut-être de Xeons et de quelques GPU. Et nous avons donc ce calcul hétérogène. , ce qui permet aux gens de le faire en fonction de leur enveloppe énergétique et de calculer leurs gains. »
Bien qu’il s’agisse d’objectifs nobles, il a été difficile d’ignorer les gros titres récents concernant les inquiétudes concernant la durabilité d’un avenir d’IA qui implique souvent d’énormes quantités de puissance de traitement, et des quantités potentiellement étonnantes de puissance réelle correspondante.
« L’IA est nouvelle, je pense que personne n’a déchiffré le code », déclare Subramaniam. « Ce que cela signifie pour la durabilité, ce sera un voyage que nous allons parcourir et apprendre… tant que nous serons très axés sur l’efficacité énergétique et que nous permettrons à nos clients de construire avec les technologies que nous leur proposons au-delà du silicium, c’est un peu là que ça va marcher. »
Alors que les centres de données comme l’Argonne National Laboratory et son supercalculateur Aurora Exascale, construits sur les séries Intel Xeon CPU et Data Center GPU Max, sont susceptibles de consommer également d’énormes quantités d’énergie, l’affirmation selon laquelle Intel considère globalement les charges de travail d’IA comme étant réparties sur plusieurs différents les types d’informatique destinés à différents objectifs constituent une distinction intéressante.
Avec l’essor des puces grand public dotées de NPU (unités de traitement neuronal) conçues spécifiquement pour le traitement de l’IA, vues pour la première fois dans les processeurs mobiles Intel Meteor Lake et qui devraient également apparaître dans les processeurs de bureau Arrow Lake, qui n’ont pas encore été annoncés, il semble que l’accent ne soit pas mis sur juste sur d’énormes quantités de capacité de calcul de l’IA du centre de données, mais le traitement de l’IA s’est étendu à l’ensemble des futures puces.
Compte tenu de l’essor du « PC IA », il semble certainement que l’industrie des puces s’oriente fortement vers l’avenir de l’IA, même s’il existe un argument selon lequel tout PC doté d’un GPU moderne est déjà équipé pour le traitement de l’IA. Cependant, la définition actuelle d’un PC IA semble aller de n’importe quel PC délivrant plus de 45 TOP à partir d’un NPU dédié, à l’autocollant approprié sur votre clavier.
Quoi qu’il en soit, il semble que ce soit des tortues jusqu’au bout pour Intel, ou dans ce cas, l’IA de haut en bas. Il semble probable que votre prochain processeur, ou peut-être même celui que vous utilisez actuellement, ait déjà ressenti le contact de l’intelligence artificielle, du moins s’il s’agit d’une unité Intel.