PDG d’Intel : nous allions intégrer l’IA dans chaque plate-forme que nous construisons
Aujourd’hui, vous commencez à voir que les gens vont dans le cloud et s’amusent avec ChatGPT en écrivant un document de recherche et, vous savez, c’est super cool, non ? Et les enfants simplifient bien sûr leurs devoirs de cette façon, mais vous n’allez pas le faire pour chaque client, car pour que l’IA soit activée, cela doit être fait sur le client pour que cela se produise, n’est-ce pas ? Vous ne pouvez pas aller dans le cloud. Vous ne pouvez pas aller-retour vers le cloud.
Tous les nouveaux effets : traduction linguistique en temps réel dans vos appels de zoom, transcription en temps réel, inférence d’automatisation, représentation de la pertinence, contenu généré et environnements de jeu, environnements de créateurs en temps réel via Adobe et d’autres qui les font dans le cadre du client, de nouveaux outils de productivité permettant de faire des briefings juridiques locaux sur un client, les uns après les autres, n’est-ce pas ? Dans tous les aspects des cas d’utilisation de l’efficacité des consommateurs, des développeurs et des entreprises, nous constatons qu’il y aura une multitude d’activations de l’IA et que celles-ci seront centrées sur le client. Ceux-ci seront également au bord.
Vous ne pouvez pas aller-retour vers le cloud. Vous n’avez pas la latence, la bande passante ou la structure des coûts pour faire un aller-retour, par exemple, en faisant une inférence dans un dépanneur local vers le cloud. Tout se passera à la périphérie et chez le client.