Réalité étendue où nous en sommes, ce qui manque et les problèmes à venir
Divulgation : Qualcomm, Microsoft, HP et Lenovo sont des clients de l’auteur.
Qualcomm a proposé cette semaine une présentation complète sur où en est la réalité mixte (MR). Cela est important car Qualcomm est le principal fournisseur de technologie pour les solutions de RM autonomes. À ce jour, MR a connu du succès dans les affaires pour la formation, la fabrication et la réparation, en particulier dans des domaines comme l’aérospatiale, où Microsofts HoloLens AR a été largement adopté.
Meta est le leader du côté consommateur du marché, mais est aux prises avec le problème typique du prix par rapport à la capacité, qui a échoué parce que la barre Metas est trop basse et les attentes trop élevées. (Il sortira bientôt une meilleure option qui pourrait combler cet écart si le marché achète le prix le plus élevé.)
Je me concentre sur le côté commercial des choses dans le cadre de la présentation de Qualcomms.
Les quatre types de réalité étendue
La terminologie est omniprésente dans ce domaine, mais je vais utiliser la réalité étendue comme nom de classe avec des sous-classes de VR/MR (réalité virtuelle et réalité mixte), de réalité augmentée (AR) autonome, de visionneuses AR et de lunettes intelligentes. La dernière est une classe particulièrement intéressante car elle a moins à voir avec ce que nous considérons généralement comme une réalité étendue et plus sur la mise en place de l’affichage sur votre visage.
La VR/MR est ce à quoi on pense quand on parle d’immersion. Les deux nécessitent que l’image entière soit rendue, la différence entre VR et MR étant la quantité d’imaginaire et la quantité de réel. Avec la réalité virtuelle, toute la scène n’existe que dans le logiciel, rien n’est réel et les caméras (s’il y en a) sont principalement utilisées pour vous empêcher de vous heurter à des choses. MR utilise des caméras pour capturer l’environnement, puis restitue la scène avec un mélange d’images générées par ordinateur et d’images rendues de ce qui vous entoure. Il s’agit potentiellement de la solution mixte la plus réaliste, mais elle nécessite une puissance de traitement massive, présente souvent des problèmes de latence et de poids du matériel, et a tendance à se prêter aux solutions connectées. Ces approches sont utilisées pour l’entraînement immersif (l’US Space Force l’utilise pour l’entraînement au combat spatial) et le divertissement. Parmi les casques que j’ai vus et testés, Varjo a sans doute le meilleur, tandis que HPs Reverb G2 offre une bonne option d’entrée de gamme.
La RA autonome est mieux représentée par les lunettes Microsofts HoloLens et LenovosThinkReality A6, qui sont similaires à HoloLens mais déplacent une partie du poids de la tête à la taille pour une meilleure utilisation à long terme. Cela utilise la technologie pour projeter une image rendue dans des verres transparents et permettre aux images de flotter comme des fantômes devant les yeux des utilisateurs. Utilisée dans la fabrication et le service sur le terrain et avec des cas d’utilisation intéressants dans les soins de santé, cette technologie a été particulièrement utile pour les travaux de chaîne de fabrication non répétitifs et l’aérospatiale.
La visionneuse AR est une variante de ce qui précède et utilise généralement un smartphone avec les lunettes pour réduire les coûts tout en offrant des performances et des capacités similaires. L’appareil le plus connu de cette classe était Google Glass, qui a été si mal déployé qu’il a retardé cette gamme de produits pendant des années.
Et enfin, il y a les visiocasques. L’écran repose sur votre tête, prenant la place de l’écran de votre téléphone ou de votre PC. Ceci est particulièrement utile aujourd’hui pour regarder des vidéos, en particulier celles dont le contenu ne doit pas être vu par d’autres. Il pourrait être utilisé pour une formation confidentielle dans des lieux publics ou pour offrir des expériences sur grand écran à l’aide d’appareils portables. Bien qu’il ne s’agisse pas vraiment d’un appareil ER, il pourrait évoluer en un seul et fusionner avec le segment des visualiseurs AR. Le produit que je connais le mieux est les lunettes intelligentes Lenovo ThinkReality A3.
Ce qui manque pour le moment
Aucune de ces solutions n’est encore mature, mais la VR/MR et la RA autonomes sont en production à grande échelle et utiles aujourd’hui. La visionneuse AR, qui a été paralysée par Google Glass, et les offres d’affichage monté sur la tête en sont encore à leurs balbutiements, mais progressent rapidement.
Ce qui manque pour l’immersion dans la VR/MR, c’est une instrumentation complète du corps afin que vous puissiez vous déplacer et interagir dans le(s) monde(s) virtuel(s) comme vous le feriez dans le monde réel. La numérisation manuelle avec des caméras sur un casque n’a pas été très fiable et l’utilisation courante de contrôleurs crée une déconnexion entre la façon dont vous vouloir interagir avec un monde virtuel et comment vous devoir réagir avec lui. Ceci est particulièrement problématique avec MR car vous utilisez votre main nue pour toucher des objets réels et le contrôleur pour toucher des objets rendus, ce qui gâche l’expérience. L’haptique, que Meta et d’autres développent de manière agressive, n’est qu’une piètre méthode provisoire ; ce qu’il faut, c’est un moyen d’amener une personne de manière transparente dans le monde virtuel et de permettre une interaction complète et des perceptions sensorielles comme s’il s’agissait du monde réel.
AR autonome a eu des problèmes d’occlusion, sur lesquels Qualcomm et d’autres travaillent. Une fois corrigés, les objets rendus apparaîtront plus solides et ressembleront moins à des images fantomatiques partiellement transparentes. Mais les cas d’utilisation de cette classe sont très bien développés, ce qui en fait la solution la plus attractive aujourd’hui.
La visionneuse AR a des problèmes similaires à AR autonome mais fonctionne bien en deçà de son potentiel, étant donné qu’elle devrait être moins chère que AR autonome tout en offrant des avantages similaires.
Les visiocasques existent depuis le début des années 2000. Le problème a été de mettre les gens à l’aise avec les lunettes et de leur fournir un moyen de les utiliser pour plus que la simple visualisation de vidéos. Ils pourraient éventuellement remplacer les moniteurs, mais les utilisateurs ont d’abord besoin d’un meilleur moyen de pouvoir regarder vers le bas et de voir leurs mains et leur bureau, ou de former les gens à la dactylographie à l’aveugle ou à de meilleures compétences de synthèse vocale. Ce dernier semble peu probable.
Changer notre façon d’interagir avec la technologie
Ces solutions, à mesure qu’elles mûrissent, changeront la façon dont nous interagissons avec nos smartphones et nos PC. Une fois que vous pouvez offrir l’expérience d’un grand écran dans des lunettes et apporter des options cloud comme Windows 365, votre ordinateur se déplace dans le cloud et vous n’avez besoin que d’un appareil sans fil haute puissance (5G/6G), pas d’un PC complet.
Ces appareils modifient déjà la façon dont les industries forment les gens et dont elles fabriquent et réparent les produits. Avec le temps, je m’attends à ce qu’ils changent radicalement ce qui se trouve sur notre bureau et pourraient même rendre le bureau lui-même obsolète.
Copyright © 2022 IDG Communications, Inc.