#image_title

Eye Tracking vous permet de naviguer sur iOS 18 sans toucher votre iPhone

La technologie Eye Tracking d’Apple offre aux propriétaires d’iPhone et d’iPad une nouvelle façon d’interagir avec leurs appareils. La première apparition dans iOS 18 démontre à quel point il peut être puissant pour certains utilisateurs.

Suivi oculaire dans les paramètres pour iOS 18

En mai, Apple a révélé certaines des fonctionnalités d’accessibilité arrivant dans iOS 18 et iPadOS 18, et a inclus le suivi oculaire parmi celles-ci.

Le suivi oculaire est l’un des principaux moyens de fonctionnement d’Apple Vision Pro. Il est utilisé pour suivre ce que l’utilisateur regarde, afin que les éléments de l’écran puissent être sélectionnés et utilisés, d’un simple pincement des doigts pour confirmer.

La version trouvée dans iOS 18 reprend le même concept, mais pour un écran beaucoup plus petit.

Cette instance d’Eye Tracking est destinée à aider les utilisateurs ayant un handicap physique. Plus précisément, si vous ne pouvez pas interagir facilement avec un écran tactile ou si vous ne parvenez pas à naviguer facilement sur iOS ou iPadOS avec un doigt, cela offre une solution.

En termes simples, Eye Tracking est capable de déterminer où les yeux d’un utilisateur regardent sur l’écran.

Cela ne nécessite aucun équipement supplémentaire. Tout ce qu’il faut, c’est la caméra frontale sur un iPhone ou un iPad, associée à un apprentissage automatique sur l’appareil.

Configuration et calibrage

La configuration de Eye Tracking prend environ une minute. Il est accessible dans l’application Paramètres, sous Accessibilité, puis sous le groupe Physique et Moteur, sélectionnez Eye Tracking, puis la bascule Eye Tracking.

Une fois activé, une notification contextuelle apparaît, demandant aux utilisateurs de suivre le point avec leurs yeux. Un point se déplace ensuite sur l’écran, s’arrêtant à des points stratégiques pour forcer l’utilisateur à regarder cette position.

Une fois le parcours autour de l’écran terminé, l’utilisateur est ramené au menu Paramètres.

Le premier changement qu’ils verront est un point noir qui plane autour de l’écran à l’endroit général de leur regard. Celui-ci agit comme un pointeur pour l’utilisateur, remplaçant son doigt.

Dwell Control et personnalisation du contrôle

Lorsque le suivi oculaire est activé, un paramètre appelé Dwell Control est également activé.

Même si un utilisateur peut forcer le déplacement d’un curseur en regardant différentes parties de l’écran, il ne peut pas facilement sélectionner l’élément en regardant seul. Dwell Control sélectionnera des éléments sur l’écran pour l’utilisateur, en maintenant son regard et en ne le déplaçant pas pendant quelques secondes.

Le contrôle Dwell peut être complètement désactivé ou personnalisé à l’aide des paramètres Assistive Touch.

Pour aider davantage les utilisateurs, le lissage peut être ajusté. Cela modifie spécifiquement la réactivité du pointeur aux mouvements oculaires de l’utilisateur, ce qui lui permet d’augmenter ou de diminuer la sensibilité.

Pour les utilisateurs, cela peut signifier que le curseur ne bouge pas beaucoup lorsque les yeux se tournent brièvement vers un autre point pendant une seconde. Cela peut également permettre à un utilisateur de se concentrer plus facilement sur ce qu’il souhaite sélectionner à l’écran.

Snap to Item sélectionne les éléments de l’interface utilisateur pour vous, comme indiqué dans iPadOS 18

Il existe également une option pour Snap to Item. Comme son nom l’indique, le pointeur aura tendance à graviter vers la section d’interface utilisateur sélectionnable la plus proche.

Cela rend extrêmement rapide la sélection dans les menus pour les utilisateurs, car cela réduit la précision requise pour la sélection.

Un point sélectionnable peut également être développé pour afficher une sélection d’autres fonctionnalités, notamment les ajustements du contrôle de maintien, l’accès au centre de notifications et au centre de contrôle. Il s’agit d’un ajout qui facilite l’accès aux éléments clés d’iOS 18, en utilisant un système de contrôle plus strict que d’habitude.

Difficile mais utile

La version bêta n’en est qu’à ses débuts, donc la précision de la fonctionnalité n’est pas entièrement parfaite, mais elle se rapproche de l’endroit où je regarde à l’écran. Parfois, le curseur dépasse et va plus loin que l’endroit où mon regard se pose, mais changer délibérément l’endroit où je regarde pour le corriger n’est pas trop difficile.

La position de votre tête par rapport à l’iPhone est également importante, car tout mouvement de votre tête à partir de l’endroit où elle a été calibrée peut affecter la façon dont elle perçoit votre regard. De même, déplacer l’iPhone peut provoquer le même problème lorsqu’il est tenu.

Idéalement, vous devriez l’utiliser en étant positionné à environ 1,5 pied à 2 pieds de l’écran au moment de l’étalonnage. L’iPhone doit être posé sur un support et idéalement ne pas être déplacé.

Le concept est certainement prometteur quant à ce qu’il pourrait apporter aux utilisateurs ayant des problèmes de mobilité. Pour la plupart des autres utilisateurs qui utilisent habituellement leurs doigts pour interagir avec l’iPhone, c’est moins utile, mais cela reste une idée intéressante.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite