Notre test de l’eye tracker SmartEye
Lucille Lecoutre 17 avril 2015

Nous vous avions présenté en septembre dernier l’eye tracker de SmartEye. Ce système fonctionne grâce au positionnement de caméras dans l’environnement et permet la construction d’un modèle 3D de la scène à analyser. Nous avons dernièrement eu l’occasion de tester ce système sur deux configurations : sur ordinateur et dans un simulateur de conduite.

Nos premières conclusions sont les suivantes : les fonctionnalités de ce système le rendent robuste, flexible, mais demandent de se plonger un minimum dans son fonctionnement. Ce produit s’adresse donc plutôt, selon nous,  à un public connaisseur qui a un besoin pour de l’eye tracking en situation embarquée et pourra pleinement profiter des potentialités de ce produit.

Le modèle de l’individu

Le système permet en amont de l’étude de construire et de sauvegarder un modèle pour chaque individu testé. Le profil comprend un modèle de la tête de l’individu, et il est aussi possible de sauvegarder la calibration du regard pour cet individu.

Le modèle de tête permet un is robuste du regard : le système se base sur un algorithme de Head-Tracking, qui permet de connaître la position de la tête (et donc des yeux) d’une image à l’autre. La construction de ce modèle de tête peut se faire de manière automatique, avec de bons résultats dans la majorité des cas.

Certaines situations peuvent être plus problématiques, notamment lorsque des objets cachent une partie de la tête (volant de voiture devant le visage, casque audio). Nous avons testé le système dans un simulateur de conduite automobile dans lequel le passage de main devant le bas du visage pour tourner le volant est fréquent. Une fois la tête repérée par le système, le suivi de la tête est assez robuste malgré ces occlusions.

Il est également possible de construire un modèle de tête manuellement pour les situations limites (lors du couplage d’un eye-tracker avec un casque EEG par exemple).

Concernant la calibration du regard, le système offre la possibilité de configurer le nombre de points et leur position sur l’écran. Une fois effectuée, on peut alors enregistrer la calibration dans le profil de l’individu.

Globalement, cette fonctionnalité permet de s’adapter à une variabilité de configurations expérimentales puisqu’il est possible de calibrer le regard dans un setup différent de celui de l’expérience. Cela sera par exemple utile dans une situation de conduite de voiture, où il n’est pas possible de calibrer directement dans la voiture. C’est également un gain de temps puisqu’il suffit de calibrer le regard une seule fois.

Le modèle 3D de l’environnement

Le système SmartEye possède une fonctionnalité très intéressante : la possibilité de construire un modèle 3D de la scène. Elle permet de définir des zones d’intérêts, a priori, en vue de l’analyse.  Ici encore, la robustesse des données et la variété de configurations que l’on peut modéliser font la force de ce système.

SmartEye1

Nous avons testé cette fonctionnalité sur un setup plus simple avec un écran d’ordinateur. Comme on peut le voir, la zone de l’écran dans laquelle le regard est positionné est encadrée en rouge. Premier essai concluant donc.

Si cette fonctionnalité présente, comme nous l’avons dit, une certaine souplesse dans sa mise en œuvre, cela va de pair avec ses inconvénients. Une telle flexibilité nécessite de laisser la main à l’utilisateur pour qu’il puisse construire lui même les configurations qui l’intéressent.

En effet, la modélisation de la scène se fait manuellement en renseignant les coordonnées des formes souhaitées. Notons au passage que ce mode de construction n’est pas très user-friendly, mais surtout la précision des données dépendra directement de la précision des erreurs de mesures dans la construction de la scène. Le repère 3D servant à modéliser se base sur la position des caméras. Le moindre déplacement de caméras va donc perturber tout le système de coordonnées.

Les éléments de ce monde 3D ne pouvant être que statiques, le système s’avère peu adapté pour des analyses de parcours visuels d’interfaces web par exemple, pour lesquelles on s’intéresse à l’interaction entre le regard et la dynamique de la navigation de l’utilisateur. En revanche, le recours à ce modèle du monde permet de réaliser une décomposition de l’environnement de l’utilisateur en zones d’intérêt. Par exemple, il est possible de modéliser l’habitacle d’un véhicule ainsi que ses rétroviseurs, et le système analyse en temps réel la position du regard par rapport à ces zones d’intérêt. Si l’on ajoute à cela l’option d’acquisition de données de positionnement par GPS, le suivi du regard en embarqué est une plus value réelle.

Outre la visualisation de l’intersection du regard avec les zones d’intérêt en direct (qui permet surtout de vérifier avant l’acquisition que les objets sont bien placés relativement à la position du regard), il est possible d’enregistrer ces données et donc de gagner un temps conséquent sur l’analyse à posteriori. La construction manuelle de la scène, si elle peut s’avérer un peu fastidieuse, permet de modéliser une grande diversité d’environnements.

Le système d’acquisition (eye tracker)

Le système présente des fonctionnalités intéressantes en amont et durant l’acquisition, mais qu’en est-il de l’acquisition elle-même ? Nous avons trouvé cette phase un peu moins simple à mettre en oeuvre. Le logiciel n’est pas compliqué à utiliser en soi mais il est facile d’oublier une étape (mauvaise définition du système de coordonnées, oubli d’enregistrement ou écrasement des données, pas d’arrêt d’enregistrement).

Nous n’avons pas trouvé le moyen d’ajouter facilement une piste permettant de synchroniser les données avec un autre matériel d’acquisition (capture du flux vidéo par exemple). Cette fonctionnalité est supportée par un autre logiciel (Mapps) disponible en complément.

Les données enregistrées quant à elles semblent, à première vue, très complètes. Comme nous l’avons mentionné plus haut, le suivi du regard est assez robuste même s’il est parfois dégradé par les mouvements de tête sur l’axe z (changement rapide de direction par exemple). Nous évalueront les données plus en détail dans un prochain article.

Conclusion

Pour conclure, le système SmartEye propose des fonctionnalités très intéressantes qui, pour pouvoir être exploitées pleinement, nécessitent de se plonger un minimum dans son fonctionnement. Ce n’est donc pas un système de type « plug-and-play » mais plutôt du type « do-it-yourself », caractéristique forcément liée à la souplesse de système : adaptation des profils de tête, configurations expérimentales possibles… Sachez tout de même que SmartEye propose un support d’aide disponible et efficace, très appréciable en cas de besoin.
Nous trouvons donc le système SmartEye très adapté pour des mesures oculométriques en conditions opérationnelles.

Lucille Lecoutre
Lucille Lecoutre

Lucille a suivi un premier cursus de recherche en Neurosciences Cognitives où elle s’est intéressée aux aspects perceptifs et prédictifs de la cognition humaine. Elle s’est ensuite tournée vers les applications potentielles des Sciences Cognitives pour les Facteurs Humains. Elle est aujourd’hui ingénieure Facteurs Humains au sein d’Akiani.

Votre commentaire

Your email address will not be published. Required fields are marked *