SMI Glasses 2014 : notre test !
Sami Lini 24 octobre 2014

Vous l’aviez peut-être vu sur notre page Facebook (et si ça n’est pas le cas, allez vite la suivre !), SensoMotoric Instruments, autrement connu sous le nom de SMI, nous a très aimablement prêté une paire de leurs dernières Glasses pour un test indépendant. Nous profitons d’ailleurs de l’occasion pour les en remercier à nouveau.

Valise Glasses SMI

Nous avions pu nous pencher très rapidement sur leur modèle courant du mois de juillet. Nos impressions étaient plutôt positives, et nous avions bien entendu hâte de passer plus de temps en leur compagnie. Nous ne revenons pas sur la description et les caractéristiques détaillées que nous vous avions déjà présentées, il s’agit d’un modèle de lunettes d’eye tracking, binoculaires, échantillonnant à 60Hz, accompagnées d’un boîtier de commande et de visualisation des données, un Samsung Galaxy S4 customisé.

Le boitier tactile : un progrès et un confort

La prise en main de la petite merveille se fait très bien. Il faut démarrer la batterie dorsale, qui alimente à la fois les lunettes et offre un surplus d’autonomie au smartphone, puis le smartphone lui-même. Après quelques instants de chargement (compter près d’une minute), les lunettes sont reconnues et le logiciel chargé.

L’utilisation du Galaxy S4 offre tout le confort technologique du fabricant coréen. C’est tout bête, mais tout designer d’interaction s’en sera aujourd’hui rendu compte, les stéréotypes d’usage et les attentes globales à l’égard des performances en tactile sont très élevées : utilisateurs quotidiens de nos smartphones, nous sommes bien moins conciliants face à une interface tactile récalcitrant. Bref, c’est réactif, ça va vite, et c’est très agréable.

Les interactions tactiles offrent d’autres commodités. C’est le cas par exemple du processus de calibrage. Les données de tracking s’affichent en « temps réel » (avec une latence de près d’une seconde) à l’écran. Le calibrage se fait alors en demandant au sujet de regarder un point ou un objet précis à une distance donnée (50-60cm), puis en venant ajuster la position mesurée par l’appareil (avec erreur donc) à la position réellement regardée (le point ou objet en question). Tout cela se fait très naturellement en venant déplacer le point du regard sur la position supposée. Le processus est efficace, et même en ne calibrant qu’à un point, les données sont satisfaisantes dans le plan de calibrage.

Les données peuvent être affichées sur le smartphone où être envoyées sur le PC, en mode passif, juste pour affichage, ou actif, pour gérer les utilisateurs, le calibrage…

La caméra HDR fait des merveilles

L’une des caractéristiques matérielles du système constitue un vrai élément différenciant. Nous qui travaillons dans des environnements où la luminosité peut parfois être très faible (cockpit par exemple), nous avons une exigence toute particulière à cet égard. Les Glasses 2.0 sont équipées d’une caméra dite HDR (High Dynamic Range). Le HDR est un procédé beaucoup utilisé en photographie (pour faire des choses parfois très très laides comme ça ou ça)(mais aussi de très jolies choses comme ça). Pour les détails du procédé, je vous invite à aller voir notre ami à tous Wikipedia, mais le résultat pour l’eye tracker est bien plus que marketing : en conditions de faible luminosité et à très fort contraste (environnement très faiblement éclairé et écran rétro-éclairé), tout est très bien rendu. Une vidéo parlant mieux que de longs discours, voici le rendu (à partir de 20 secondes).

Dans notre setup, plutôt exigeant pour les tests que nous avions menés jusque-là, les résultats sont étonnants et le tout ouvre de vraies perspectives pour des études en milieu où les contraintes de luminosité sont importantes.

Un mot sur le micro qui est de relativement bonne qualité, le son ne sature pas trop, il faudra voir dans un environnement plus contraignant, mais les enregistrements semblent de qualité correcte. De toutes façons, le micro ne constitue souvent qu’un complément à la vidéo enregistrée et nous avons pris l’habitude de nous satisfaire d’un son de qualité médiocre, ou de nous équiper en conséquence.

La partie logicielle

Voilà pour le matériel. Pour le logiciel, ce qui nous a intéressé c’est bien entendu le workflow : import des données, exploitation, génération de rendu, export de visualisations, de vidéos, de statistiques et données brutes. Sans formation préalable, nos connaissances de systèmes concurrents nous ont permis de mettre en oeuvre l’essentiel du processus.  Le point de doute que nous avions soulevé lors de la première prise en main concernait le processus de recollage de données, préalable à toute génération de statistique ou de visualisation cumulative des données. N’exploitant pas de système de mires ou de marqueurs positionnés dans l’environnement, aujourd’hui le recollage se fait manuellement. Là encore, je vous invite pour les détails à aller ici.

Deux qualificatifs nous ont semblé appropriés pour décrire le processus : long et fastidieux. Certes la détection des saccades/fixations permet de ne concentrer l’effort que sur certaines phases, mais cela reste tout de même un vrai retour en arrière par rapport aux procédés automatisés qu’on trouve sur d’autres modèles d’eye trackers, sans même regarder à la concurrence.

En conclusion

Un dernier mot sur les montures des lunettes : comme prévu elles sont plutôt encombrantes, on les perçoit très nettement en vision périphérique. De notre point de vue, cela peut tout de même constituer un avantage. Les verres sont très larges, avec les montures épaisses, nous pensons que cela évitera les coups d’oeil à l’extérieur des lunettes et donc hors de la zone de tracking. Vous aurez également pu voir sur notre page Facebook qu’un nouveau modèle ayant subi une belle cure d’amincissement a été annoncé cette semaine par le fabricant.

Pour conclure, nous espérons qu’une solution pour automatiser le recollage de données viendra débarrasser le tableau de ce qui constitue peut-être l’unique mais lourd point négatif. Pour tout le reste, le bilan est très positif : le boitier tactile constitue un vrai confort à l’usage et la caméra HDR fait des merveilles en luminosité faible.

Quelques images pour montrer ce que ça donne, cela fera plaisir aux anciens de l’ENSC, qui verront les nouveaux locaux à la belle saison !

Sami Lini
Sami Lini

Ingénieur-docteur en Facteurs Humains, Sami a d'abord travaillé dans le domaine de la R&D aéronautique. Les Facteurs Organisationnels et Humains opérationnels, la neuroergonomie et la recherche utilisateur (UX) sont ses domaines de prédilection qu’il apporte à nos clients tant dans le domaine de l’industrie à risque que pour les produits grand public.

Votre commentaire

Your email address will not be published. Required fields are marked *