Du copilote électronique à AlphaGo, une intelligence trop artificielle ?
Sami Lini 27 mai 2016

En ces périodes où on nous parle Intelligence Artificielle (IA) à toutes les sauces, entre les véhicules autonomes, les assistants intelligents et l’AlphaGo de Google, on a pensé ajouter notre grain de sel en vous parlant du caractère artificiel de l’IA d’un point de vue Facteurs Humains.

AlphaGo – le coup 19 ou le triomphe de la pensée « déshumanisée »

Le monde entier a suivi avec un intérêt réel (!) la partie de Go qui a opposé le champion du monde Lee Sedol à l’IA de Google AlphaGo. Plus que le résultat final qui a donc vu la machine s’imposer, sous les regards très surpris de tous les spécialistes du domaine de l’IA, un détail nous a particulièrement intéressé.

Lors de la seconde manche, AlphaGo joue son 19ème mouvement et positionne son pion à un endroit qu’aucun commentateur ne comprend. Son adversaire est tellement déstabilisé qu’il est obligé de quitter la pièce pour aller se passer de l’eau sur le visage et reprendre ses esprits. Il s’agit d’une configuration qu’il n’a jamais vu dans son expérience de champion du monde du domaine. Sur le moment, les commentateurs qualifient le mouvement d’étrange en s’interrogeant même sur un possible bug [1]. Un coup totalement inattendu qui d’un point de vue humain ne fait pas sens du tout.

 

AlphaGo, dont le fonctionnement est basé sur un réseau de neurones alimenté par des millions de parties jouées contre lui-même et en observant des parties jouées, a choisi ce coup dans un arbre de possibilités car son algorithme de décision avait conclu qu’il constituait la meilleure opportunité vers le gain de la partie, compte tenu des coups effectués et de la probabilité des coups à venir. Avec le recul, tous s’accordent à dire que ce coup, « unique » et « créatif » posa la base de la victoire de la machine lors de cette manche.

Le copilote électronique – l’intelligence inintelligible

Dans notre expérience en matière de Facteurs Humains en aéronautique, un cas nous a été exposé à plusieurs reprises [2], celui du copilote électronique du Rafale. Ce projet qui s’est déroulé il y a maintenant une vingtaine d’années, visait à proposer aux équipages de Rafale biplace de remplacer à terme le second pilote, en charge en particulier de la navigation, par un copilote électronique constitué par une intelligence artificielle.

La méthodologie mise en œuvre était un modèle du genre en termes de FH, avec un souci très important concernant la restitution fidèle de l’activité du copilote, et ce dans toute sa diversité. C’est ainsi que de nombreux pilotes ont été impliqués dans la capitalisation de leur savoir-faire pour constituer la base de connaissances d’un système expert autonome. Les échos que nous avons eus de ce système expert est que d’un point de vue technique il était parfaitement fonctionnel.

Robot pilot d'après reportage Euronews

Pour autant, les résultats des premiers essais menés avec des pilotes se révèlent très décevants. Les retours font état du fait que ce copilote électronique n’est pas intelligible : l’agrégation de toutes ces intelligences humaines constitue un système dont l’intelligence est trop artificielle pour être comprise.  La prise de décision collaborative relève en effet autant de l’expertise humaine individuelle (celle qui constituait la base de connaissances du système expert) que d’un ensemble de compétences non techniques relevant par exemple des relations sociales, des stéréotypes véhiculés qui permettent de définir un cadre de pensée pour anticiper les comportements. Tout ce que l’artificialité de l’intelligence ne lui permettait pas de véhiculer. Le projet fût finalement abandonné.

Femme robot au volant…

La question des stéréotypes constitue un point de préoccupation important concernant l’arrivée prochaine des véhicules autonomes. Comme le présente l’article de Munduteguy & Darses (2002), la prise de décision sur la route est hautement conditionnée par les stéréotypes qu’ont les conducteurs de leurs congénères : les stéréotypes concernant les femmes, les personnes âgées, les conducteurs de grosses cylindrées ou encore les apprentis sont autant d’éléments qui conditionnent notre représentation de la situation occurrente et ainsi l’adaptation de notre comportement ! Et tant pis si ces stéréotypes sont tout à fait faux, nous préparons notre comportement en fonction du comportement présumé du conducteur avec qui l’on interagit, ce stéréotype constituant un des seuls moyens d’anticiper.

Conducteur robot dans Total Recall

Mais cette capacité à stéréotyper le comportement d’autrui disparaît avec les véhicules autonomes, sans conducteurs donc, et pose la question de notre capacité à comprendre l’intelligence artificielle qui produit le déplacement du véhicule et donc de notre capacité à cohabiter avec dans des situations inusuelles.

Intelligence artificielle et littérature

Chacun d’entre vous aura sans doute eu son petit fou-rire devant les traductions approximatives et semblant bêtement littérales de Google Traduction. Pourtant l’outil est bien plus sophistiqué que ce que les résultats laissent bien souvent apparaître.

Robot poet, daprès le blog Robot Poet

Très loin d’une simple traduction mot à mot, Google Traduction repose sur un principe dit de Traduction Automatique Statistique (Statistical Machine Translation, STM) : comme le propose l’outil Linguee, des millions de textes traduits dans la langue de départ et de destination sont analysés et des modèles statistiques sont utilisés pour extraire le contexte d’utilisation des éléments sémantiques et proposer des traductions adaptées. Si l’approche crée parfois une forme de poésie, elle ne crée pas toujours du sens.

En conclusion

L’intelligence artificielle se construit sur des données, celles du comportement humain. Mais les traces de l’activité humaine, même contextualisées, ne peuvent pas toutes bénéficier d’un traitement automatique pour rendre compte du comportement qui les ont créées. Les approches quantitatives ne peuvent que négliger la dimension comportementale individuelle dont la variabilité serait bien trop compliquée à intégrer sur de grands nombres. C’est bien pour ça qu’une approche de Facteurs Humains telle que nous la pratiquons chez Akiani, sur de petits échantillons mais sur le terrain réel, fournit des informations auxquelles les approches d’études marketing n’ont pas toujours accès !

 

[1] En 1997, l’intelligence artificielle d’IBM DeepBlue bat Kasparov aux échecs grâce à un bug : lors du 44ème déplacement de la première partie, et « alors qu’elle était programmée pour résoudre jusqu’à 200 millions de positions par seconde, la machine s’est avérée incapable d’en choisir une. C’est donc de façon totalement aléatoire qu’elle a déplacé un pion, engendrant son sacrifice. Ayant alors une toute autre perception de Deep Blue, Kasparov a totalement changé de stratégie. » « Cherchant le piège, le champion a pensé que Deep Blue possédait une intelligence supérieure, ce qui a eu pour effet de le déstabiliser jusqu’au bout de la rencontre, qu’il a perdue (1 victoire, 3 nulles, 2 défaites). » Source.

[2] On vous le restitue tel que notre mémoire l’a conservé, si des personnes concernées dans le projet à l’époque souhaitaient apporter des modifications ou des précisions, nous en serions hautement preneurs !

 

Références

C. Mundutéguy and F. Darses, “Perception et anticipation du comportement d’autrui en situation simulée de conduite automobile,” Trav. Hum., vol. 70, no. 1, pp. 1–32, 2007.

Sami Lini
Sami Lini

Ingénieur-docteur en Facteurs Humains, Sami a d’abord travaillé dans le domaine de la R&D aéronautique. Les Facteurs Organisationnels et Humains opérationnels, la neuroergonomie et la recherche utilisateur (UX) sont ses domaines de prédilection qu’il apporte à nos clients tant dans le domaine de l’industrie à risque que pour les produits grand public.

Votre commentaire

Your email address will not be published. Required fields are marked *