Quantcast
mot magique

Hé toi, le robot, je vais t'apprendre la politesse

Bonjour, merci, au revoir : s'ils veulent vraiment fréquenter les humains, les robots vont devoir maîtriser la courtoisie. La tâche s'annonce ardue.

Sébastien Wesolowski

Sébastien Wesolowski

Image : 20100vallon

Avril 2048. Vous quittez votre bureau au beau milieu de l'après-midi ; vous venez d'être viré (sans indemnités) de votre poste d’agent d’assurance au profit d'une intelligence artificielle plus efficace que vous. Pas d'humeur à profiter du soleil et des 30 degrés, vous vous engouffrez dans un débit de boissons tenu par une paire de bras robotiques. L'interface vocale de ce barman artificiel vous accueille bien méchamment : « Alors le freelance, on vient rincer son seum ? » Courroucé, vous rebroussez chemin si vite que le drone à roulettes Alibaba qui filait sur le trottoir n'a pas le temps de vous éviter. L'asphalte incrustée de panneaux solaires amortit bien mal votre chute.

Un seul élément de cette histoire manque complètement de crédibilité : le barman insultant. Les robots qui sont destinés à remplacer, servir et assister les êtres humains n'auront d'autre choix qu'être polis. Il en va de leur bonne introduction parmi nous, et donc de l'équilibre du nouveau paradigme social qu'ils sont supposés apporter. Après tout, qui voudrait fréquenter un robot qui se comporte bizarrement, ou mal ? Interrogée en 2014 par Motherboard, la roboticienne canadienne Ajung Moon expliquait déjà : « Les robots doivent être capables d'interagir avec les gens de manière naturelle. Le degré d'ouverture du public vis-à-vis de ces technologies est intimement lié à ça. »

Lubrifier et survivre

Un robot conçu par le MIT pour circuler poliment parmi les humains. Image : capture d'écran

Mais qu'est-ce exactement que la politesse ? C'est terrible, mais nous sommes obligés de passer par la case définition académique pour répondre à cette question. Pour l'anthropologue Penelope Brown et le sociologue Stephen Levinson, il s'agit d'un « aspect pragmatique, rationnel et régulé du discours, qui prend racine dans le besoin humain de maintenir ses relations et d'éviter les conflits ». Ce lubrifiant social passe par des expressions et des gestes qui varient selon le contexte et les caractéristiques des interlocuteurs. Pas question de saluer l'Empereur japonais d'un « Ça se passe » assorti d'un check épaulé, par exemple. Vos chances d’avoir un échange constructif avec lui s’en trouveraient grandement réduites.

De la même manière que les humains, les robots devront lancer les bons signaux au bon moment pour espérer tirer quelque chose de leur interlocuteur. Les machines conçues pour aider les personnes âgées existent déjà. Désormais, il faut faire en sorte que les personnes âgées aient envie de se laisser aider par elles ; on imagine sans peine qu’un grand-père acariâtre refusera de collaborer avec un robot qui lui déplaît. Idem pour les machines éducatives ou thérapeutiques, les robots-guides et même les robots de sécurité. Une étude israélienne a montré qu’un androïde-vigile malpoli était perçu comme menaçant et injuste, deux traits forcément débilitants lorsqu’on doit s’acquitter d’une mission de maintien de l’ordre.

Un robot qui maîtrise les interactions sociales aura plus de chances de remplir sa mission efficacement, mais aussi de survivre parmi les hommes. Sans surprise, le laboratoire de robotique de l’université de Madrid a découvert en 2016 que les personnes qui se faisaient traiter de « loser » par le robot qui venait de les battre au chifoumi l'avaient trouvé peu appréciable. Or, qui voudrait interagir ou aider une machine grossière ? Dans son article Social Interactions in HRI: The Robot View, Cynthia Breazeal, directrice du Personal Robots Group du MIT Media Lab, évoque le cas d’un robot qui réclame l’ouverture d’une porte à un humain pour accéder à son poste de rechargement ; qu'adviendra-t-il de lui si son ton ne convient pas à son maître ? Elle écrit : « Les qualités sociales et émotives d’un robot (...) jouent un rôle pragmatique dans la survie, l’auto-entretien, l’apprentissage, la prise de décision, l’attention et plus encore. »

Se plier aux mieux à nos codes de politesse est-il vraiment la meilleure chose à faire ?

Pour nous autres humains, cependant, la politesse robotique est plus qu'une affaire de bons rapports et d'utilité. Les chercheurs du département d'étude des interactions homme-machine de l'Université de la Colombie-Britannique, le CARIS, pensent que des travailleurs robotiques mal formés aux interactions sociales pourraient être dangereux pour les humains. « Si un individu ne comprend pas ce que le robot est en train de faire et que le robot n'a pas conscience de cet individu, l'environnement n'est pas sûr » explique Elizabeth Croft, la fondatrice du CARIS, dans un article du National Post.

Les travaux du CARIS montrent qu'un robot doit éviter de bouger trop rapidement et de plier ses membres dans des angles étranges pour ne pas inquiéter ses collègues de chair et d'os — et donc les mettre en danger dans un environnement industriel, par exemple. Il doit également apprendre à leur laisser la priorité comme à les interrompre correctement, à comprendre leur langage corporel, à signaler qu'une tâche est achevée… Autrement dit, il devra être capable de signifier ses intentions, comprendre les nôtres et se synchroniser avec elles. Qu'est-ce, sinon de la politesse ? Pour obtenir pareille aptitude, le robot ouvrier comme le robot d’assistance aux personnages âgées va devoir être formé d’une manière ou d’une autre. C’est ici que les vrais problèmes commencent.

Science et technique du mot magique

Un robot PR2 entraîné à laisser la priorité aux humains par Ajung Woon et son équipe. Image : capture d'écran

« Apprendre la politesse » à un robot signifie lui inculquer ce que nous, humains, apprenons et peaufinons en société pendant toute notre vie. De fait, pas question d'essayer de programmer un robot pour le rendre poli comme on programmerait un lampadaire pour se mettre en route quand la nuit tombe. Une machine vraiment autonome doit être capable de s'adapter à chaque situation en temps réel, une aptitude qu'une masse de code figée ne pourrait lui fournir, mais aussi d'apprendre. En bref, elle devra être en mesure de capter et « comprendre » un input (des informations sur son environnement, son interlocuteur...) pour fournir un output (un discours et un comportement adapté à la situation), mais aussi de retenir le tout pour affiner ses interactions futures. Pas évident.

Pour le moment, les chercheurs tâtent le chemin de la politesse robotique du bout de l'orteil grâce au machine learning, une technique qui permet à un ordinateur d'« apprendre » à identifier des tendances dans les données qui lui sont fournies. Une équipe de scientifiques financée par le département de la défense des États-Unis aurait déjà développé un algorithme de machine learning qui permet à un système automatisé de « déduire » ce que sont les bonnes manières en digérant d’importantes quantités de données sur la politesse humaine. On n’en sait malheureusement pas grand-chose de plus, et ce n'est pas le seul problème.

Pour le moment, les réactions d'un robot social sont nécessairement programmées. Ajung Woon et son équipe ont fait appel au machine learning pour guider un robot dans un échange de politesses avec un humain croisé à la sortie d'un ascenseur, mais la méthode lui permet seulement de sélectionner l'action pré-enregistrée la plus adaptée dans une situation dont il connaît déjà les inputs environnementaux. La bonne nouvelle, c'est que des roboticiens du MIT ont réussi à aller plus loin en misant sur l’apprentissage par renforcement. Grâce à cette sous-discipline du machine learning, ils ont appris à un robot à se comporter « comme il faut » dans une foule en mouvement : sur ses petites roulettes et en toute autonomie, il esquive admirablement les passants tout en respectant les règles tacites de la circulation pédestre (doubler à gauche, notamment). Ce n'est pas exactement comme une discussion à bâtons rompus, mais c'est un début.

Traiter les données est une chose, les obtenir en est une autre. La courtoisie est aussi une affaire de perception ; un robot poli devra être capable de percevoir et analyser l'environnement et les faits et gestes des humains aussi efficacement que nous. Faute de sens comme les nôtres, il confiera cette tâche à divers capteurs. Pour ne pas gêner les passants, un trait de politesse qui pourrait sembler élémentaire, le robot zigzagueur du MIT a besoin de caméras RGB, de capteurs LiDAR et d’un système de reconnaissance faciale. Maintenant, essayez d'imaginer un robot capable de gérer une tâche aussi complexe qu'une conversation avec un humain. Il devra saisir le sens des gestes, du regard, des intonations de voix...

La machine capable de capter et traiter toutes ces informations n'existe pas encore. Par bonheur, cependant, tous les robots du futur n'auront pas besoin d'être aussi puissants. Que ferions-nous d'un robot-maçon maître de la courtoisie ? Le niveau de politesse dont une machine devra se montrer capable dépendra de sa fonction. C'est elle qui décidera de son équipement, de ses capacités, mais aussi de son apparence — une autre dimension cruciale du robot social.

Robot chelou, robot loin de nous

Robot Head, un robot amateur « expressif ». Image : capture d'écran

L’aspect d’un robot influence sa capacité à communiquer avec nous. Est-il doté d’un regard, de mains soigneusement articulées ou d’autres organes qu’il pourra utiliser pour se conformer au mieux aux codes humains ? Dans sa thèse Modélisation du profil émotionnel de l’utilisateur dans les interactions parlées Humain-Machine, l’informaticienne Agnes Delaborde avertit : « Plus la machine mimera l’intelligence, plus l’utilisateur sera pointilleux et exigeant. Et plus la machine tentera de s’apparenter à un humain... Nous en venons bien sûr à la théorie de l’Uncanny Valley. Les réactions et l’apparence du système doivent être scrupuleusement étudiées : si le système tente d’être trop humain, la moindre erreur de conception le fera passer pour un « monstre ».» Ce qui nous éloignera immanquablement de lui.

Il a déjà été prouvé que l’aspect et le comportement des robots modifiaient notre rapport à eux. L’effet des machines genrées est encore méconnu mais réel, des traits humanoïdes semblent nous rendre plus compétitifs, les robots plus mécaniques peuvent être perçus comme plus louables… Côté personnalité, une machine plus amicale et extravertie est jugée plus digne de confiance ; plus froide et dirigiste, elle obtient plus efficacement la collaboration ses cobayes humains. Même notre culture d’origine et notre personnalité influencent notre vision : les Allemands aiment moins les robots que les Chinois. Les personnes introverties et peu stables émotionnellement, par exemple, semblent préférer les robots peu humanoïdes.

Toutes ces subtilités devront être prises en compte par les concepteurs des robots du futur afin que ces derniers s’adaptent au mieux à leur interlocuteur. Après tout, les robots sont faits pour servir les humains. Cependant, se plier aux mieux à nos codes de politesse est-il vraiment la meilleure chose à faire ? Les systèmes automatisés des années 2010 semblent indiquer que oui. Les chatbots qui rendent les politesses retiennent leur interlocuteur plus longtemps et Bernt Meerbeek, scientifique pour la marque Philips, a constaté que les propriétaires d'aspirateurs robots attendaient d'eux qu'ils soient « calmes, polis et routiniers ». Pourtant, lorsqu'elles sont excessivement polies, les voitures autonomes troublent les humains et causent des problèmes de circulation inédits.

Vous l'aurez compris, on n'apprend pas facilement la politesse à une machine. Après tout, saisir et respecter les codes sociaux est déjà difficile pour les humains. Les variables sont trop nombreuses, trop changeantes, trop rapides. Qui oserait prétendre qu'il n'a jamais eu l'air obtus ou indélicat devant ses semblables à cause d'un petit plantage, ou même s'en sans rendre compte ? Malgré leurs intelligences artificielles et leurs algorithmes miracles, les temps qui courent mentent : les machines ne peuvent pas être plus fiables que leur créateur. Le robot poli « juste comme il faut » n'existera jamais — à moins que nous ne parvenions à engendrer une conscience artificielle, fût-ce à coups de caméras et de deep learning. Et ça, c'est une toute autre paire de manches.