FYI.

This story is over 5 years old.

Tech

Les robots apprennent à simuler l’empathie

La recherche en IA financée par l’armée américaine a permis de développer un agent virtuel qui peut décrypter les émotions humaines.

L'intelligence émotionnelle est la pierre angulaire des relations humaines, et définit en grande partie ce que nous appelons « un comportement humain. » Aujourd'hui, on développe des IA qui décryptent les émotions humaines et savent s'y adapter : cela bouleverse déjà la manière dont nous interagissons avec les robots.

Au début des années 1990, les psychologues Salovey et Mayer ont été les premiers à affirmer que l'intelligence émotionnelle constituait une classe de compétences et de connaissances distincte des autres formes d'intelligence. Ils l'ont définie comme « la capacité à identifier ses sentiments et ses émotions, ceux d'autrui, à distinguer ces sentiments et ces émotions les uns des autres et à utiliser ces informations pour diriger la pensée et l'action. » L'intelligence émotionnelle serait cette capacité extraordinaire avec laquelle nous naitrions tous.

Publicité

Pourtant, les principes qui sous-tendent l'intelligence émotionnelle, développée dès l'enfance, peuvent être quantifiés, puis réduits à des opérations logiques et algorithmiques. Les humains ne sont pas si extraordinaires que cela, après tout.

Des développeurs de l'Institut pour des Technologies Créatives (ICT) de l'Université de Caroline du sud ont travaillé à donner une forme d'intelligence émotionnelle à l'IA installée dans leurs agents virtuels, ces interfaces animées aux traits humains avec lesquelles on peut converser. Les agents en question sont capables de comprendre les comportements humains et d'y apporter une réponse appropriée.

Albert « Skip » Rizzo, psychologue et directeur du centre de réalité virtuelle médicale à l'ICT, dévoile les derniers progrès en intelligence émotionnelle artificielle sous les traits d'une conseillère virtuelle plutôt sympathique, Ellie. Ellie est le produit des derniers travaux de l'ICT sur les agents humains virtuels, des recherches entamées en 1999.

ICT utilise également la RV pour traiter le syndrome post-traumatique.

« Nous sommes financés par l'armée, qui souhaite utiliser des humains virtuels dans le cadre de l'entrainement des troupes, » explique Skip. « Nous avons développé des applications qui peuvent apprendre à un soldat à négocier avec un chef de guerre afghan, ou à comprendre la sensibilité et les caractéristiques culturelles d'une personne venant d'un autre pays, de l'Iraq ou de l'Afghanistan en particulier. »

Publicité

Après avoir identifié des similitudes entre les capacités à négocier et les compétences requises dans le cadre du soin psychiatrique, l'équipe de l'ICT a décidé de mettre à profit ses IA dans un contexte clinique civil. « L'idée était de mettre au point des patients virtuels, avec que les psychologues puissent se former avec des personnages imaginaires avant de prendre la responsabilité d'entamer une thérapie avec un vrai patient, » explique Skip.

« Nous avons été très étonnés par ces essais. Même si les personnages virtuels étaient très peu réalistes, les étudiants en psychologie ont réussi à se convaincre qu'il s'agissait d'une vraie relation de soin, et se sont investis à fond dans la thérapie, » explique Skip.

« On retient de tout cela que l'apparence de l'agent est moins importante que sa capacité à interagir de manière subtile avec un humain. C'est d'ailleurs un aspect essentiel du développement de l'IA en général. »

SimSensei surveille les expressions et le comportement d'un sujet. Image: ICT

Le projet de l'ICT, financé par la DARPA, est particulièrement bien représenté par SimSensei, la nouvelle génération d'IA. Les agents virtuels capables de simuler un haut niveau d'intelligence émotionnelle peuvent s'engager dans des interactions avec des humains de manière durable et convaincante. Ellie est la star du projet SimSensei ; c'est une thérapeute virtuelle qui, selon plusieurs études, est plus douée qu'un psychologue humain pour solliciter l'engagement du patient dans un cadre clinique.

Publicité

Actuellement, Ellie fréquente surtout des militaires en permission qui souffrent de syndrome post-traumatique. Elle s'engage dans des entretiens en « face à face » en utilisant l'écoute active et le langage naturel. En effet, Ellie est munie d'yeux et d'oreilles. « Nous utilisons une caméra pour surveiller l'évolution des expressions faciales et des mouvements de tête du sujet, ainsi que la Kinect de Microsoft pour suivre les gestes et les postures du corps. Enfin, un microphone permet de capturer les variations dans l'intonation de la voix du sujet ; le but n'est pas de savoir ce que le patient a dit, mais comment il l'a dit, » précise Skip.

Un entretien avec Ellie commence par des questions anecdotiques afin de construire la relation entre l'IA et le patient. Ensuite, elle leur demande (sur un ton détendu) d'expliquer leurs symptômes en lien avec leur détresse psychologique. À partir de là, elle analyse la réaction physique du sujet, et adapte ses questions à partie de ces observations tout en hochant la tête de manière compréhensive. Elle a même une gamme de grimaces tout à fait convaincantes à son répertoire.

Jusque là, Ellie a été très bien acceptée par les sujets. Selon Skip, lorsque les militaires reviennent de mission, ils préfèrent même parler à Ellie qu'à un interlocuteur humain. Dans l'un des essais cliniques, on les a séparés en deux groupes : à l'un, on a dit qu'Ellie était contrôlée par un psychologue, ce que Skip appelle « le scénario du magicien d'Oz. » À l'autre, on a expliqué qu'Ellie était un programme informatique parfaitement autonome. Les deux groupes étaient bien conscients que les entretiens seraient analysés par les chercheurs à un moment ou à un autre ; malgré cela, les patients qui pensaient qu'Ellie était autonome ont montré davantage d'émotions négatives et évoqué davantage de symptômes de stress post-traumatique. Enfin, leur attitude révélait une détresse morale plus importante que les individus de l'autre groupe.

Publicité

« Les gens sont à l'aise avec Ellie, » explique Skip. « Ils ne se sentent pas jugés, ne se soucient pas de faire bonne impression, et révèlent davantage d'information qu'à un thérapeute humain. »

Skip ajoute que, sans surprise, le succès d'Ellie est lié à la stigmatisation sociale de la maladie mentale. « Avec Ellie, vous avez un humain virtuel crédible qui vous permet de vous confier dans que vous vous sentiez exposé, vulnérable, honteux. Vous pouvez révéler tous les moments embarrassants ou douloureux de votre vie sans crainte d'être 'écouté par quelqu'un.' »

En plus d'utiliser ses observations pour mesurer l'engagement des patients, Ellie analyse les données comportementales qu'elle a collectée afin d'identifier de possibles symptômes psychologiques et d'aider les cliniciens à faire un diagnostic.

L'équipe de l'ICT utilise les recherches actuelles sur l'expression non-verbale pour déterminer une liste de signes comportementaux qu'Ellie puisse traquer : position et orientation de la tête, posture corporelle, intensité et fréquence des expressions faciales, mouvements involontaires (comme le fait de se toucher, se gratter, remettre ses vêtements en place), etc. En plus de ces signaux physiques, Ellie sait identifier et analyser la voix de son interlocuteur.

Un résumé des comportements non-verbaux recensés dans les études de l'ICT. Image: Stefan Scherer/ICT

Stefan Scherer dirige l'équipe spécialisée en analyse de langage naturel au sein du projet SimSensei. Il explique qu'il se sert d'indicateurs acoustiques pour repérer les symptômes dépressifs, comme le fait d'avoir une voix monocorde, un ton uniforme, ou une tension anormale au niveau de la gorge et des cordes vocales. Un thérapeute humain peut facilement passer à côté de ces marqueurs : c'est donc un domaine ou Ellie excelle en comparaison de ses collègues humains.

Publicité

Ellie est armée d'outils exceptionnel pour faire face à l'état émotionnel des sujets qu'elle côtoie, d'autant plus que son appréciation est complétée par des capteurs qui outrepassent les capacités de ses collègues humains. Cependant, écouter Skip parler des essais cliniques auxquels s'est confrontée Ellie et constater qu'elle suscite un enthousiasme unanime met un peu mal à l'aise. On pourrait croire que Skip estime qu'Ellie annonce un futur où les relations interpersonnelles avec les robots seront devenues la norme. Pourtant, il se montre plutôt conservateur à ce sujet.

« Le but n'est pas de réaliser une sorte de HAL, » dit-il. « Même si je pense que les IA vont investir le domaine du soutien psychologique en tant que compagnons virtuels. »

Les agents SimSensei sont déjà mis à l'essai pour aider les autistes dits « de haut niveau » à développer les compétences émotionnelles et interpersonnelles nécessaires lors d'entretiens d'embauche. « Beaucoup de gens, sur le spectre autistique, sont brillants et talentueux. Ils peuvent travailler, mais sont incapables de faire les démarches nécessaires pour s'insérer dans le monde du travail, et notamment de réussir un entretien d'embauche », explique Skip. « Pour les aider, nous avons développé six personnages virtuels différents, représentant chacun des attitudes différentes de la part d'un recruteur. Il y en a un très aimable, un ouvertement hostile, etc. »

Skip explique que l'un des principaux buts de son travail à l'ICT était de mettre la technologie au service du soutien psychologique des personnes, et de rendre ce service accessible au plus grand nombre. Selon lui, dans ce domaine, Ellie aura un futur brillant. « Des adultes qui vivent seuls et souffrent de démence pourraient avoir un compagnon qui apparaît sur leur TV, leur ordinateur, leur mobile, qui leur rappelle de prendre leurs médicaments et discute avec eux, » ajoute-t-il.

« Nous avons pris un système destiné à l'armée, et nous l'avons transformé en une application civile pour la santé. C'est ça qui me plait le plus dans ce projet, » ajoute Skip.