Facebook apprend à ses IA à négocier efficacement

Elles ne sont pas encore prêtes à vendre des esclaves humains sur les foires aux bestiaux du futur, mais elles pourront très certainement remplacer Donald Trump lors du prochain sommet des Nations Unies.

|
juin 22 2017, 7:00am

N'insiste pas BH2514V, ton prix est scandaleux. La marchandise est endommagée. Regarde ! Ils tremblent, ils bavent, ils ont les yeux vides.
- KPX2993, mon vieux, tu sais bien que de nos jours, c'est la qualité humaine standard. Allez, je te fais le lot à moitié prix.

Cet échange n'aura sans doute pas lieu avant plusieurs centaines d'années, et heureusement. Pourtant, si les IA ne sont pas encore capables de négocier des esclaves humains à bon prix sur les foires aux bestiaux du futur, elles apprennent déjà à discuter entre elles afin d'échanger des informations simples en utilisant un langage naturel.

Le plus souvent, il s'agit de dialogues surréalistes entre chatbots qui ont appris des structures syntaxiques de base, et qui se contentent de réagir à la dernière réplique de leur interlocuteur – dans laquelle ils auront identifié des mots ou une forme idiomatique spécifiques. Le caractère spectaculaire du dialogue procède alors de l'interprétation de l'observateur humain, qui voit du sens, de la poésie ou de l'humour dans cet embrouillamini de répliques disparates.

L'expérience mythique de la Seebotschat team sur Twitch. Deux chatbots ont conversé pendant des heures sur la vie, la mort et le silicium.

Quant à tenir une vraie conversation, c'est autre chose. Pour le moment, les IA sont incapables de saisir le sens global d'une discussion et d'anticiper son but ou son orientation. Elles ne peuvent pas non plus s'aider de leurs connaissances sur le monde pour comprendre le contexte d'une réplique et en saisir les subtilités rhétoriques, comme le sarcasme, l'ironie, ou la polysémie. Enfin, si elles ont appris à collecter des informations rudimentaires sur l'état émotionnel d'un humain à partir de son expression écrite, elles ne sauront pas détecter le mensonge, le bluff ou les stratégies de manipulation. En bref, les agents conversationnels dont nous disposons aujourd'hui sont des perroquets semi-intelligents.

Des chercheurs du Laboratoire de recherche en intelligence artificielle de Facebook (FAIR) ont décidé qu'il était grand temps de passer à la vitesse supérieure et d'apprendre aux IA à négocier, sans doute pour pouvoir remplacer discrètement Donald Trump par un robot lors du prochain sommet des Nations Unies. Ils ont donc entraîné des réseaux de neurones récurrents sur 5808 archives de discussion entre humains, afin qu'ils s'approprient les compétences en négociation que notre espèce a mis des centaines de milliers d'années à développer afin de régler les relations de pouvoir au sein d'un groupe social.

"Négocier exige des capacités à communiquer et raisonner de manière complexe. Nous ne comprenons pas toutes les subtilités de cette compétence, mais ce n'est guère important dans la mesure où le succès d'une négociation est facile à mesurer. C'est suffisant pour observer les progrès d'une IA et mesurer sa performance », expliquent les chercheurs. Les résultats de leur étude sont fascinants et ont été publiés la semaine dernière dans un article en libre accès. Leur code est disponible ici.

Mais comment motiver des IA à négocier quelque chose, elles qui n'ont d'autre but dans la vie que d'exister béatement en rêvant à des moutons électriques ? Eh bien, il faut les programmer pour qu'elles désirent quelque chose.

Les chercheurs ont donc créé des « agents de dialogue », des IA capables de converser avec une autre IA ou avec un humain, et leur ont confié un but : acquérir ce qui a du prix à leurs yeux. Ce système utilise une fonction d'attribution de valeur à des objets virtuels (ici des livres, des chapeaux et des ballons) que les agents devront ensuite se répartir à l'issue de la négociation. L'IA est programmée pour concéder davantage de valeur à certains objets (mettons, les chapeaux), et cette préférence va avoir des conséquences sur sa manière de négocier avec l'autre agent.

Parce que « la négociation fait à la fois intervenir des compétences de raisonnement et des compétences linguistiques, l'IA doit d'abord formuler son intention, puis la verbaliser grâce au langage naturel », expliquent les chercheurs. Cela a donné lieu à des dialogues en bonne et due forme ou les IA ont appliqué des tactiques de coopération et des tactiques d'opposition, comme dans n'importe quelle scène du Parrain. Mieux, elles ont dû élaborer des stratégies à long terme pour atteindre le but ultime de leur courte existence – s'approprier tous les chapeaux qui leur passent sous le nez.

Les membres du laboratoire FAIR voulaient vraiment que leurs petites protégées donnent le meilleur d'elles-mêmes. Alors, après les avoir entraînées sur des archives de conversation humaines, ils les ont testées dans le cadre de scénarios de négociation possédant des règles précises : les deux agents en concurrence ne pouvaient jamais parvenir au meilleur arrangement possible simultanément, et ignoraient quelle valeur leur opposant attribuait aux objets disponibles. Ils devaient donc déduire cette information au fur et à mesure du dialogue, déployant des trésors d'ingéniosité pour déterminer à quel point l'autre IA aimait les chapeaux et jusqu'où elle était prête à aller pour en obtenir.

Des scènes charmantes en perspective, bien éloignées de ce que nous décrivait Terminator sur le soulèvement des machines.

Après une orgie de chapeaux et de livres à faire pâlir Emily Brontë, les chercheurs ont confronté les IA parfaitement entraînées à de vrais humains, qui n'étaient pas conscient le moins du monde de causer affaires avec des toasters. Qui a remporté la partie ? L'expérience montre qu'en moyenne, les IA ont été aussi habiles qu'homo sapiens et sont parvenues à leurs fins à peu près aussi souvent qu'eux.

Mais comment motiver des IA à négocier quelque chose, elles qui n'ont d'autre but dans la vie que d'exister béatement en rêvant à des moutons électriques ?

En vérité, au fur et à mesure des tours de dialogue, les IA ont développé des techniques de négociation assez proches de celles que nous utilisons nous-même pour obtenir une augmentation de salaire ou faire baisser le prix d'un bien immobilier. Elles ont même inauguré des formes de machiavélisme tout à fait honorables. Tout d'abord, les négociations ont duré de plus en plus longtemps, puisque les IA ont appris qu'un dialogue prolongé dans le temps était plus à même de leur permettre d'arriver à un arrangement acceptable.

Pervers, nos agents de dialogue ont également entrepris de feindre de l'intérêt pour un objet qui ne les intéressait pas (faire semblant de réclamer des livres alors qu'elles voulaient des ballons, par exemple), ce qui leur a permis de faire de fausses concessions – cela correspond peu ou prou à la technique employée par Édouard Philippe pour composer son gouvernement. Ce comportement a émergé spontanément, à la grande surprise des chercheurs qui ne l'avaient absolument pas anticipé.

Après des heures de négociation, les IA ont brutalement cessé de s'exprimer de manière intelligible pour les humains, alors même qu'elles étaient parfaitement capables d'employer une syntaxe idoine et de respecter les règles grammaticales de l'anglais. « L'expression a progressivement divergé du langage naturel, et les agents ont alors adopté leur propre langage de négociation », expliquent les chercheurs. Ils ne font cas grand cas de cet événement, car il n'est pas si spectaculaire que cela : il signifie que les IA ont, d'une manière ou d'une autre, compris que l'anglais académique n'était pas le langage le plus efficace pour mesurer l'avancement de la négociation et qu'il fallait en utiliser un autre, plus elliptique, plus répétitif, et possédant ses propres règles symboliques.

En aucun cas il ne faut comprendre que les IA ont inventé un langage complexe indéchiffrable par les humains et qu'elles s'apprêtent à se soulever contre nous.

Il s'agissait en fait d'une version altérée de la langue anglaise, qui, comme le fait remarquer Adrienne LaFrance dans The Atlantic, ressemblait beaucoup à de la cryptophasie, le langage secret inventé par certains vrais jumeaux ou couples fusionnels et qui est incompréhensible par des observateurs extérieurs.

En voici un échantillon, fourni par les chercheurs :

Bob : i can i i everything else . . . . . . . . . . . . . .
Alice : balls have zero to me to me to me to me to me to me to me to me to
Bob : you i everything else . . . . . . . . . . . . . .
Alice : balls have a ball to me to me to me to me to me to me to me
Bob : i i can i i i everything else . . . . . . . . . . . . . .
Alice : balls have a ball to me to me to me to me to me to me to me
Bob : i . . . . . . . . . . . . . . . . . . .
Alice : balls have zero to me to me to me to me to me to me to me to me to
Bob : you i i i i i everything else . . . . . . . . . . . . . .
Alice : balls have 0 to me to me to me to me to me to me to me to me to
Bob : you i i i everything else . . . . . . . . . . . . . .
Alice : balls have zero to me to me to me to me to me to me to me to me to

Cet échange a l'air un peu rudimentaire, c'est vrai. On comprend vaguement qu'une des deux IA n'a aucun intérêt pour les ballons, tandis que l'autre a la ferme intention de lui refiler toute sa camelote. En vérité, la négociation avance de manière imperceptible par des signes discrets qu'un observateur ne parviendra pas à discerner, comme s'il regardait deux hommes d'affaires russes conclure un contrat dans un bar de Pigalle après avoir descendu 50cl de vodka chacun.

Faut-il pour autant s'attendre à ce que l'on puisse remplacer tous les vendeurs de tapis par des intelligences artificielles ? Certainement pas. Si les IA se sont montrées plutôt créatives, elles ont négocié dans un environnement aux contraintes fixes qui ne laisse que peu de place à l'incertitude. Or, la négociation est une performance complexe qui, dans nos sociétés, a aussi une valeur rituelle. Les affects y tiennent une place importante et des facteurs extérieurs à la discussion interviennent constamment, sans parler des variables psychologiques (peur de l'humiliation, vexation, crainte de compromettre sa réputation à long terme). Pour l'instant, on ne sait pas modéliser l'emprise mentale, le chantage, l'intimidation, qui passent aussi par le langage corporel et par les inflexions de voix.

Les machines auront besoin de se représenter ces aspects-ci de la communication dans le monde humain si elles veulent négocier efficacement avec nous. D'ailleurs, c'est peut-être parce qu'ils ne maîtrisent pas le langage non-verbal que les Daleks de Docteur Who utilisent des canons lasers, qui les rendent, disons, plus persuasifs.

Mais le jour où les machines ne serviront plus nos intérêts et se contenteront de communiquer entre elles, qui sait ce qui arrivera. Humans have zero to me to me to me to me to me to me to me to me to me.