FYI.

This story is over 5 years old.

Tech

Pour que l'IA ne nous fasse pas de mal, nous devons lui apprendre à lire

Selon des chercheurs, le meilleur moyen pour que l'intelligence artificielle ne se transforme pas en Skynet, c'est de lui faire lire des oeuvres de fiction.
Image : University of Lincoln.

Cela fait déjà plusieurs années que quelques-uns des esprits les plus brillants émettent régulièrement des jugements définitifs au sujet de l'intelligence artificielle. En 2014, Elon Musk, le patron de Tesla Motors et SpaceX, avait comparé les recherches actuelle sur l'IA au fait d' « invoquer un démon », et estimé que le terrifiant HAL 9000 de 2001 : L'odyssée de l'espace était un « chaton » comparé à ce que le futur nous réserve. La même année, le physicien Stephen Hawking avait déclaré publiquement que créer une véritable intelligence artificielle « serait une erreur, et peut-être même notre plus grande erreur. »

Publicité

Et pourtant, Mark Riedl, un chercheur en IA du Georgia Institute of Technology, n'est pas franchement inquiet.

« Je ne pense pas que nous en viendrons un jour au point où l'IA représentera une menace pour nous, m'a confié Riedl. Je ne crois pas aux scénarios à la Skynet ou à la Singularité, où l'IA se révolterait contre nous. »

Riedl estime qu'à l'heure actuelle, il y a peu de chances que nous créions une forme d'intelligence consciente à la Terminator 2, comme semblent le redouter Musk et Hawkings. En l'état actuel des choses, l'IA est encore très loin de pouvoir décider subitement que les humains sont mauvais et qu'il est temps de nous combattre.

Mark Riedl. Image : Georgia Institute of Technology

En revanche, des formes d'intelligence artificielle limitées et conçues pour accomplir des tâches spécifiques seront bientôt parmi nous, et certaines sont même déjà là. Les voitures autonomes, par exemple, qui doivent prendre des décisions à notre place lorsqu'elles nous conduisent au supermarché, posent une question cruciale : comment imprégner une intelligence artificielle de nos valeurs afin qu'elle ne nous fasse jamais (volontairement) de mal ?

Riedl affirme que le meilleur moyen pour l'IA de comprendre les humains serait de lire les livres et les histoires qui reflètent notre culture et nos valeurs. Pour dire les choses de façon (trop) simple, la théorie sous-jacente, c'est que si l'IA pouvait lire la Bible ou un quelconque autre livre, elle pourrait alors comprendre nos concepts de bien et de mal.

Publicité

Comme le dit Riedel, si l'IA nous fait du mal un jour, ce ne sera pas par cruauté ; ce sera parce qu'elle ne saura pas ce que « faire du mal » signifie. Il est très difficile (voire impossible) de lister toutes les choses qu'une intelligence artificielle ne devrait pas faire. Il nous faut donc plutôt donner une forme de culture à l'IA, assure Riedl.

« Le problème, c'est que nous n'avons pas beaucoup de textes qui décrivent précisément ce qui est moral et ce qui est immoral, dit-il. Nous n'avons que des histoires, des récits, dans lesquels on trouve des exemples de gentils et de méchants, de comportements corrects ou incorrects. Nous n'avons pas de manuel de notre culture, mais nous possédons des ouvrages dans lesquels des individus ont exprimé leurs valeurs et leurs convictions. »

Riedl et son collègue Brent Harrison détaillent cette méthode dans un article récent intitulé « Using Stories to Teach Human Values to Artificial Agents » (« Inculquer des valeurs aux sujets artificiels grâce à des histoires »), dont le titre est parfaitement limpide. Leurs travaux s'inspirent d'un projet précédent, Scheherazade, une IA capable de créer des fictions interactives (type livre-dont-vous-êtes-le-héros) en lisant d'autres œuvres et en en tirant des enseignements. En utilisant ses capacités pour distinguer des schémas narratifs dans un grand nombre de récits, Riedl et Harrison ont créé un système baptisé "Quixote" capable d'apprendre à l'IA comment accomplir une tâche de la bonne manière.

Publicité

Pour donner un exemple concret, Riedl et Harrison simulent une situation où l'on confie à une IA la tâche d'aller chercher des médicaments à la pharmacie.

« Si cette IA est programmée selon des méthodes standard de recherche d'efficacité, il y a de fortes chances qu'elle aille à la pharmacie, qu'elle vole tout simplement les médicaments, et qu'elle reparte le plus vite possible », explique Riedl.

Ça ne veut pas dire que l'IA est mauvaise ou carrément méchante, mais simplement qu'elle ne sait pas ce que l'on est censé faire ou ne pas faire dans une pharmacie, qu'il s'agisse de ne pas payer ou de doubler tout le monde. Ce sont des choses que l'on n'apprend pas en classe. Ce genre de choses s'apprend par l'expérience, en vivant dans le monde réel, en suivant des normes sociales, et en imitant le comportement des autres, en particulier des parents. Une IA n'a pas de parents, en tout cas pas de parents assez patients pour lui laisser le temps de cet apprentissage. Nous voulons qu'elle comprenne immédiatement ce que nous lui demandons.

« Mais si nous lui apprenions à suivre les normes sociales, et si nous lui présentions quelques histoires dans lesquelles les personnages suivent ces normes, en allant à la banque, en retirant de l'argent, en utilisant ensuite cet argent pour payer les médicaments, etc. – toutes ces choses que nous faisons quotidiennement sans y réfléchir, si nous parvenons à apprendre à l'IA à suivre toutes ces normes, alors nous aurons accompli quelque chose d'important », assure Riedl.

Publicité

L'expérience de Riedl et Harrison tend à prouver que cette méthode pourrait fonctionner, quoique dans des conditions très encadrées. L'exercice était simulé – les chercheurs n'ont pas réellement créé un robot pour aller à la pharmacie – et on n'a ensuite donné à l'IA que des histoires (sans doute terriblement chiantes) où il n'était question que d'aller à la pharmacie, écrites spécifiquement pour cette expérience.

Dans ces histoires, l'IA identifie les choix qui sont faits par les personnages, et elle est ensuite récompensée si elle reproduit les actions d'un humain et pénalisée si elle se comporte différemment.

Toujours est-il que le postulat a fonctionné, et qu'il pose les bases potentielles d'une méthode qui nous permettra d'être certains de ne pas engendrer des démons lorsque nous créerons des formes d'intelligence artificielle.

« Cela me paraît pertinent, m'avoue Jonathan Moreno, chercheur en bioéthique au Center for American Progress. La fiction est une bonne manière d'accéder à la vie intérieure d'autres personnes, qu'elles soient réelles ou non. C'est une façon pour les écrivains d'explorer nos valeurs et nos attentes. Je dois féliciter Riedl pour y avoir pensé. »

Si nous finissons un jour par créer une intelligence artificielle consciente du type de celles que l'on rencontre dans la science fiction, les méthodes développées par Riedl et Harrison pourraient s'avérer extrêmement utiles ; mais à ce stade, la question, c'est : quelles histoires utiliser ?

Publicité

Comme le dit l'article, « un sujet [une IA] apprenant à travers des histoires grâce à un système dé récompenses aura tendance à agir de la manière la plus humaine possible, mais il est possible qu'en des circonstances exceptionnelles elle adopte un comportement psychotique en apparence. »

Évidemment, toutes les histoires ne présentent pas une vision unidimensionnelle et simpliste du bien et du mal. Robin des Bois est un criminel, mais c'est aussi le héros. Il existe aussi des antihéros, et des narrateurs pervers. Quant aux valeurs véhiculées par la Bible, elles ne correspondent pas nécessairement à celles de notre époque.

Ce qui pose une autre question, plus complexe : qui choisit les histoires à présenter aux machines ?

« C'est une question politique, affirme Moreno. Pour moi, il n'y a pas moyen d'y couper. Il y aura des choix et des jugements à faire à chaque étape, si nous développons un tel système. »

« Dès que l'on confie cette responsabilité à quelqu'un, cela revient à dire qu'il sait mieux que tous les autres ce qui est bien, explique Riedl. Si l'on écarte par exemple les histoires centrées sur un anti-héros, donne-t-on une image fiable de ce qu'est notre société ? C'est pour ça que je suis mal à l'aise à l'idée de confier ce genre de responsabilité à quelqu'un. Alors que nous entrons dans l'ère du big data, il vaut toujours mieux utiliser plus de données que nécessaire. Autant utiliser toutes les histoires qui existent. La Bible, les contes, la science fiction, tout. Plus on a d'exemples, et plus il est facile de définir ce qu'est le comportement moyen, normal, face à une situation donnée. »

Ce serait génial si on pouvait apprendre à l'IA à être meilleure que nous, mais il est impossible de coder un comportement vertueux. Isaac Asimov lui-même le pressentait lorsqu'il a écrit les Trois lois de la robotique en 1942. Riedl ne peut donc espérer mieux que d'inculquer à une IA des valeurs aussi « bonnes » que les nôtres. Espérons qu'elles le soient suffisamment.