"La peur irrationnelle autour de l'IA masque les vrais dangers"

FYI.

This story is over 5 years old.

Tech

"La peur irrationnelle autour de l'IA masque les vrais dangers"

Récemment, deux IA ont communiqué entre elles dans un langage que l’homme ne peut déchiffrer. De quoi faire ressurgir l’ombre de la machine éclipsant l’humain. Petit recadrage avec Jean-Gabriel Ganascia, spécialiste de l’intelligence artificielle.

Parmi les innombrables domaines de recherche de Google, l'intelligence artificielle, Google Brain, est un de ceux qui "font peur". Le principe même du deep learning, où la machine apprend "en autonomie", donne le sentiment que l'Homme peut être mis sur la touche. Que dire alors si une intelligence artificielle développe elle-même une méthode de chiffrement, incompréhensible pour un humain, pour entrer en communication avec une autre ?

Publicité

Revenons à l'expérience, tout d'abord : Martín Abadi et David Andersen, deux chercheurs du Google Brain Project, ont ainsi connecté trois ordinateurs, appelés neural networks en raison de leur composition inspirée du système neuronal humain, baptisés Eve, Alice et Bob. Chacun ayant un rôle défini : Alice et Bob avaient pour but de se communiquer un message, et Eve devait intercepter ce dernier. Martín et David, eux ne devaient pas intervenir dans l'expérience.

Après moult tentatives (plus de 15 000), Alice et Bob ont fini par mettre en place un système de chiffrement afin de court-circuiter Eve, ce qui a fonctionné. Problème, Martín Abadi et David Andersen eux-mêmes n'ont pas réussi à comprendre totalement le système de chiffrement des deux IA, ni comment elles ont choisi de le mettre en place. Suffisant pour mettre une partie des observateurs sur le pied de guerre. Ça y est, la machine va supplanter l'Homme !

Énorme avancée, énorme danger: Deux IA ont communiqué dans une langue indéchiffrable par l'homme Jacques AttaliNovember 5, 2016

Bien. Passé ce moment de stress intense lié à notre perte de contrôle au profit de l'intelligence artificielle, tentons de relativiser un peu tout ça. « La peur panique que notre propre œuvre nous dépasse, que nous devenions piégés par nos outils, existe depuis toujours, explique calmement Jean-Gabriel Ganascia, professeur à l'université Pierre et Marie Curie et chercheur au Laboratoire d'informatique de Paris 6. Il y a dans cette peur un fondement irrationnel, qui tient en partie à une confusion largement répandue autour du terme "autonomie". Il y a l'autonomie au sens technique : vous définissez une chaîne d'actions, vous donnez les informations à la machine, et elle prend une décision. Et il y le sens plus philosophique. Du grec autos : soi-même et nomos : la loi. Autrement dit un individu capable de créer sa propre loi, de définir ses propres objectifs. Et ça, ça ne semble pas près d'arriver ».

Publicité

À titre d'exemple, vous pouvez être étonné, émerveillé, voire angoissé de constater le chemin que va choisir votre robot pour se rendre à une destination. Mais il ne choisira pas sa destination pour autant. En l'occurrence, les deux chercheurs ont demandé à Alice et Bob de chiffrer leur communication, ils n'ont simplement pas saisi le mécanisme qui les a conduit à choisir ce système de chiffrement.

"Ce sont les mêmes qui vendent de l'IA et qui nous font peur avec"

Le chercheur insiste : « la crainte de l'autonomie est infondée, derrière il y a toujours des gens ». Y compris dans ces expériences avec des techniques de Deep Learning, qui semblent si terrifiantes depuis qu'AlphaGo a vaincu le champion du monde de Go. « Mais le deep learning n'est pas si nouveau que ça. Tout ceci est fondé sur des techniques que l'on connaissait dès les années 1980, elles-mêmes basées sur des méthodes des années 50. Ce qui a changé, c'est le Big Data et la puissance de calcul. Aujourd'hui les machines sont capables de calculer extrêmement rapidement et ont des bases de données gigantesques ».

« Par ailleurs, le problème vient également du fait que Google, et plus généralement les GAFA, jouent sur un double langage. Ce sont les mêmes qui nous martèlent qu'ils maîtrisent les techniques d'intelligence artificielle, qu'ils comptent bien vendre, tout en nous faisant peur sur un éventuel dépassement de l'homme par la machine. Et tout ça en se cachant derrière un pseudo moratoire sur l'éthique », rappelle le chercheur. « Mais c'est avant tout une manière de démontrer l'étendue de leur pouvoir immense : ils développent des outils qu'ils annoncent dangereux, et dans le même temps ils se posent en défenseurs des dangers que pourraient représenter ces outils ». Une stratégie leur permettant de gagner sur tous les fronts en somme. Habile.

Publicité

Bien sûr, Jean-Gabriel Ganascia n'ignore rien du problème que pose un éventuel conflit d'autorité entre l'Homme et la machine. « Nous n'avons pas à nous offusquer que la machine fasse certaines choses mieux que nous, il y a des tas de domaines dans lesquelles elle est plus exacte. Le problème vient du fait que nous nous laissons dépasser par les évènements. l'Homme en tant que tel est toujours maître mais nous nous dirigeons vers une société invivable si nous nous laissons envahir par les algorithmes ou si, par exemple, nous commençons à parler de droits des robots, ce qui reviendrait à déresponsabiliser l'humain ».

Le chercheur note par ailleurs que « nous déléguons chaque jour une partie de notre autorité à nombre de machines », et ce de manière parfaitement volontaire ; il nous faut donc « reprendre la main là-dessus ».

Dans la ligne de mire du chercheur : les théories de Ray Kurzweil sur la Singularité (dépassement de l'Homme par la machine), « qui ne sont basées sur aucun argument scientifique tangible ». Pour Jean-Gabriel Ganascia, cette peur récurrente « d'une singularité qui nous tomberait sur la tête comme le ciel sur les Gaulois masque des enjeux politiques et économiques majeurs », comme par exemple l'influence grandissante des GAFA dans notre quotidien grâce à cette technologie. « L'asservissement à la machine est bien moins important que l'asservissement à la compagnie privée qui la contrôle ».

Publicité

En notant le glissement du pouvoir des États vers les Big Companies, en raison bien sûr de la détention par ces dernières de milliards de données, le chercheur dénonce les « échanges inéquitables entre acteurs publics et acteurs privés ».

« Quand Facebook et Google s'intéressent à la reconnaissance faciale [Deepface ou FaceNet], quand Apple s'intéresse au système de paiement par portable ou que Microsoft et Google développent leurs propres agents communicationnels [Cortana, Siri ou Viv, par exemple], ils le font car eux seuls en ont les moyens. FaceNet, par exemple, obtient des résultats fantastiques, mais parce qu'il se base sur plus de 200 millions d'images ! Un Etat n'a pas autant de données à sa disposition, bien sûr. Donc à terme, ces acteurs vont entrer en conflit direct avec les Etats, les systèmes bancaires, etc. Ils court-circuiteront tout le monde, c'est un de leurs objectifs ».

Demain, même si la singularité n'arrive pas, déléguerons-nous encore plus de nos responsabilités, de notre autorité aux machines ? Ces dernières pourraient-elles être dangereuses pour les humains ?

« L'accession à la conscience par la machine, je n'y crois pas du tout. Je ne dis pas que ça n'arrivera jamais, mais en tout cas pour l'instant ça ne repose sur aucun fondement scientifique, rappelle Jean-Gabriel Ganascia. Je pense qu'il n'y aura pas plus d'opposition Homme/machine dans le futur, et que l'intelligence artificielle nous permettra de mieux faire de plus en plus de choses. »

Pour ce qui est des questions politiques et sociétales, en revanche, le chercheur avoue « ne pas être optimiste. Les grands acteurs privés ne vont pas cesser de s'opposer aux États. Surtout aux États européens, qui ne sont pas des États fermés comme la Chine ou la Russie. Nous sommes plus vulnérables. Faudra-t-il repenser le concept de "souveraineté numérique" ? Ce concept aura-t-il encore un sens ? »

Nous pourrions commencer par arrêter de tendre le bâton pour nous faire battre : « aujourd'hui, toutes les administrations françaises se servent des algorithmes de Google et lui fournissent une quantité astronomique de données. Cela prouve le niveau d'inconscience au plus haut niveau de responsabilité. Pourtant, il existe des moteurs de recherche, comme Qwant, qui sont efficaces, européens, et qui ne stockent pas les données, il faudrait peut-être commencer par là… »

Si l'on résume, on a d'un côté Alice et Bob qui se communiquent un message de 16bits après 15 000 essais surveillés par deux humains ; et de l'autre des millions de citoyens et d'administrations qui mettent volontairement la quasi-totalité de leurs informations personnelles dans les mains d'une poignée de multinationales. Et si ce que nous avions le plus à craindre du futur était que nous ne parvenions jamais à prioriser nos peurs ?

Cet article a été publié originellement sur Nom de Zeus, le site de Pierre Belmont.