FYI.

This story is over 5 years old.

Tech

Vivre dans un monde de bots

Savez-vous reconnaître un bot avec certitude ?
All images: 30000fps

Samuel Woolley, Danah Boyd, Meredith Broussard, Madeleine Elish, Lainna fader, Tim Hwang, Alexis Lloyd, Gilad Lotan, Luis Daniel, Palacios, Allison Parrish, Gilad Rosner, Saiph Savage, Samantha Shorey

Nous vivons dans un monde peuplé de bots. Les bots, ces agents logiciel constitués d'une collection d'algorithmes, constituent l'arrière-plan d'Internet. Ils rôdent derrière nos recherches Google et permettent de trier notre courrier spam, par exemple. Mais un genre émergent de bot, capable d'interagir avec les humains et d'agir par lui-même, joue un rôle de plus en plus important dans nos vies numériques.

Publicité

Les bots permettent de mesurer la santé technique d'Internet, de partager des informations sur les catastrophes naturelles, de faire des prédictions épidémiologiques, de commander à déjeuner et d'envoyer des articles à des réseaux d'individus à travers des plateformes comme Twitter ou Slack. Certains peuvent même écrire ces articles eux-mêmes. Les bots permettent d'intégrer des actions militantes aux réseaux sociaux, de mener des attaques par déni de service (DoS), ou encore d'influencer les marchés boursiers. Les bots, enfin, sont capables de rivaliser avec les humains pour effectuer des tâches élémentaires. On a récemment proposé qu'un assistant « de type Siri » puisse aider les pilotes de drones à tirer sur leurs cibles en limitant le risque « de traumatismes psychologiques. »

« Les bots sociaux » sur les plateformes sociales comme Twitter interagissent avec les utilisateurs humains, générant de la micro-fiction, promouvant la transparence politique, répandant des informations sur la surveillance ou l'actualité juridique. En fait, de nombreux bots sont conçus pour passer pour des humains. Des projets comme BotOrNot, le logiciel qui permet de détecter si un compte Twitter est contrôlé par une vraie personne ou par des lignes de code, montre bien le succès des développeurs dans la création de bots humanoïdes. De nombreux bots ressemblent à des sortes de cyborgs désincarnés, en partie automates, en partie humains, et qui toutefois se font passer pour des hommes auprès de multinationales, du public, voire des plateformes sociales elles-mêmes.

Publicité

What Can Bubonic Plague Tell Us About Bitcoin?

Thinkpiece BotFebruary 18, 2016

D'autres bots, tels que @oliviataters, @nice_tips_bot ou @twoheadlines, ont attiré l'attention sur eux pour une raison très précise : après examen attentif, on voit bien qu'ils ne sont pas humains. Leur botness est d'ailleurs particulièrement amusante, surréaliste ou poétique. En matière de militantisme politique, des recherches suggèrent que les bots suscitent facilement l'adhésion lorsqu'ils possèdent des caractères humains. À l'inverse, lorsque leur comportement parait trop "automatisé", ils provoquent la méfiance.

i could watch another movie but then it'd be over at 5 am and i will have basically given concrete form to the intangible desire.

olivia tatersJanuary 25, 2016

Depuis ELIZA, considéré comme le premier chatbot, l'un des traits distinctifs des bots est leur semi-autonomie : leur comportement est en partie issu de l'intention du développeur, et en partie des capacités du système de machine learning utilisé. Penser les bots comme des acteurs semi-automatiques complexifie évidemment leur conception. Cela les rend également très ambivalents sur le plan éthique. Les questions de tricherie et de responsabilité doivent être considérées lorsque l'on discute l'élaboration et la fonction d'un bot.

Pour avoir un aperçu global de toutes les questions que soulèvent les robots, Sam Woolley, chercheur à l'Institut Données & Société, a organisé un atelier pour réunir un groupe diversifié d'experts en bots. Cet article est le produit de cet événement, qui explore trois points de vue essentiels : celui du concepteur, celui de l'exécutant, et celui du régulateur. Dans chaque cas, le bot présente un défi inédit dont les humains ne se sont pas encore pleinement saisis.

Publicité

Le concepteur : techno-humanité et systèmes humbles

Nos attentes en matière de bots peuvent être très différentes en fonction du contexte. Parfois, nous voulons qu'ils nous rappellent à notre propre humanité ; alors, nous les programmons de telle sorte qu'ils disent des choses qui nous fassent rire. Nous savourons le fait de pouvoir objectiver les robots. Ils essaient de paraître humains, mais ils n'y parviennent jamais vraiment. Cela est amusant, poétique, charmant.

« Nous ne reprochons pas aux robots d'être incapables d'interagir avec nous de façon réaliste. Nous accusons l'incompétent qui les a programmés. »

Néanmoins, nous voulons aussi que les bots nous comprennent, qu'ils travaillent pour nous ; dans ce cas précis, leurs insuffisances nous sont insupportables. C'est ce qui arrive lorsque que vous appelez un service après-vente interactif : au bout de deux minutes, vous êtes déjà en train de hurler de frustration dans le combiné. Quand les systèmes automatisés semblent incapables de comprendre quoi que ce soit, ils nous rendent dingues. Mais nous ne reprochons pas aux robots d'être incapables d'interagir correctement avec nous. Nous accusons l'incompétent qui les a programmés.

Impolite perhaps, but I discovered a good way to get past automated 1-800 and to a human is to begin swearing at the robot

Tim WuFebruary 19, 2016

Parfois, cette condamnation peut paraître déplacée. Après tout, ce n'est pas toujours à cause de l'humain derrière le bot que les choses vont mal. Même si nous voulons préserver la responsabilité humaine dans les choix de conception des bots, nous devons garder à l'esprit que certains bots sont programmés pour faire des choses inattendues.

Publicité

Prenons par exemple le Random Darknet Shopper, qui a été programmé pour dépenser 100$ en bitcoins chaque semaine pour acheter des objets aléatoires sur Agora, un marchand du Dark Web. Au bout d'un certain temps, fatalement, le bot a acheté de la drogue. L'ordinateur sur lequel tournait le programme a donc été saisi par la police suisse, en même temps que les comprimés de MDMA constituant l'objet du délit.

Comme l'explique ! Mediengruppe Bitnikn, le collectif suisse derrière le bot, les charges ont été abandonnées lorsque le procureur a décidé que « l'intérêt supérieur des questions soulevées par l'œuvre d'art 'Random Darknet Shopper' justifient l'exposition de drogues sous le statut d'artefacts, même si l'exposition présente le risque, mince, de mettre en danger des tiers par l'intermédiaire des drogues exposées. »

Même si les artistes travaillaient à remettre en question les concepts de culpabilité sur le d'anonymat, d'éthique et de fonction commerciale, tout cela en s'aidant du Dark Web, ils ont quand même annoncé qu'ils assumaient l'entière responsabilité de ce qui était arrivé. La constitution suisse, cependant, complique les choses puisqu'elle assure que l'art qui se soucie de l'intérêt du public est parfaitement légal.

Leurs travaux ainsi que la réponse de la justice soulèvent des questions cruciales. Qui est responsable de l'output et des actions des bots, à la fois sur le plan éthique et sur le plan juridique ? Comment la semi-autonomie engendre-t-elle des contraintes éthiques qui pèsent sur le créateur d'un bot ? Des questions similaires ont été évoquées l'année dernière, après qu'un bot de texte semi-aléatoire appartenant à résident d'Amsterdam a publié des menaces de mort sur Twitter. « Puisque je ne suis pas juriste, je ne sais pas qui est / doit être tenu pour responsable (si quelqu'un doit l'être) de ces paroles. Je flippe un peu, en ce moment, » précise son créateur sur Twitter. Le compte du bot a finalement été supprimé.

Publicité

I'm going to delete my bot for now, because that's what they want.

BB ON BOARDFebruary 11, 2015

Pour ceux qui, parmi nous, créent des bots pour les propulser dans le monde virtuel, il est essentiel de réfléchir à ces questions en profondeur. Cela devrait être de notre responsabilité d'examiner les valeurs qui sous-tendent nos créations. Avoir la possibilité d'ajouter au chaos numérique ambiant de manière innovante ne devrait pas pas encourager à lâcher tout et n'importe quoi sur le web.

L'exécutant : automatiser le quatrième pouvoir

En-dehors du domaine de l'art, ces questions se posent aussi aux personnes qui créent des bots dans un but citoyen. Les bots peuvent être utiles pour rendre visibles les valeurs qui sous-tendent un système, pour révéler des informations troubles, pour améliorer la visibilité d'un sujet ou de communautés marginalisées. Les comptes Twitter comme @congressedits, @scotus_servo, et @stopandfrisk par exemple, utilisent le principe de recontextualisation pour mettre en valeur des informations à la manière du journalisme traditionnel.

I got married in 1961. it only takes me 7mins to get to work.I have a high school diploma. I had less than 2 weeks off last year.

censusAmericansFebruary 18, 2016

Le bot peut être pensé comme un assistant : il peut constituer une sorte de prothèse civique, un outil qui améliore notre capacité à comprendre les personnes et les systèmes. Les bots ne remplaceront pas les journalistes, mais ils peuvent contribuer à alléger leur charge de travail en automatisant des tâches qui sont normalement effectuées manuellement. Un bot peut faire de la veille sur un sujet donné, ou mettre à jour des liens et des patterns qu'un humain, seul, n'aurait observé qu'après plusieurs heures de recherche. Il existe des myriades d'applications possibles. Les bots peuvent devenir des outils puissants pour les citoyens bien avisés.

Publicité

Talk:Iraq War Wikipedia article edited anonymously from US Senate congress-editsJanuary 21, 2016

Les questions de conception, de propriété et de confiance sont particulièrement pertinentes pour les bots journalistes, parce que le journalisme est une discipline basée sur la vérification. Les journalistes cherchent la vérité, la précision, et évitent la calomnie et la diffamation (en principe).

Cependant, un bot peut se tromper s'il s'abreuve auprès de sources de mauvaise qualité, et faire de la diffamation par ignorance. Si vous programmez un bot, êtes-vous prêt à faire face aux conséquences ? Que se passera-t-il s'il prend une initiative que vous n'auriez pas prise vous-même ? Comment stopper la propagation d'une fausse information publiée par un bot ? L'automatisation et les Big Data offrent certainement des outils innovants, mais ils montrent également qu'il faut revoir les principes de l'éthique journalistique.

Le régulateur : bots, politique et décisions

Étant donné le rôle social que l'on assigne parfois aux bots, leurs actions ont, implicitement ou explicitement, de véritables conséquences politiques. Ces dernières années, les bots consacrés à la propagande politique se sont répandus sur les réseaux sociaux, pour s'opposer à des actions militantes, ou pour grossir le nombre de followers de personnalités publiques.

Les militants utilisent des bots pour mobiliser le public autour de causes sociales et politiques : ceux-ci peuvent diffuser automatiquement des programmes politiques, des textes juridiques ou des revendications. Ces dernières années au Mexique, des employés du gouvernement et des membres de l'opposition ont, par exemple, utilisé des bots pour tenter d'influencer l'opinion publique. Dans ces cas-là, où est la frontière entre propagande, relations publiques et communication ?

Publicité

« Les plateformes, les gouvernements et les citoyens doivent réfléchir aux buts et à l'avenir de l'utilisation des bots. Sinon, leur fonction risque de se limiter à la manipulation des foules sous couvert d'anonymat. »

Pour le moment, les bots sont, pour l'essentiel, cantonnés aux plateformes sociales. Mais même des entreprises comme Twitter et Facebook ne peuvent désactiver tous les bots. D'ailleurs, ils n'en ont même pas envie. La structure de Twitter en fait l'hôte parfait pour de petites armées de bots, contrairement à Facebook qui favorise avant tout les utilisateurs humains et se méfie des processus automatisés dont il n'est pas lui-même à l'origine. Les bots aux buts politiques, et les bots conçus pour attaquer d'autres utilisateurs enfreignent les règles d'utilisation définies par les plateformes. Harcèlement automatisé, coercition, tromperie, l'anonymat dont bénéficie le bot doit être remis en question tout en tâchant de préserver la créativité et les libertés attachées à la programmation. L'élimination totale et radicale des bots sur les médias sociaux éliminerait, par la même, les bots de traitement de l'information utiles aux journalistes, et les bots comédiens tant appréciés par la communauté.

Mettre au point des règles à la fois strictes et applicables pour réguler l'utilisation des bots est un impératif urgent, si les plateformes veulent bénéficier de l'augmentation de trafic et des opportunités fournies par les bots sans pour autant s'exposer aux menaces qu'ils peuvent soulever.

Publicité

L'une des approches possibles est de réfléchir à des règles qui limiterait le spectre des comportements indésirables. Comment établir des règles qui empêcheraient les utilisateurs de mener des attaques politiques injustes ? Deux valeurs importantes, le discours démocratique et le droit à la prise de décision privée, émergent comme des axes essentiels de toute régulation future.

Le droit à la prise de décision privée, selon Beate Rossler, consiste à « prendre ses propres décisions et à agir sans interférences indésirables du gouvernement ou d'une entité d'une autre nature. » Si l'on applique ce principe au domaine des bots, cela signifie que nous ne voulons pas que ces derniers interfèrent dans des décisions critiques qui concernent la vie des personnes. Nous ne voulons pas que ces acteurs automatisés influencent indûment les votes électoraux ou les choix médicaux des individus, par exemple.

A 5.8 magnitude earthquake occurred 10.56mi ENE of Christchurch, New Zealand. Details: Earthquake RobotFebruary 14, 2016

Mais ce principe ne suffit pas à régler le problème du bot tel qu'il existe actuellement. Certains bots résistent à ce genre d'approche, en particulier ceux qui ont un effet « dos d'âne » et peuvent engendrer, par à-coups, des changements désirables dans les comportements sociaux. Les bots pourraient être des outils efficaces pour guider progressivement les individus vers des modes de vie plus sains, ou pour diffuser des informations sur les catastrophes naturelles, par exemple. Mais comment une politique pourrait-elle bien discriminer les « bons » bots tout en filtrant ceux qui sont répressifs ou manipulateurs ?

La semi-autonomie

Actuellement, les bots suscitent beaucoup d'enthousiasme, depuis le monde académique jusqu'à la Silicon Valley. C'est en partie parce que les perspectives créatives, politiques, légales et éthiques de cette technologie sont ouvertes, et que tout est possible. La semi-autonomie, qui caractérise la nature des bots (issue de la relation homme-machine) alimente toutes sortes de productions nouvelles. Nous devons envisager qu'elle évolue d'ailleurs vers des formes de plus en plus sophistiquées.

La meilleure manière d'appréhender les futurs possibles de l'automatique appliquée aux relations sociales numériques est d'accepter la nature paradoxale des bots. Ils contiennent les valeurs des personnes qui les ont programmées, mais ils vivent et agissent sur un Internet aux possibilités illimitées en termes d'input et d'output. Cela ne signifie pas pour autant que la responsabilité n'existe pas, mais simplement, que le problème est très complexe et qu'il devrait être abordé dans sa complexité. L'automatisation et l'anonymat troublent le concept de culpabilité univoque. Des affaires comme celle du Darknet Shopper soulignent cet aspect en montrant la nature distribuée et imprévisible du code informatique.

Les plateformes, les gouvernements et les citoyens doivent réfléchir aux buts et à l'avenir de l'utilisation des bots. Sinon, leur fonction risque de se limiter à la manipulation des foules sous couvert d'anonymat. Nous devons néanmoins éviter de blacklister tous les bots sous prétexte que la fin justifie les moyens. Ces automates peuvent et devraient être utilisés pour poursuivre des buts vertueux, à la fois pour explorer les relations entre individus et machines et pour repousser les limites de l'art. Nous espérons provoquer le débat sur la conception, l'implémentation et la réglementation des bots afin de les préserver, et surtout, d'imaginer pour eux de nouvelles applications.

En embrassant le désordre, en partant à la rencontre de ceux qui le créent, de ceux qui l'utilisent, en interagissant avec les bots eux-mêmes, il est possible de pousser la créativité, l'innovation, et l'imprévisibilité automatisée auxquelles nous tenons tant. Cette inventivité continuera à pénétrer les domaines du journalisme, du militantisme, de la critique, des épicentres de la démocratie et de la vie publique. Cette approche permettra de ménager un espace de régulation réfléchi, de convenir de règles qui autorisent les robots à créer le trouble pour favoriser la diversité et se prémunir contre les déséquilibres de pouvoir.