Quantcast

Encyclopédie des bots qui transforment l'arène politique

Samuel Woolley

Motherboard vous a concocté une typologie des botnets, sockpuppets, faux comptes, trolls automatisés et autres démons de l'Internet, ces nouveaux outils de campagne à disposition des partis.

Image : Daboost/Shutterstock

Cet article est le fruit de la discussion organisée en juin 2017 par Samuel Woolley, directeur de recherche du DigIntel Lab de l'Institut pour le futur, avec les experts Renee DiResta, John Little, Jonathon Morgan, Lisa Maria Neudert et Ben Nimmo. Le symposium s'est tenu chez Jigsaw, un think-tank de Google / Alphabet.


Les bots et leurs cousins – botnets, sockpuppets, faux comptes, trolls automatisés et autres réseaux d'influence – sont devenus des outils essentiels d'orientation de l'opinion publique.

Vous avez probablement entendu ce lieu commun selon lesquels les bots permettent menacer les militants, changer le cours des élections ou amorcer le dialogue avec le président des États-Unis. Dans les nouveaux médias, les bots sont représentées comme des entités toutes-puissantes. La Silicon Valley a même décrété que les chatbots allaient d'ici peu remplacer les applications classiques. Donald Trump, quant à lui, a affirmé avec tout le cynisme qui le caractérise qu'il n'aurait pas gagné les élections américaines sans Twitter, plateforme qui a permis d'amplifier artificiellement sa influence.

Des universitaires ont fait valoir que près de 50 millions de comptes sur Twitter étaient, en fait, gérés par un logiciel de bot. Sur Facebook, les robots sociaux – ces comptes gérés par un logiciel automatisé imitant des utilisateurs réels ou diffusant des informations destinées à un public spécifique – permettent d'automatiser les publications sur des pages et de diffuser des messages politiques. Les récentes révélations de Facebook nous ont appris qu'une "ferme à trolls" russe possédant des liens étroits avec le Kremlin avait dépensé environ 100 000$ en publicité avant les élections américaines de 2016, et produit des milliers de publications organiques sur Facebook et Instagram. La même firme, Internet Research Agency, est connue pour avoir utilisé des bots dans le but de manipuler l'opinion publique sur les médias sociaux.

Malgré l'agitation médiatique provoquée par l'utilisation des bots à des fins politiques au cours de plusieurs élections nationales récentes, le terme "bot", comme celui de "fake news", reste très imprécis. Il est parfois utilisé pour désigner n'importe quel utilisateur produisant du contenu controversé sur les réseaux sociaux.

Tâchons de remettre de l'ordre là-dedans.

Qu'est-ce qu'un bot, et que fait-il ?

Voici une définition possible du bot : il s'agit d'un logiciel imitant le comportement humain. Il peut emprunter de nombreuses formes – comme le chatbot, qui facilite la relation client, ou l'assistant personnel. Le bot politique, quand à lui, peut être programmé pour laisser des commentaires favorables sur la page Facebook d'un politicien, cibler des journalistes en les bombardant de tweets menaçants, ou réagir à un post pour gonfler artificiellement sa portée.

La différence fondamentale entre les humains et les bots, ce n'est pas tant l'âme que la productivité : si un utilisateur humain poste une ou deux fois par jour sur les réseaux sociaux afin de divertir ses quelques centaines de followers, le bot, lui, peut bavarder, partager et sermonner tout le jour durant. Il n'a pas besoin de gagner sa vie, de s'occuper des gosses ou de dormir. Aussi, les bots sont programmés en vue d'accomplir une seule et unique mission : poster autant que possible sans se faire attraper. Cela fait d'eux des outils puissant pour quiconque souhaite façonner l'opinion publique en sa faveur, ou orienter le débat selon ses vœux.

Chaque bot peut être programmé dans le but d'exhiber un comportement unique, en rapport avec une identité définie à l'avance. Certains sont même capables d'analyser la personnalité d'utilisateurs réels et de la reproduire à l'envi. D'autres encore sont conçus pour le bien commun et s'identifient publiquement comme des bots, plutôt que de prétendre être des êtres humains. Les bots politiques travestis, eux, font tout le contraire : tromper, manipuler, apparaître comme des individus réels aux idées politiques bien tranchées. Leur identité, soigneusement fabriquée et gérée, est faite pour refléter celle du public cible. C'est là la principale caractéristique de ces campagnes clandestines à base de bots.

Considérons maintenant le cas tristement célèbre d'août 2017, où Donald Trump a interagi avec une utilisatrice Twitter nommée Nicole Mincey. Trump, devant ses 35 millions de followers (à l'époque), a remercié Mincey d'avoir tweeté qu'il "travaillait dur pour le peuple américain".

Mincey, qui a acquis près de 150 000 followers sur Twitter par la suite, semblait être une conservatrice afro-américaine et fervente partisane de Trump. En examinant son profil de plus près, on détectait cependant quelques bizarreries : son avatar était tiré d'une base de stock photos, la syntaxe de ses tweets était peu diversifiée, et elle interagissait assez peu avec les autres utilisateurs. Une enquête plus poussée a décidé qu'il s'agissait "d'un personnage fictif utilisé par le branche marketing d'un sombre portail d'e-commerce vendant des produits à l'effigie de Trump". Le compte a été suspendu depuis.

Qu'est-ce qu'un bot politique, au juste ? Les journalistes ont découvert que les followers du faux-compte de Mincey étaient eux-aussi des bots formant un gigantesque botnet – un réseau de bots conçus pour se suivre les uns les autres afin de passer outre la vigilance de l'algorithme de Twitter - dont la mission est de détecter toutes les activités problématiques sur la plateforme. En outre, l'utilisateur litigieux tweetait à une cadence surpassant les capacités humaines ordinaires.

Nicole Mincey était pourtant une vraie personne qui avait travaillé au sein de l'entreprise d'e-commerce en question. Elle avait simplement délégué toutes ses tâches de communication à un programme.

*

La frontière entre le bot et l'humain est de plus en plus floue. Certains comptes sont entièrement automatisés et spamment indifféremment Twitter, Facebook et autres médias sociaux du même flot de messages calibrés. D'autres sont plus subtils : ils publient des messages uniques, soigneusement construits, et interagissent avec d'autres utilisateurs. Ces comptes plus raffinés ont été baptisés personas, cyborgs ou sockpuppets. Ils ne sont pas nécessairement entièrement automatisés, mais représentent néanmoins des "fausses" personnes exploitées par un individu ou un groupe souhaitant masquer son identité réelle.

Des gouvernements ont déjà exploité les sockpuppets à l'échelle industrielle. Prenons, pas exemple, l'Internet Research Agency de St-Saint-Pétersbourg, qui emploie plusieurs dizaines de personnes (pour un coût de 2,3 millions de dollars) afin de diffuser des memes sur Youtube, Facebook, YouTube et autres – ou encore la "50 Cent Army" chinoise qui utilise un nombre considérable de faux-comptes pour inonder Internet de commentaires conçus pour dévier l'attention du public, lui faire oublier les grands scandales financiers et chanter les louanges du gouvernement en place. Tandis que la Russie fait un usage systématique des bots pour harceler les adversaires politiques du Kremlin, la Chine préfère exploiter des intermédiaires humains pour pilotes des faux-comptes. Malgré cette différence fondamentales, les comptes qu'ils utilisent sont généralement désignés comme des "bots", sans distinction.

Ces opérations reposent généralement sur différents types de bots qui se complètent les uns les autres dans le cadre d'une stratégie complexe. Certains sont utilisés pour rassembler et encourager de vrais utilisateurs qui publient, sciemment ou inconsciemment, du contenu correspondant aux objectifs de la mission. D'autres bots servent principalement à perturber l'autre camp, en posant des commentaires négatifs sur les profils des militants de l'opposition, par exemple. D'autres encore se contentent de créer le chaos partout où ils passent et de diffuser de fausses informations. Percer le mur du "bruit" sur les réseaux sociaux est de plus en plus difficile, même pour un utilisateur expérimenté.

Les réseaux de bots les plus efficaces orientent le débat public en combinant comptes automatisés et comptes hybrides, ou "cyborgs", en partie pilotés par des humains. Enfin, l'activité des bots organisés en réseau – les botnets – complètent la stratégie des cyborgs pour que la campagne atteigne ses objectifs :

  • Les sockpuppets (comptes semi-automatisés) ouvrent le bal en diffusant de nouvelles idées et en animant le débat sur les communautés en ligne.
  • La portée de ces idées est ensuite amplifiée par des dizaines de milliers de comptes automatisés, "les bots amplificateurs" qui retweetent et repostent sans relâche les messages des premiers, dans la même langue.
  • Par ailleurs, les "bots approbateurs" répondent ou s'engagent sur des tweets spécifiques afin de les rendre "légitimes" auprès des utilisateurs réels.
  • Cerise sur le gâteau, des bots spécialisés sont utilisés pour harceler et attaquer des individus et des organisations dans le but de les dissuader de poursuivre le débat.

Qu'ils soient ou non automatisés, les faux-comptes auxquels le public peut s'identifier sont dotés d'une productivité hors du commun, qui est la clé de leur succès. De loin, ils ressemblent à s'y méprendre à des utilisateurs lambda. Or, la plupart des gens ne prennent pas le temps de passer à la loupe le profil de leurs interlocuteurs sur les réseaux sociaux ; ils ont ainsi aisément pigeonnés. Il n'en reste pas moins très difficile de comprendre comment des nuées de bots parviennent à influencer les tendances et les flux d'actualités sur Twitter, Facebook ou Google.

Trump remerciant publiquement un bot devant ses milliers de followers.

De même, il est difficile de mesurer à quel point l'opinion publique sur des candidats politiques ou des questions de société a le pouvoir de modifier la perception de ces questions auprès d'un individu donné. Lorsque des dizaines de milliers de bots et de sockpuppets sont utilisés par un utilisateur ou groupe politique, ils peuvent donner l'impression que des milliers de personnes soutiennent la même opinion : de la même manière que la télévision et la radio étaient autrefois utilisés pour fabriquer le consentement, les robots peuvent être utilisés pour donner l'illusion d'un consensus social. Mais jusqu'à quel point ? On ne sait pas trop.

Ce qui est certain, c'est que les campagnes de propagande les plus efficaces réussissent à convaincre les utilisateurs des réseaux sociaux à partager du contenu viral – parfois basé exclusivement sur des fake news – avec leur réseau. Le contenu en question est alors relayé d'une manière ou d'une autre dans les médias, ce qui participe à sa diffusion même lorsque les journalistes font un travail de vérification et de debunking.

Les chercheurs de Data for Democracy, Kris Shaffer, Ben Starling, and C.E. Carey, ont noté ce phénomène juste après l'affaire du piratage des emails d'Emmanuel Macron, quelques jours seulement avant les élections présidentielles. Un groupe d'utilisateurs se sont organisés sur /pol (4chan), et Shaffer, Starling et Carey les ont suivis de près afin de comprendre quelle tactique avait utilisée pour diffuser les data extraites du hack auprès des communautés "mainstream" sur Twitter.

Une fois que le contenu en question a été posté sur la plateforme, il a immédiatement été amplifié par des comptes possédant un grand nombre de followers, comme @DisobedientMedia et @JackPosobiec. Ils sont ce que les chercheurs appellent des "relais de signal". Ben Nimmo, responsable de la défense de l'information au Atlantic Council, explique que ces comptes ont un rôle équivalent au chien de berger conduisant un troupeau.

Leur stratégie est peu ou prou toujours la même d'une campagne à l'autre : quelqu'un élabore un message, puis une nuée de faux-comptes fait des pieds et des mains pour le rendre visible. Une fois viral, un mème attire facilement l'attention des médias. Des études récentes montrent que certains bots sont conçus pour cibler les utilisateurs humains les plus enclins à partager du contenu sans vérification préalable, ou étant situé sur un nœud favorable au sein du réseau.

Le futur des Bots

Même si des entreprises comme Twitter et Facebook reconnaissent le problème que posent les bots et tentent de les éliminer de leur plateforme, ceux-ci sont de plus en plus difficiles à détecter.

Dans le même temps, de nombreuses start-up ont cédé à la mode des "agents conversationnels"» (aka chatbots) capables de tenir une conversation avec un humain. Dans la plupart des cas, ces entreprises n'ont aucun lien avec les campagnes de propagande et souhaitent simplement faciliter les relations clients – en vous aidant à réserver un vol, par exemple.

Hélas, les mêmes technologies qui permettent aux agents conversationnels de dialoguer avec les clients permettent également aux bots de prendre le contrôle des médias sociaux. Ces derniers dialoguent de manière cohérente avec les utilisateurs, usant d'une patience infinie pour débattre et persuader. Ils peuvent également être programmés pour collecter, stocker et utiliser les informations glanées à partir de ces conversations.

La communication textuelle automatisée ne représente pourtant que l'enfance des technologies permettant de simuler la présence humaine. Des chercheurs de l'université de Washington ont récemment créé une fausse vidéo de Barack Obama étonnamment réaliste afin de prouver qu'il était désormais possible de générer des animations et des voix passant pour humaines. De la même façon, on peut également retranscrire des événements fictifs à la manière d'un journal télé.

Les technologies qui permettent aux bots de converser sur Internet se combineront probablement un jour avec celles qui permettent de produire du son et de la vidéo. Sachant que les humains ont déjà toutes les peines du monde à reconnaître des bots rudimentaire se faisant passer pour de vrais utilisateurs, le futur est très inquiétant : les progrès du machine learning donneront aux propagandistes de nouvelles armes pour manipuler l'opinion, brouillant la frontière entre la fiction et la réalité. La société civile doit absolument trouver des solutions pour lutter contre ce phénomène, qui s'assortit d'une méfiance de plus en plus aiguë pour les sources d'information traditionnelles.

*

Jusqu'à présent, la propagande automatisée s'est cantonnée au marketing produit et aux campagnes politiques : l'exploitation de milliers de faux-comptes étant extrêmement onéreuse, peu d'organisations sont capables de se les offrir tout en maitrisant le risque qu'elles encourent en terme d'image. Cependant, comme pour toute nouvelle technologie, le coût d'exploitation des botnets diminue assez vite, et les logiciels permettant de contrôler des botnets sont plus accessibles que jamais.

De plus en plus, les bots sont utilisés pour cibler des groupes, des marques et des entreprises, mais aussi des oeuvres et des personnalités publiques. L'an dernier, des armées de trolls organisées sur Reddit et 4chan ont attaqué le reboot du film Ghostbusters ou la star Shia Labeouf. De même, il est tout à fait possible qu'un groupe possédant une armée de sockpuppets entreprenne un jour de diffuser des fake news sur une entreprise – l'accusant par exemple de ne pas avoir protégé sa base de données client des attaques de hackers – avant d'amplifier la nouvelle à l'aide d'une armée de 10 000 robots jusqu'à ce qu'elle soit reprise sur Twitter puis par les médias traditionnels. Cette seule initiative peut faire capoter un rachat, un partenariat, ou l'entrée d'un investisseur au capital.

Des attaques similaires ont eu lieu en Pologne, ou des bots ont été utilisés pour compromettre la réputation d'entreprises pharmaceutiques.

Comment répondre aux bots

Il est temps de mettre fins aux opérations de propagande qui façonnent l'arène politique, et le besoin de stratégie anti-bots se fait cruellement sentir.

Or, si l'on peut utiliser des bots pour gangréner la parole publique, ou peut aussi les exploiter pour la défendre. Certaines organisations visées par des attaques envisagent de lancer des sortes de "bots anti-bots" pour confondre les attaquants et diffuser des messages de soutien sur Twitter et Facebook. De telles tactiques de "déni de service cognitif" pourraient permettre de reconquérir l'espace numérique que les propagandistes utilisent pour former le consensus. Enfin, on pourrait utiliser des bots pour sensibiliser aux questions sociales.

Cette approche comporte cependant de nombreux risques. L'utilisation de bots pour repérer les fake news, par exemple, est susceptible de renforcer les croyances que l'on souhaite combattre. Certains ont suggéré à juste titre que l'introduction de bots "vertueux" pour concurrencer les bots "maléfiques" risquait de réduire le débat public sur les réseaux sociaux à une véritable course aux armements.

Le fait est que la course aux armements a déjà commencé, et qu'un seul camp est vraiment armé.

Cette approche "bot vs bot" peut constituer une solution à court terme. En fin de compte, les plateformes de médias sociaux fournissent la structure qui permet aux bots de faire leur boulot – ce qui les met en bonne position pour résoudre le problème à la racine. Hélas, ces mêmes entreprises se sont montrées, jusqu'ici, un peu décevantes en terme d'action. Il faut dire qu'elles ne sont pas incitées, financièrement parlant, à hâter la censure des botnets : les activités des bots gonflent les statistiques utilisées par les spécialistes de marketing, ce qui leur permet à ces derniers de justifier l'investissement publicitaire fait sur les réseaux sociaux.

Même si Facebook a partagé ses data sur les publicités achetées par la Russie avec le Congrès américain, il est beaucoup plus discret quand il s'agit de communiquer comment les bots et sockpuppets exploitent les pages et groupes du sites. C'est pourtant sur ces pages et ces groupes que les utilisateurs sont le plus à même d'échanger en-dehors de leur cercle de connaissances.

Les équipes de relations publiques de Twitter contredisent systématiquement les conclusions des études sur "l'influence des bots sur Twitter", estiment qu'elles sont "inexactes et faibles sur le plan méthodologique". Pourtant, la société n'a jamais demandé à ses propres experts de collaborer avec des scientifiques sur le sujet.

Google, de son côté, préfère rester en-dehors du débat, et ne s'est jamais exprimé sur l'influence des bots sur l'opinion publique et l'information. Pourtant, le professeur de l'Université de Columbia, Jonathan Albright, a découvert que Youtube "était utilisé comme un amplificateur politique" par des partis extrémistes.

Pour sa défense, YouTube est confronté à un problème très délicat en ce qui concerne l'identification de faux-comptes : ils sont généralement créés et contrôlés par de vraies personnes, qui n'utilisent les bots que ponctuellement. Or, l'activité de ces bots ne viole pas nécessairement les conditions de service de la plateforme.

Il existe malgré tout quelques solutions toutes simples que les médias sociaux pourraient appliquer facilement pour résoudre le problème :

  • Étiqueter les bots comme "comptes automatisés". C'est tout à fait possible techniquement, et ça permettrait d'augmenter la transparence de l'information sur les réseaux sociaux.
  • Partager les données issues de l'analyse réseau avec des chercheurs. Cela permettrait d'enquêter plus facilement sur l'identité des opérateurs de bots, mais aussi sur les logiques de diffusion de l'information.
  • Appliquer des "shadow bans" algorithmiques, qui consistent à sanctionner des comptes fautifs sans pour autant les supprimer de la plateforme – leur activité est cependant masquée auprès aux autres utilisateurs. Cette technique pourrait permettre de réduire la portée des comptes suspects de manière drastique, même si elle ne permet pas de s'attaquer frontalement à la question de l'authenticité des comptes.