Quantcast
moderation

Le pire job du monde : modérateur sur Facebook

Pour se débarrasser des images de viol et de meurtre sur Facebook Zuckerberg est prêt à sacrifier la santé mentale de ses 7500 modérateurs, exposés à des atrocités tout le jour durant.

Jason Koebler

Jason Koebler

En réponse à la vague d'indignation qui a parcouru le web après que le live Facebook mettant en scène un meurtre en direct soit devenu viral, Mark Zuckerberg a annoncé que l'entreprise allait embaucher 3000 personnes supplémentaires afin de modérer les vidéos live et autres types de contenu sensible sur la plateforme. Cela signifie qu'il existe désormais 7500 personnes dont la tâche est de s'assurer que les utilisateurs de Facebook ne sont pas exposés à la pédopornographie, à la pornographie tout court, au suicide, au meurtre et autres joyeusetés.

On sait désormais à quel point ces postes peuvent être très éprouvants psychologiquement parlant. Dans la Silicon Valley, il se dit même que ce sont les pires jobs de toute l'industrie tech. Dans The Moderators, un documentaire récent pour Wired, Adrian Chen a décrit les conditions de travail terribles de ces employés relégués à effectuer les basses besognes de Facebook et autres médias sociaux : journées interminables, salaires de misère, sans compter l'horreur qu'il y a à tomber régulièrement sur des images de viol, d'exploitation des enfants ou de torture.

« La modération est une tâche nécessaire, dont l'efficacité est pourtant limitée », explique Kat Lo, doctorante à l'Université de Californie où elle étudie les communautés en ligne et la pratique de la modération. « Le fait que Facebook ait recruté 3000 nouveaux modérateurs de contenu est une bonne chose dans l'absolu, car cela diminue le risque que les utilisateurs soient exposés à des formes de violence parfois insoutenable. Mais cette violence devra tout de même être gérée par un petit nombre de personnes dont c'est le métier ; ceux-là subissent un très grand stress psychologique au quotidien. Devant l'horreur, ils sont en première ligne. »

La plupart de ces postes sont généralement occupés par des prestataires, et si l'on en croit les déclarations de Chen ainsi qu'un article choc publié en décembre dans le journal allemand SZ, ces individus se sentent insuffisamment pris en charge, formés et soutenus dans leur travail.

Voici ce que les modérateurs interrogés ont confié à SZ :

« J'ai vu des choses qui m'ont fait reconsidérer ma foi en l'humanité. De la torture, de la zoophilie, ce genre de trucs. »

« Depuis que j'ai regardé des vidéos pédopornographiques, j'ai presque envie de devenir bonne sœur. Aujourd'hui, la perspective d'avoir des relations sexuelles me dégoûte. Je n'ai pas fait l'amour avec mon partenaire depuis presque un an. Dès qu'il me touche, je me mets à trembler. »

La modération de contenu est une sorte de main invisible qui façonne l'aspect de tout ce que nous voyons et lisons sur Internet. Même dans sa forme la plus terre-à-terre, elle peut revêtir un caractère tout à fait dystopique et se destine à des employés peu qualifiés et vulnérables. En faisant défiler des milliers et des milliers de selfies, photo de vacances, mèmes et liens sans queue ni tête tout le jour durant à la recherche de la petite fraction de posts qui enfreignent les conditions d'utilisation de Facebook, les modérateurs sont parfois près de devenir fous. Lorsqu'on leur demande pourquoi ils font ce job peu gratifiant, la plupart répondent quelque chose qui s'apparente à « il faut bien que quelqu'un le fasse. »

À l'heure actuelle, il n'existe aucun moyen de modérer Facebook sans exposer quelqu'un, quelque part, à des photos de viol.

Depuis quelques années, Facebook a choisi de se tourner vers l'IA afin de seconder les modérateurs humains. Selon un porte-parole, la compagnie utilise l'IA de manière très ciblée et encadrée, de sorte que si 1000 personnes signalent une image pornographique, un seul modérateur humain devra la regarder à son tour. Facebook tire également profit des outils de machine learning afin de trier les posts en plusieurs catégories correspondant à des domaines d'expertise. Ils sont ensuite envoyés aux experts correspondants (par exemple, expert en langue arabe ou expert en maltraitance infantile) afin d'être évalués.

Facebook utilise également un système de reconnaissance d'images permettant d'effacer automatiquement certaines images pour peu qu'elles aient déjà été postées par d'autres utilisateurs et signalées. Facebook utilise également des bases de données de pédopornographie, qui lui permettent de comparer des images pédopornographiques connues aux nouvelles images postées sur la plateforme. En cas de correspondance, cela permet de les effacer quelques secondes seulement après qu'elles aient été uploadées.

Il s'agit là de pratiques plutôt vertueuses, quoique modérément efficaces. Le fait est que nous aurons besoin des humains pour modérer efficacement pour de nombreuses années encore : trier les faux-positifs, distinguer entre les photos de sein érotiques et les photos de femmes en train d'allaiter, séparer les photos éducatives montrant du sang menstruel des photos d'atrocités de guerre… pour le moment, seuls les humains savent faire ça.

« Les modérateurs ont besoin de davantage de soutien – comme de la prévention anti-stress post-traumatique – et peu d'entreprises leur fournissent ce genre de services. »

Même si Facebook a raison d'investir dans le domaine de l'intelligence artificielle afin de rendre la modération de contenu plus tolérable à ses employés, il n'a jamais été transparent sur les conditions de travail et la charge psychologique liées au job.

Un porte-parole de Facebook a admis que c'était un boulot difficile, et que l'entreprise proposait un soutien psychologique à tous les employés qui le demandaient afin de garantir leur bien-être. Il a assuré que ces services étaient également proposés aux prestataires.

Pourtant, on est en droit de douter de ces affirmations dans la mesure où Facebook est resté extrêmement vague à leur sujet : on ne sait pas quelles ressources sont consacrées à organiser ce fameux soutien psy, et si des employés en ont déjà tiré de réels bénéfices. Dans le même temps, même si l'entreprise n'a été que trop heureuse d'effectuer des expériences psychologiques sur ses utilisateurs, elle n'a jamais publié de papier de recherche sur les risques psychologiques liés au poste de modérateur. Or, on imagine bien que faire défiler chaque jour le pire de ce que l'humanité a à offrir a probablement des effets néfastes sur la santé mentale.

« Les modérateurs ont besoin de davantage de soutien – comme de la prévention anti-stress post-traumatique – et peu d'entreprises leur fournissent ce genre de services », ajoute Lo. « Facebook doit être plus transparent sur les conditions de travail des modérateurs, qui correspondent généralement à une catégorie de travailleurs précaires corvéables à merci. C'est vraiment le boulot le plus traumatisant du monde. »