FYI.

This story is over 5 years old.

Tech

Des vidéos de l'État islamique restent sur YouTube pendant des semaines

En analysant plus de 150 vidéos partagées au sein de groupes pro-État islamique, Motherboard a découvert que les mesures de YouTube concernant les contenus extrémistes souffraient de graves carences.

Étendu sur le sol entre un grand bureau de bois et un fichier à tiroirs, un homme gît, immobile. Du sang s'écoule de son torse. Une homme armé, peut-être son assassin, passe devant le corps.

Ces images saisissantes apparaissent dans une vidéo enregistrée et diffusée par les terroristes de l'État islamique pendant leur attentat contre le parlement iranien à Téhéran, le 7 juin dernier. Les partisans de l'organisation islamiste les ont vites disséminées sur les réseaux sociaux. YouTube, sur lequel de nombreuses copies de l'enregistrement ont été uploadées, s'est immédiatement employé à les supprimer. Certaines d'entre elles ont disparu en moins de 24 heures. Au moins une, cependant, est restée en ligne et accessible à tout un chacun pendant plus d'une semaine.

Publicité

L'enregistrement de l'attaque de Téhéran fait partie d'une analyse menée par Motherboard sur plus de 150 vidéos YouTube partagées récemment par les partisans de l'État islamique. Notre travail a montré que le site d'hébergement réagissait aux contenus extrémistes de manière erratique et souvent inefficace, malgré une relative rapidité.

Ces limites posent une question gênante : YouTube déploie-t-il assez d'efforts pour empêcher la prolifération de vidéos pro-État islamique ? Ses responsables semblent reconnaître qu'il y a un problème. Dimanche 18 juin, la plate-forme a annoncé quatre nouvelles mesures de lutte contre le contenu extrémiste.

Motherboard a surveillé un total de 164 URLs YouTube uniques, toutes partagées sur des canaux médiatiques acquis à la cause de l'État islamique, relevé le contenu des vidéos et surveillé combien de temps elles restaient en ligne avant d'être ciblées par la plate-forme d'hébergement, qu'il s'agisse d'une suppression ou d'autres mesures. Notre analyse a permis de déterminer que :

  • Une vidéo contenant un enregistrement d'un dignitaire de l'État islamique exhortant au passage à l'acte pendant le Ramadan est toujours en ligne, une semaine après avoir été uploadée.
  • Plusieurs enregistrements captés sur le champ de bataille et affiliés à Amaq, l'agence de presse de facto de l'État islamique, sont toujours en ligne deux semaines après avoir été uploadés.
  • Une vidéo macabre de l'attaque du parlement de Téhéran est restée en ligne pendant neuf jours.

Publicité

Ces résultats interviennent alors que le gouvernement britannique exhorte les sites sociaux, notamment YouTube, à agir plus efficacement contre les contenus extrémistes qui circulent sur leurs réseaux sous peine d'amende.

"Ces vidéos, qui peuvent contenir des images choquantes ou des appels à la violence contre l'Occident, restent parfois en ligne pendant des mois" a affirmé Rita Katz, la directrice et co-fondatrice de l'entreprise d'analyse antiterroriste SITE Intelligence Groupe, au cours d'un entretien avec Motherboard.

Heures, jours, semaines

Pendant deux semaines, Motherboard a surveillé des salons de discussion sur Telegram, une application mi-réseau social, mi-service de messagerie particulièrement populaire auprès des supporters de l'État islamique. Certains d'entre eux étaient utilisés pour diffuser du contenu estampillé Amaq, d'autres étaient gérés par organes de propagande extrémiste comme Nashir. Ils servaient également de repère à une horde de comptes manifestement acquis à l'organisation terroriste. Ces derniers partageaient de nombreuses vidéos mettant en scène les combattants de l'EI, notamment dans les rues de Malawi, aux Philippines, ou occupés à détruire des sites religieux chrétiens. D'autres images donnaient des instructions pour bien réussir son attentat au couteau ou à la voiture-bélier. Plusieurs vidéos de propagande d'environ une demi-heure étaient également disponibles.

Nous devons souligner le fait que YouTube a supprimé la grande majorité des vidéos analysées par Motherboard. Cependant, bon nombre d'entre elles sont restées accessibles pendant des heures, des jours, voire plus. Sur l'ensemble des contenus supprimés par la plate-forme, 50% l'ont été en moins de 24 heures. L'autre moitié est restée en ligne entre deux et 15 jours.

Publicité

Le SITE est habitué à surveiller ce genre de contenus. "Nous avons remarqué que les vidéos officielles de l'État islamique sont souvent supprimées de YouTube plus rapidement, parfois même instantanément, a expliqué Katz. Les vidéos partagées par l'agence de presse Amaq, cependant, survivent beaucoup plus longtemps. Idem pour les groupes pro-EI."

"Ces vidéos, qui peuvent contenir des images choquantes ou des appels à la violence contre l'Occident, restent parfois en ligne pendant des mois."

Après leur disparition, ces vidéos ont été remplacées par un grand nombre de messages différents. La plupart du temps, il est indiqué qu'elles ont "violé les termes d'utilisation de YouTube". Dans des cas minoritaires, quelques mots signalent qu'elles ont été supprimées pour violation des règles du site concernant les contenus violents. YouTube a également supprimé des comptes entiers, uploads compris.

Dans certains cas, YouTube a décidé de ne pas supprimer complètement la vidéo mais de la cacher derrière un avertissement. Les internautes qui souhaitent accéder à ces contenus doivent confirmer qu'ils cherchent bien à voir des images éventuellement "inappropriées". Des disclaimers de ce type ont été placés sur des vidéos qui affirment montrer le bombardement au phosphore blanc de la ville syrienne de Raqqa par les avions de la coalition anti-EI.

Comment l'État islamique contourne la censure de YouTube

Les quelque 150 vidéos suivies par Motherboard dévoilent les différentes méthodes qu'emploient les partisans de l'État islamique pour tromper la censure sur YouTube.

La semaine dernière, par exemple, plusieurs chaînes de discussion Telegram ont diffusé simultanément un grand nombre de vidéos. Toutes comportaient les mêmes éléments : une image fixe d'un texte en arabe et un enregistrement audio, vraisemblablement du porte-parole officiel de l'EI, Abi al-Hassan al-Mouhadjer, qui exhortait les partisans de l'organisation à commettre plus d'attaques pendant le mois sacré du Ramadan. L'analyse de Motherboard montre que YouTube est vite venu à bout de la plupart de ces vidéos.

Publicité

Malheureusement, le système de modération de la plate-forme a été trompé à plusieurs reprises par de petites anomalies, notamment quand la couleur de la bordure du texte en arabe était différente. Une vidéo ne proposant que l'enregistrement audio sur fond noir est également parvenue à déjouer la censure. Au moment de l'écriture de cet article, cette dernière était encore en ligne.

La vidéo sur fond noir était également non-répertoriée, ce qui signifie qu'elle n'est accessible que depuis un lien direct ; impossible de la découvrir depuis la fonction recherche de YouTube. Les experts affirment que les uploaders utilisent cette technique pour éviter la censure. Certains vidéos contenaient également des extraits de contenus déjà supprimés par YouTube, ce qui leur permettait de subsister plus longtemps.

YouTube est également venu à bout de la plupart des vidéos de l'attaque de Téhéran en moins de 24 heures. L'une d'entre elles, cependant, a bravé la suppression pendant 9 jours : elle contenait les images de l'attentat, mais pas leur bande-son.

"Ils sont très malins quand il s'agit de s'adapter", a indiqué Steve Stalinsky, le directeur exécutif du groupe de recherche MEMRI, lors d'une interview téléphonique avec Motherboard.

"Les supporters de l'EI re-uploadent régulièrement des vidéos déjà supprimées de YouTube et diffusent les nouveaux liens peu de temps après."

Il semble que le simple fait de supprimer la partie audio d'un upload suffise à tromper le système d'identification des vidéos déjà signalées de YouTube. La plate-forme reconnaît les contenus à l'aide de leur "hash", une empreinte cryptographique unique. C'est elle qui lui permet de trouver les clones d'une vidéo déjà supprimée. Cependant, il suffit d'une légère modification du contenu pour changer un hash. Les partisans de l'État islamique ont connaissance de cette faille, qu'ils exploitent dans le but de tromper les algorithmes de YouTube.

Publicité

YouTube dispose également d'une fonction qui permet aux internautes ordinaires de signaler une vidéo pour "Promotion du terrorisme". Si un upload reçoit ce badge, il est envoyé dans une file d'attente spéciale avant d'être examiné par une équipe de modérateurs humains.

MEMRI a étudié l'efficacité de ce mécanisme lorsqu'il est appliqué à des vidéos de promotion du djihad armé qui, d'après Salinsky, sont susceptibles d'inspirer des terroristes potentiels. Le groupe de recherche a découvert que 60% des clips signalés en 2015 étaient toujours en ligne la semaine dernière.

Le chercheur indépendant Raphael Gluck a également fait part de son expérience avec le système de signalement à Motherboard.

"Dans certains cas, j'ai signalé des vidéos dont l'URL n'a jamais été supprimée", a-t-il affirmé. Lundi 19 juin, au moment de l'écriture de cet article, Gluck nous a indiqué les emplacements de plusieurs vidéos en ligne depuis une semaine. L'une d'entre elle représente les terroristes du parlement iranien pendant l'attentat. Le nom de la chaîne qui les héberge est "Islamic state", tout simplement.

Il convient de rappeler que la perception de ce qu'est un "contenu extrémiste" varie d'une organisation à l'autre. Certaines vidéos, notamment les images de combats, peuvent être considérées comme porteuses d'informations utiles au public, aux chercheurs et aux journalistes. YouTube dispose d'ailleurs d'une équipe de "Trusted Flaggers" qui collabore avec des ONG et des experts pour signaler plus judicieusement les vidéos qui devraient disparaître.

Publicité

"Quand les canaux officiels de l'État islamique diffusent une nouvelle vidéo, le contenu uploadé sur YouTube depuis leurs liens est suspendu presque immédiatement, explique Jade Parker, un associé de recherche senior du groupe The Terror Asymmetrics Project on Strategy, Tactics & Radical Ideology (TAPSTRI). Cependant, les supporters de l'EI re-uploadent régulièrement des vidéos déjà supprimées de YouTube et diffusent les nouveaux liens peu de temps après." Il ajoute : "Comme ces liens ne circulent pas sur les canaux officiels, les vidéos sont exposées à un plus petit nombre d'individus, et donc à un risque de signalement moindre. Cela permet aux contenus incriminés de rester en ligne plus longtemps."

YouTube renforce son arsenal

Bien que les mécanismes de défense de YouTube ne soient manifestement pas toujours au point, Stalinsky considère que l'entreprise a fait des progrès.

"Si vous vous souvenez de la situation il y a deux ans, vous savez que c'est beaucoup mieux maintenant", a-t-il affirmé. Le directeur exécutif du MEMRI a déjà rencontré les responsables de YouTube pour évoquer le problème. A l'en croire, ils se sont d'abord montrés "hostiles" pendant leurs réunions. Peu ouverts aux suggestions, ils souhaitaient se concentrer sur la suppression de vidéos individuelles plutôt que de comptes entiers.

Dimanche 18 juin, YouTube a annoncé que ses méthodes actuelles allaient être améliorées et doublées d'un nouveau système d'identification du contenu offensant basé sur le machine learning. Nous pensons que ce dispositif va procéder à un scan automatique des vidéos pour identifier de potentielles similarités avec des contenus déjà signalés. Les uploads concernés seront marqués comme potentiellement extrémistes et analysées par un modérateur humain.

Approché par Motherboard pour une demande de commentaire, le porte-parole de YouTube nous a renvoyé vers le communiqué de l'entreprise.

"Bien que nous ayons travaillé pendant des années pour identifier et supprimer le contenu qui contrevient à nos règles, la dure réalité est qu'il reste beaucoup reste à faire, et maintenant, a écrit Kent Walker, le vice-président et avocat général de Google. Notre industrie doit l'accepter."