FYI.

This story is over 5 years old.

Tech

Facebook nous isole de plus en plus des opinions différentes des nôtres

Nous avons pris l'habitude de passer par Facebook pour nous informer, et cela pose un énorme problème.

Si vous lisez cet article, vous pouvez considérer que vous avez de la chance. Surtout si vous faites partie de la large majorité d'internautes qui utilisent les réseaux sociaux afin de s'informer (c'est le cas de 62% des Américains par exemple, selon PewResearch), et ne lit jamais d'articles sans avoir préalablement cliqué sur un post Facebook.

Facebook a annoncé cette semaine qu'il allait, une nouvelle fois, modifier l'algorithme qui détermine ce que chaque utilisateur voit apparaître sur sa timeline. « Facebook a été conçu pour connecter les gens avec leurs amis et leur famille avant toute chose, » explique Lars Backstrom, ingénieur en chef chez Facebook. « Notre priorité est de vous garder en contact avec les personnes, les lieux et les choses pour lesquels vous avez un intérêt, et en particulier, avec vos proches. C'est pour cette raison que le fil d'actualités Facebook va changer afin de s'assurer que vous ne manquerez jamais les posts de vos amis les plus proches. »

Publicité

Cette annonce a-t-elle, au fond, une quelconque importance ? Eh bien oui.

Les changements annoncés vont avoir un impact sur l'une des traits les plus importants de Facebook en termes marketing, et qui font tout son intérêt pour les médias : la portée, ou reach, c'est-à-dire la proportion d'une population-cible effectivement exposée à une publication sur le réseau social. Le reach permet donc de déterminer combien de personnes ont vu tel ou tel post d'un utilisateur, d'une marque, d'une organisation, d'un média, etc.

De pire en pire

Parce que Facebook ne vous montre pas l'intégralité des posts des pages et comptes auxquels vous êtes abonné, mais seulement une portion congrue soigneusement sélectionnée, vous utilisez le réseau social au travers d'une sorte de filtre qui vous expose à certains types de publications (susceptibles de vous plaire), et pas à d'autres (susceptibles de vous déplaire). On appelle cela le phénomène de chambre d'écho, ou « bulle de filtres. »

En effet, les réseaux sociaux qui utilisent des algorithmes pour définir quelles actualités sont les plus pertinentes pour leurs utilisateurs ont tendance à leur fournir du contenu qui correspond à leurs intérêts et à leurs opinions.

Prenons le cas Brexit, par exemple, c'est-à-dire le référendum qui a déterminé la sortie du Royaume-Uni de l'Union Européenne.

Un utilisateur Facebook en faveur du « Remain » explique qu'il a eu beaucoup de mal à trouver des posts exposant des arguments contraires à sa position. Puis le jour où le « Leave » a gagné, il a tenté de trouver des posts célébrant la situation… sans succès.

Publicité

Facebook est devenue une gigantesque chambre d'écho qui nous isole des personnes et des points de vue qui pourraient nous amener à nous remettre en question.

Il ne s'agit pas uniquement du fil d'actualités : la fonction recherche de Facebook, elle aussi, montre les mêmes biais de sélection. Ce n'était pas qu'il était impossible de trouver des posts Facebook se réjouissant du « Leave », mais simplement que Facebook avait identifié notre homme comme étant un partisan du « Remain, » point barre.

An appeal to everyone I know who works at Twitter, Facebook, Google etc, and for the people who influence them Tom Steinberg24 juin 2016

Ce ne sont pas uniquement les opinions exprimées dans les posts qui sont concernées par ce filtrage, mais également leur source. L'intérêt de Facebook en cette matière est double : d'une part, il souhaite obtenir le plus d'argent possible des entités éditrices en leur promettant une plus grande exposition, d'autre part, il souhaite multiplier les interactions des utilisateurs au maximum.

Cela affecte principalement le contenu publié sur les fameuses « pages » Facebook. Les propriétaires de ces pages ont de plus en plus de mal à atteindre une audience suffisante. Ils n'ont alors qu'une faible marge de manœuvre à leur disposition : payer Facebook pour qu'il augmente l'exposition de leurs posts, ou créer un contenu formaté dans le but d'être partagé en masse. « Si une grande partie de votre trafic de référence est constitué par des personnes partageant votre contenu, tandis que leurs amis le likent et le commencent, votre publication aura moins d'impact que dans le cas où la majorité du trafic vient directement de la page, » explique Backstrom.

Publicité

Voici comment Facebook ce qu'il montrera aux utilisateurs.Image via TechCrunch

Cette dynamique conduit directement à la fameuse bulle de filtres. Facebook est devenue une gigantesque chambre d'écho qui renforce nos opinions et nous isole des personnes et des points de vue qui pourraient nous amener à nous remettre en question.

Informer sur ce phénomène

Certes, les médias que nous lisons régulièrement engendrent déjà un biais de sélection en termes de point de vues, d'opinions, de convictions politiques. Mais là, le phénomène est plus grave. Si le public continue d'utiliser les réseaux sociaux comme porte d'entrée de plus en plus exclusive vers l'actualité, il se trouvera prisonnier consentant d'une bulle informationnelle totalement incompatible avec la réflexion critique et la prise de distance.

Facebook affirme que ces changements algorithmiques permettront de mettre l'accent sur des messages à valeur « informative. » Mais de quel type d'information s'agit-il ici ? D'une information à sens unique, ou d'une information aux multiples facettes ? Pouvez-vous imaginer un marchand de journaux qui vous empêcherait de regarder les journaux de droite si vous êtes de gauche, et vice-versa ?

D'une certaine façon, nous devrions peut-être concevoir les réseaux sociaux comme de véritables services sociaux, c'est-à-dire un bien public, et pas simplement un divertissement conçu par une multinationale. Le récent scandale sur le service « Now Trending » de Facebook, qui était bien plus biaisée par des curateurs humains que ce que la société a bien voulu laisser entendre, et qui a amorcé une réflexion chez de nombreux utilisateurs de Facebook.

Nous commençons tout juste à saisir les conséquences des changements de comportement des personnes en ce qui concerne l'information, et les implications du rôle de Facebook par rapport aux médias. Il faudra encore un peu de temps avant d'en comprendre tous les mécanismes. Mais pour commencer, nous devons garder à l'esprit que la chambre d'écho existe bel et bien, et qu'elle influence nos opinions.

Cet article a précédemment été publié sur Motherboard Italia.