FYI.

This story is over 5 years old.

Tecnologia

Perché la 'filter bubble' è la metafora più stupida di internet

Buone notizie: una serie di studi dimostrano che la nostra vita online non è intrappolata in una bolla. Ma non illudiamoci.
Die Filterblase im Tagesschau-Format "Kurz erklärt" | Bild: Screenshot | YouTube | Tagesschau

Siamo tutti intrappolati nella bolla: Facebook ci mostra soltanto cosa succede nella nostra cerchia, Google filtra i risultati di ricerca in base alle nostre preferenze, su Twitter possiamo semplicemente smettere di seguire, se qualcuno ha delle opinioni che non ci piacciono. Questo è il mito della filter bubble, che radicalizza gli individui e spacca la società, che ha reso possibile Donald Trump e la Brexit. Ma questo mito è prima di tutto una cosa: un grosso malinteso.

Pubblicità

Il primo a parlare di filter bubble è stato l'attivista e imprenditore Eli Pariser nel 2011. L'aveva definita un 'universo di informazioni' fatto di algoritmi che mostrano una realtà diversa a ciascuno. Gli utenti non si accorgerebbero di essere all'interno di una bolla, "la filter bubble è una forza centrifuga, che ci risucchia", scrive Pariser.

I grandi media hanno preso questa immagine e l'hanno sovradimensionata. "Le filter bubble compromettono la democrazia" riecheggia nei programmi televisivi. Da ciò derivano concetti di ribellione rispetto a questo pericolo: "Fuori dalla filter bubble!"

Mario Sixtus in der Filterblase beim ZDF

Mario Sixtus, presentatore tedesco, in un documentario per la ZDF | Immagine: Screenshot | ZDF.de

Anni dopo, lo stesso Eli Pariser, in un'intervista con Wired, ha detto che dopo l'elezione di Donald Trump alcuni "sarebbero andati troppo lontani nell'uso di questo concetto". Infatti è una parola che ha avuto le definizioni più sbagliate. Scienziati e giornalisti si possono consolare: la maggior parte delle informazioni che abbiamo usato per descrivere la filter bubble non hanno un vero riscontro nella realtà.

Primo malinteso: la filter bubble dipende dagli algoritmi

A un primo sguardo c'è qualcosa di vero. I risultati algoritmici rafforzano l'interesse degli utenti e li portano in determinate direzioni. YouTube consiglia video in base a quelli visualizzati in precedenza, Amazon propone prodotti in linea con quelli acquistati, Google personalizza i risultati di ricerca, Facebook mostra solo i contenuti degli amici con cui si ha più spesso a che fare.

Ma i risultati non portano a una bolla, al contrario: gli algoritmi mettono gli utenti davanti a cose che non li riguardano così da vicino. Questo è il risultato di uno studio dell'Università del Michigan. Nel 2015, in collaborazione con Facebook, il team di ricerca ha infatti analizzato il rapporto di dieci milioni di utenti con le news proposte dal social network. Risultato: mediamente, gli utenti guardavano news che non corrispondevano al loro orientamento politico — ci cliccavano per leggerle. Questo significa che le persone si informano come vogliono, non solo in base al news feed.

Pubblicità
Filterblase bei ARD Alpha

Rappresentazione colorata della filter bubble. Immagine: Screenshot | YouTube | ARD Alpha

Qualcosa di simile ha riscontrato anche il giornalista di dati Michael Kreil analizzando gli utenti twitter tedeschi. Ha dimostrato che la diffusione di fake news xenofobe viene facilmente individuata. Chi condivide certe notizie non lo fa perché ci crede. Il problema quindi non è tanto l'accessibilità alle notizie, ma la possibilità concreta che gli utenti ci credano.

Anche i risultati di Google personalizzati non possono essere definiti una bolla. Sempre in Germania, in occasione delle elezioni, i ricercatori dell'università Karlsruhe hanno provato quanto le notizie cambiassero da un utente all'altro. Le notizie di destra erano solo per gli utenti di destra? No. Secondo i ricercatori, "i risultati riguardanti i politici più importanti erano per tutti molto simili". Di nove, sette-otto erano identici.

Secondo malinteso: la filter bubble favorisce i cambiamenti di opinione

Questa cosa è falsa. Nella ricerca sulla filter bubble del 2013, i ricercatori dell'università di Oxford hanno osservato il modo in cui 50.000 americani leggono le notizie. Sorprendentemente, hanno visto che le fonti più pluraliste, con opinioni politiche differenti, sono proprio i social media. Da una filter bubble ci si sarebbe aspettati esattamente il contrario.

Inoltre, la "stragrande maggioranza" del consumo di notizie non arriverebbe dai social ma dai classici portali. Gli statunitensi preferiscono i media mainstream come il New York Times e Fox News a cui accedono da browser. Queste pagine non vengono scelte da algoritmi ma da persone.

Pubblicità
Die Filterblase beim WDR

Ovviamente nella bolla ci possiamo portare pure l'iPad | Immagine: Screenshot | YouTube | ARD

Chi vive nella paura che le persone possano restare ferme alla loro bolla può stare tranquillo: quasi per nessuno Facebook è la fonte principale di notizie, come vorrebbe invece il mito della filter bubble. Facebook non avrebbe isolato gli utenti al suo interno, anzi contrario: la percentuale di persone che in Italia nominano i social e le app di messaggistica come fonte più importante di informazioni è molto bassa, come riportato nel Digital News Report 2017 di Reuters.

Terzo malinteso: a ciascuno la sua filter bubble

Anche questo viene spesso ripetuto. I data journalist del Süddeutschen Zeitung, per esempio, hanno monitorato i like degli utenti tedeschi che si interessano di politica per sei mesi nel periodo delle elezioni. Il risultato lapidario è: "c'è una certa densità nel centrosinistra, e poi l'Alternativa per la Germania (AfD)". La ricerca sui like forma un ammasso enorme intorno ai partiti principali. "Una solida filter bubble nel panorama politico del Facebook tedesco non c'è." Ci sono solo degli effetti di rafforzamento della comunità, dicono i ricercatori. Tutto fa pensare al fatto che i social media non intrappolino davvero i propri utenti.

Twitter-Datenanalyse auf der Suche nach der Filterblase

Ogni punto rappresenta un account Twitter. Quelli più grandi hanno più follower, i più grandi sono outlet di news. Gli aggregatori di fake news sono rossi, gli altri blu. Gli account contrapposti sono legati e collocati vicini | Immagine: Michael Kreil

Quarto malinteso: la filter bubble facilita la radicalizzazione

In alcuni casi è vero, estremizza. I social media possono rafforzare gli utenti radicali. Ma le filter bubble non sono la causa della radicalizzazione. Negli scorsi anni se n'è avuta testimonianza: soprattutto i gruppi piccoli ma molto attivi hanno massimizzato la loro forza in questo contesto, organizzando proteste in rete e dimostrazioni per strada.

Molti ricercatori, per esempio, hanno notato come il movimento xenofobo Pegida non sarebbe diventato così grande se non ci fosse stata la possibilità di formare una rete. Nello specifico, questo gruppo filo-nazista è nato nel 2014 da un gruppo Facebook.

Pubblicità
Phil Laude in der Filterblase für ein YouTube-Video

L'immagine della gente dentro le bolle ormai è cultura popolare – qui un video musicale dello youtuber Phil Laude | Immagine: Screenshot | YouTube | Phil Laude

Gli utenti radicali portano in rete anche denigrazione, odio e litigi, e lo fanno in maniera eccellente. Il problema fondamentale non è tanto il concetto algoritmico di "filter" e una presunta "bubble", ma le persone che diffondono odio e sfiducia. Le filter bubble non impediscono loro di avere a che fare con altre fonti. Se mandano messaggi che non stanno bene agli utenti, semplicemente non ci credono. Si tratta prima di tutto di un problema sociale.

Dietro la filter bubble si nasconde l'opinione pubblica

L'espressione filter bubble descrive il dubbio tentativo di rendere i tecnici consapevoli e responsabili di certi problemi. Chi parla di filter bubble vede la causa della radicalizzazione nell'algoritmo del newsfeed o nelle mostruose piattaforme online che deviano le opinioni dei loro utenti innocenti nei modi peggiori. Inoltre, a partire dalla parola in sé, c'è l'idea che la soluzione a questi problemi si possa trovare nella tecnica, per esempio con algoritmi migliori o leggi più severe per le piattaforme.

Ovviamente i social potrebbero e dovrebbero migliorare i loro algoritmi, limitare la propaganda, non sostenere campagne dubbie, tutelare gli utenti da odio e diffamazione. Ma i mezzi tecnici non possono limitare il fatto che gli utenti radicali si raggruppino, che vengano fuori crude teorie che poi prendono piede. Sui social le persone possono anche comportarsi in maniera impeccabile. Un gruppo Facebook è molto più pratico di qualsiasi email o incontro settimanale.

Concetto di filter bubble a parte, resta più che altro una cosa: l'opinione pubblica che c'è sempre stata ora si diffonde in canali come Facebook, YouTube e qualsiasi piattaforma che preveda dei commenti. In questa opinione pubblica, si alzano voci politiche che si rafforzano col tempo. Questa è una novità per la società civile, quando la favola della filter bubble svanirà, il dibattito potrà davvero iniziare.

Questo articolo è comparso originariamente su Motherboard DE.