FYI.

This story is over 5 years old.

Tecnologia

Perché Facebook ha giocato con le nostre emozioni senza dirci nulla

Lo studio “segreto” del social network per manipolare i nostri sentimenti ci ha messo di cattivo umore solo perché abbiamo intuito di essere degli sprovveduti. Dopotutto, il permesso glielo abbiamo dato noi.
Immagine: Manuel Bahamondez/Flickr

Mettiamo subito le mani avanti: la parte peggiore di tutta questa storia dello studio di Facebook sul “contagio emotivo” degli utenti—come si legge sullo studio pubblicato su PNAS—sono gli utenti. Nessuno può dire con certezza di essere una delle 689.003 persone sottoposte all'esperimento che, tra l'11 e il 18 gennaio 2012, ha alterato in segreto i contenuti di News Feed, ma è come se la cosa ci avesse violati tutti.

Be', non è così. In questo caso, sentirsi vittime serve solo a fare la figura degli sprovveduti. Se state scrivendo qualche post acido del tipo “il grande fratello ci osserva” o “tenete lontane le mani dai miei sentimenti”, fermatevi e respirate. Primo: vi state sfogando su Facebook per parlare male di Facebook. Secondo: il contagio emotivo descritto dallo studio è abbastanza insignificante. Bene, prendete un altro respiro e togliete le mani dalla tastiera.

Pubblicità

Il polverone sullo studio di Facebook è stato sollevato soprattutto dai media: Slate lo ha definito un “esperimento senza etica” mentre The Atlantic ha affrontato la vicenda in modo più freddo e distaccato, ma ha avuto anche il merito di riportare dei tweet meravigliosi come “Cancellati da Facebook. Fai cancellare la tua famiglia da Facebook. Se ci lavori, licenziati. Sono dei fottuti mostri.” Ok, ma è successo davvero qualcosa di così orribile? Direi di no.

Come si legge su PNAS, gli utenti selezionati—tutti con l'account in lingua inglese—sono stati divisi in due gruppi nei quali i post di amici dotati di contenuti emotivi destinati al News Feed di ogni utente avevano tra il 10 e il 90 percento di possibilità di essere nascosti in un determinato aggiornamento della pagina. Nel primo caso erano inibiti i post positivi, mentre nel secondo quelli negativi. Ovviamente, per ciascuno dei gruppi c'era un campione di controllo neutro.

Detta così sembra facile, ma non lo è affatto. Innanzitutto, il metodo per valutare automaticamente la natura positiva o negativa dei post non era chissà quale roba da fantascienza: si trattava del Linguistic Inquiry and Word Count (LIWC2007), un software che analizza il contenuto di un testo e fornisce un'indicazione del suo contenuto emotivo. Potete smanettare su una demo online e rendervi immediatamente conto che alcune sfumature della lingua inglese possono essere fraintese molto facilmente (es. una frase come “I am not having a great day” viene percepita come positiva).

Pubblicità

Lasciamo perdere e tiriamo le somme: contenute nei tre milioni di post analizzati c'erano ben 122 milioni di parole, quattro milioni delle quali (3,6 percento) avevano una valenza positiva, mentre solo 1,8 milioni (1,6 percento) erano negative. In seguito al contagio emotivo scatenato da Facebook, il comportamento degli utenti è cambiato solo in misura minima. Quindi, a patto che la natura contagio emotivo del social network sia attendibile, gli effetti non sono poi chissà che cosa. Bene, ma allora perché è scoppiato un macello?

Media del numero di parole di connotazione positiva (sopra) e negativa (sotto) espresse in percenturale e generate dagli utenti per ogni diversa condizione. Gli intervalli in nero rappresentano l'errore standard. Immagine: PNAS

A parte le argomentazioni del The Atlantic, un barlume di lucidità ha lampeggiato sulle pagine di Science-Based Medicine. Il succo del discorso è questo: PNAS è una rivista con una dignità da difendere, ma avrebbe accettato senza battere ciglio lo studio sul contagio emotivo senza valutare il rispetto degli standard etici. O meglio, non si capisce bene se i due ricercatori universitari che hanno collaborato allo studio si siano assicurati di rispettare le procedure accademiche sulla presa visione del consenso informato da parte degli utenti.

Per una università si tratta di roba seria, ma per Facebook è come una brezza leggera nella tempesta quotidiana. Il motivo è semplice: il social network di Zuckerberg non ha bisogno di richiedere un consenso informato vecchio stile—testi lunghi e articolati che ti spiegano fino nei minimi dettagli cosa potrebbe succedere durante lo studio—perché dice di avercelo già. Solo che si tratta di una versione molto, diciamo, ristretta.

Pubblicità

In particolare, i termini di servizio (ToS) di Facebook dicono che l'azienda può utilizzare liberamente i dati degli utenti “per le operazioni interne, fra cui la risoluzione dei problemi, l'analisi dei dati, i test, la ricerca e il miglioramento del servizio.” Ecco, forse due righe così vaghe non sono esattamente una forma di consenso informato, ma tanto ormai è fatta. Abbiamo capito che la colpa è solo nostra.

Il nostro primo errore è quello di pensare che il nostro profilo online abbia un qualche valore. Forse ne ha uno emotivo, per noi e per i nostri amici, ma per Facebook è solo un ammasso di dati generati da un utente. Presi uno a uno, i nostri profili hanno un valore infimo, ma se li si moltiplica per circa un miliardo di utenti allora si ottengono numeri interessanti. In pratica, il social network diventa una miniera di informazioni su vasta scala. Cioè, parafrasando il Marchese del Grillo, vuol dire che presi singolarmente non contiamo un cazzo.

Immagine: Frerk Meyer/Flickr

Certo, ognuno ha comunque le sue preferenze. C'è chi va matto per le foto dei gattini, chi per i video di incidenti domestici e chi per le teorie del complotto. L'unica cosa che ci accomuna tutti su Facebook è che, accecati dalla compulsione a cliccare foto di animali vestiti da manovratori di gru, tendiamo ad accettare i ToS senza farci troppe domande, e senza neppure leggere cosa c'è scritto. Potremmo chiamarla una forma di consenso (dis)informato, in perfetto stile da volantino del liceo [con il suffisso negativo tra (parantesi)].

Quando alcuni utenti infuriati all'idea di essere caduti vittime del contagio emozionale hanno chiesto “perché?” a Adam Kramer, data scientist di Facebook e coautore dello studio, lui ha risposto così: “L'obiettivo di tutte le nostre ricerche qui a Facebook è quello di fornire un servizio migliore.” Tradotto in linguaggio comune, significa che l'azienda sta solo cercando di massimizzare la permanenza degli utenti sul sito. L'idea è che se farcisci il News Feed con notizie succose che interessano agli utenti, è molto più probabile che questi si trattengano a consumarle. Ancora meglio se riesci a capire come condizionare i comportamenti degli utenti grazie a un dosaggio giusto di notizie buone e cattive.

In certi casi, non c'è niente di male nel forzare le scelte a disposizione degli utenti—anche le carte fedeltà del supermercato, in un certo senso, ci condizionano, ma nessuno si è mai sentito veramente violato nel proprio intimo dalle offerte del 3x2 che ci arrivano via SMS. Sembra che per Facebook le cose debbano essere diverse, ma non è così. Anche Facebook è un'azienda, proprio come tutte le altre. L'unica differenza riguarda la quantità di informazioni riposta nelle mani del social network.

Guardando al futuro, gli esperimenti di “contagio” inaugurati da Facebook potrebbero avere diversi tipi di ripercussioni sulla nostra vita. Nell'immediato, la facilità con cui il social network mette enormi moli di dati a disposizione di ricercatori pubblici e privati potrebbe intaccare i principi etici che hanno salvaguardato le cavie volontarie. Non che i moduli di consenso informato siano sempre perfetti. Spesso ci sfugge il fatto che potremmo finire nel gruppo di controllo, quello che si becca il placebo e non sa di essere “ingannato,” o ci ritroviamo addirittura a pensare che i trial clinici siano terapie sperimentali ideate per farci stare bene. Be', nel mondo reale non è così.

Nel lungo periodo, l'idea che un social network possa alterare le nostre emozioni, ricorda molto il romanzo di fantascienza Ma gli androidi sognano pecore elettriche? di Philip K. Dick. Se avete letto il libro, dovete per forza ricordarvi il modulatore d'umore Penfield, un dispositivo che fa mutare lo stato d'animo delle persone attraverso dei programmi numerati. Un po' come scegliere il livello di affaticamento sul tapis roulant della palestra, solo che qui il ventaglio di scelte copre dal sentirsi euforici all'essere attanagliati da una merdosissima depressione.

Morale della favola, il futuro può essere un posto meraviglioso, ma può anche diventare un inferno.