Come internet sta privatizzando i diritti umani
Tutte le illustrazioni: Giacomo Carmagnola

FYI.

This story is over 5 years old.

Tecnologia

Come internet sta privatizzando i diritti umani

Ci iscriviamo a siti internet, lasciamo la nostra email personale o accediamo con i nostri account sui social network. Niente di più sbagliato.

È innegabile che il 2016 sia l'anno della privacy. L'esplosione si è verificata con l'inizio del caso Apple vs FBI, ovviamente, ma erano ormai anni che il mondo intero si stava preparando ad affrontare il tema.

La privacy è un argomento effimero: per anni siamo stati abituati a interfacciarci con essa attraverso lunghe norme sul 'trattamento dei dati personali' spesso illeggibili ai più—A partire dagli anni 2000 l'esplosione dell'era digitale ha trasfigurato lo scenario: se prima consentire a qualcuno di violare la nostra privacy richiedeva un processo burocratico concreto (una firma, una spunta, un foglio), oggi basta un click con cui si accettano i 'termini di servizio'.

Pubblicità

Lo facciamo ogni giorno: ci iscriviamo a siti internet, lasciamo il nostro indirizzo email personale o ancora peggio accediamo a svariate piattaforme mediante gli account sui social network che già possediamo. Questo atteggiamento non solo ha permesso a qualunque azienda di penetrare con estrema facilità nella nostra sfera personale, ma ha generato una rete di violazioni della privacy assurdamente estesa.

Pensate solamente a tutti i siti internet a cui vi siete iscritti, poi pensate ai servizi di raccolta dati a cui si rivolgono questi siti, infine provate a immaginare l'infrastruttura che tiene in piedi il mercato degli inserzionisti pubblicitari che appaiono su questi siti internet. La solita storia del "Ho cercato un paio di jeans su Amazon e ora le pubblicità sulla mia timeline Facebook sono tappezzate di pantaloni," no?

TRIANGOLARE IL MONDO

Si tratta di una mole incalcolabile di dati—Una cifra fuori dalle nostra capacità cognitive e che include letteralmente qualunque nostra manifestazione su internet: i dati GPS, i nostri 'mi piace' su Facebook, le parole che utilizziamo nei nostri messaggi, ma anche il modello dei nostri dispositivi, la qualità della nostra connessione a internet; tutto ciò che viene esplicitamente protetto dall'utente, viene sfruttato dalla piattaforma o dal servizio attraverso cui passa quel dato.

A livello di percezione pubblica, questa operazione ha ragione di esistere perché protetta, in un certo senso, da due paradigmi fondamentali della privacy 3.0: il primo è che l'utente continua ad allontanare ogni preoccupazione riguardante la protezione dei propri dati adducendo la scusa del "Io non ho nulla da nascondere," l'altra è che di solito, nei fatti, chiunque smerci questi dati non ha alcun interesse concreto a ricollegarli a un nominativo specifico.

Pubblicità

Cosa succederebbe se una qualsiasi autorità nazionale avesse accesso costante e incondizionato a tutte le nostre comunicazioni e manifestazioni su internet?

Invece, nella maggior parte dei casi, si tratta di una triangolazione di interessi e tendenze che faticano ad allocare benefici in senso più diretto sia da una parte che dall'altra della barricata: nonostante la ricerca di jeans su Amazon, è difficile che domani acquisti un paio di pantaloni attraverso le pubblicità che sono apparse su Facebook. Piuttosto, la ricerca del termine 'jeans' su Amazon diventa un bene di scambio estremamente prezioso per chi, magari, produce jeans: se la casa di moda X sapesse che nel 2015 le ricerche relative a quel termine sono aumentate del 30% forse la prossima collezione sarebbe più jeans del solito.

È in questa apparente leggerezza della violazione che si manifesta il tacito assenso che permette questi processi: quanto può influenzare la mia vita sapere che una grande casa di moda sa che per tutto il 2015 non ho fatto altro che voler indossare dei jeans? In effetti ben poco, ma sono le premesse scaturite da questa disinteressata omertà a permettere il perpetuarsi di violazioni ben più gravi—D'altronde, ci è voluta Apple per portare agli onori della cronaca la richiesta da parte dell'FBI della creazione di una vera e propria backdoor per qualunque iPhone esistente al mondo.

Cosa succederebbe se una qualsiasi autorità nazionale avesse accesso costante e incondizionato a tutte le nostre comunicazioni e manifestazioni su internet? Nel migliore dei casi la giustizia potrebbe, nel bene e nel male, azzerare i tempi di attesa per pratiche come i mandati di perquisizione o di intercettazione—Nel peggiore, uno stato che ha poco a cuore i diritti fondamentali dei propri cittadini potrebbe sfruttare ogni virgola comunicata da una determinata persona per inquadrarla all'interno di un contesto legale ben specifico. Nel mondo occidentale si tratta di un problema tutto sommato marginale, ma quali sono le conseguenze di una premessa del genere quando lo stato con cui il cittadino si interfaccia è di carattere non esattamente democratico?

Pubblicità

LA PRIVACY NON ESISTE

Le violazioni di privacy su internet esistono e si consumano ogni giorno, quindi la reazione più naturale ad una tendenza di questo tipo sarebbe quella di richiedere alle autorità nazionali di regolare le interazioni online per evitare che si consumino soprusi. C'è un problema, però: i principi di governance delle autorità nazionali non sono riusciti a stare al passo coi tempi di internet, e ora si ritrovano indietro.

Il buco logico è piuttosto banale: le autorità nazionali hanno da sempre esercitato il loro potere coercitivo nel rispetto di un contesto normativo e all'interno dei confini nazionali, regolando i rapporti nella società compatibilmente alle indicazioni fornite dalla legge. Prima, insomma, si trattava semplicemente di individuare un'anomalia e risolverla.

Giacomo Carmagnola

Oggi non è più così. Quella di internet è un'era trans-nazionale, in cui un social network con base, per esempio, negli Stati Uniti offre un servizio a cittadini di tutti i paesi del mondo. Per esempio, un abuso ai danni di un cittadino italiano non può essere perseguito come si faceva in precedenza, perché spesso e volentieri i contesti legislativi che regolano questo tipo di operazioni sono molteplici e rimbalzano prima dall'Italia, paese della vittima, poi, per esempio, verso la Francia, paese dell'imputato e infine negli Stati Uniti, paese del social network in cui si è consumato l'abuso. Come si fa giustizia in questi casi?

Pubblicità

Ovviamente, nel tempo si sono sviluppati dei modelli giuridici ben precisi: un caso recentissimo che ha coinvolto il Garante per la Privacy italiano ha visto l'autorità rivolgersi, nell'ambito di un abuso avvenuto su Facebook, prima alla sede italiana dell'azienda, che ha rimbalzato la questione legale alla sede irlandese, 'capoluogo' europeo di Facebook, e infine alla sede principale, negli Stati Uniti. Così facendo si ottiene una soluzione funzionante, ma lenta e macchinosa.

Si tratta di uno stallo che continua ormai da anni, e che è stato improvvisamente spezzato da una sentenza della Corte Europea dello scorso autunno che ha sospeso il proprio supporto al Safe Harbor, l'accordo tra Stati Uniti ed Europa che permetteva alle aziende americane di conservare i dati personali degli utenti europei. A febbraio è stato presentato un nuovo testo, il Privacy Shield, che in sostituzione al Safe Harbor regolerà questi rapporti con maggiori garanzie dell'assenza di misure di sorveglianza e di violazione della privacy per i dati dei cittadini europei.

IL PROBLEMA DELLE INFRASTRUTTURE

Ma può essere davvero così complicato legiferare su degli equilibri di forza a cui siamo già abituati, ma che si manifestano in un contesto virtuale anziché 'reale'? Sì, lo è, per un problema estremamente pratico: se nel mondo reale le autorità nazionali possono esercitare un potere coercitivo nei confronti degli spazi in cui avvengono questo tipo di violazioni—Se dal mio balcone continuo a spiare con il binocolo la vicina di casa che si cambia, prima o poi le autorità mureranno la mia finestra—Nel mondo virtuale le infrastrutture in cui questi dati e queste violazioni vivono sono, nei fatti, di proprietà delle aziende che compiono le violazioni.

Pubblicità

Come può un'autorità nazionale esercitare un potere coercitivo nei confronti di un'infrastruttura di carattere trans-nazionale e blindata da norme obsolete e incapaci di renderla vulnerabile ai procedimenti di giustizia? Semplicemente, non lo fa.

È una questione sia storica che sociale: nel mondo reale gran parte dei rapporti sono regolati da una stratificazione burocratica che, nella maggior parte dei paesi occidentali, parte da un'autorità nazionale che rilascia concessione a enti di volta in volta sempre più privati. Con internet questo processo non si è consumato: la tecnologia, nell'arco di pochissimi anni, si è manifestata nell'ambito di infrastrutture costruite e gestite direttamente da privati, che non si sono dovuti interfacciare con alcun tipo di contesto legislativo.

Oggi, con le autorità che cercano una soluzione a questo problema, legiferare in senso retro-attivo è decisamente più difficile. Come può un'autorità nazionale esercitare un potere coercitivo nei confronti di un'infrastruttura di carattere trans-nazionale e blindata da norme obsolete e incapaci di renderla vulnerabile ai procedimenti di giustizia? Semplicemente, non lo fa.

LA PRIVATIZZAZIONE DEI DIRITTI UMANI

Emily Taylor è un'esperta di privacy e internet governance—In passato membro della Commissione di Revisione dell'ICANN (Internet Corporation for Assigned Names and Numbers), e oggi membro della Global Commission on Internet Governance Research Advisory Network.

Pubblicità

The Privatization of Human Rights: Illusions of Consent, Automation and Neutrality è il nome del suo ultimo lavoro, pubblicato a gennaio 2016 per conto della Paper Series della Global Commission on Internet Governance—Il tema del paper è proprio questo: nell'era delle infrastrutture digitali, i diritti umani che si manifestano mediante questi dati stanno venendo di fatto privatizzati.

Questa tendenza piuttosto sinistra si consuma grazie, principalmente, a tre fattori che Taylor definisce 'Illusioni', oltre che ovviamente alla inconscia complcità delle istituzioni che spesso non hanno le competenze e l'interesse per configurare una normazione ben definita sull'argomento. Il paper, analizzato nell'ultimo numero di VICE Magazine, inquadra come principali concause l'illusione del Consenso, della Automazione e della Neutralità.

Per farla breve—per tutto il resto c'è l'embed qui sopra dell'articolo apparso sul cartaceo—, questi tre fattori che permettono il compiersi della privatizzazione totale dell'infrastruttura in cui si manifestano i dati hanno ragione di esistere grazie a una sorta di 'intorbidimento delle acque' perpetrato dalle aziende e dalle istituzioni. Nel marasma di lunghi termini di servizio, tecnicismi e interfacce che fanno di tutto pur di rendere la consapevolezza dell'utente un fattore ostico e superfluo, i cittadini accettano, formalmente, questo trattamento dei loro dati personali, ignorando in tutto e per tutto le conseguenze sul diritto umano fondamentale messo in discussione: la privacy.

Pubblicità

Ho parlato con lei delle questioni sollevate dal suo lavoro e degli ultimi eventi di attualità.

Motherboard: La privacy è un diritto umano fondamentale? Per quanto mi riguarda, spesso e volentieri si tratta di un argomento controverso da discutere con le altre persone. Comprendo la sua importanza, ma faccio fatica a spiegare alle persone perché dobbiamo concretamente combattere per la nostra privacy—Cosa dovremmo dire alle persone che sfruttano inconsciamente la scusa del "Io non ho nulla da nascondere?"

Emily Taylor: Sì, il diritto alla privacy è considerato come diritto umano fondamentale della Dichiarazione Universale dei Diritti Umani e dalla Convenzione europea per la salvaguardia dei diritti dell'uomo e delle libertà fondamentali. Non è un diritto assoluto—per esempio, ci sono delle possibilità di deroga in merito quando si verifica un'emergenza di carattere pubblica—ma ciò non significa che il diritto alla privacy sia triviale o meno importante. Questo tipo di deroghe dovrebbero essere delle eccezioni, non la regola, e dovrebbero svilupparsi a partire da motivi legittimi.

La scusa del "non c'è niente di cui preoccuparsi se non hai nulla da nascondere" è utilizzato spesso dai governi o dalle aziende per giustificare misure di sorveglianza o di trattamento dati, ma basta rifletterci un secondo per capire quanto superficiale sia questa affermazione.

Basta pensare al nostro comportamento quando siamo da soli rispetto a quando siamo con degli amici—Oppure con un consulente bancario, un esattore delle tasse o un membro della Chiesa. Spesso ci ritroviamo a non vedere l'ora che questi ospiti se ne vadano, per rimanere da soli—Perché? Così da poterci rilassare e essere davvero noi stessi senza dover indossare una maschera socialmente accettabile.

Pubblicità

Significa che abbiamo qualcosa da nascondere? No. Questo atteggiamento è parte della natura stessa dell'essere umano: rivelare diversi aspetti di noi stessi in situazioni diverse—Ad una festa, al lavoro, con nostra madre oppure con il nostro partner. È parte della dignità umana ed è il significato stesso di "essere liberi."

Il Panopticon, il carcere perfetto ideato da Jeremy Bentham, in cui le persone sanno di poter essere sorvegliate in ogni momenti ma non si sa con certezza quando, è uno dei modelli ideali di prigione. Le persone si comportano diversamente quando sono sorvegliate: si conformano agli altri, non creano problemi e cercano di non farsi notare.

Il diritto alla privacy è fondamentale in una società libera—Fa parte del processo necessario a formare un'opinione, esperire determinati pensieri o sensazioni senza una audience pubblica. È il motivo per cui il pubblico di solito non assiste agli allenamenti sportivi o alle prove di uno spettacolo. Le persone hanno bisogno di uno spazio privato in cui sperimentare, in cui poter sbagliare senza che la loro dignità venga messa a repentaglio. È per questo che la privacy è considerata uno dei motori fondamentali del progresso e dell'innovazione in una società libera.

È facile violare il diritto alla privacy, e proprio per questo motivo dovrebbe essere celebrato e protetto da tutte le società libere. Sono coloro che hanno più bisogno della privacy—e ovviamente di tutti gli altri diritti fondamentali—ad essere i più vulnerabili nelle nostre società: i giovani, le minoranze sociali e politiche, tutti coloro che sono 'diversi'.

Pubblicità

Leggendo il suo paper ho ovviamente riflettuto su una possibile soluzione—Penso che stiamo per entrare in una nuova era per gli esseri umani. Oggi, le tecnologie sono estremamente pervasive e stiamo producendo più dati di quanti ne genereremmo se fossi davvero coscienti delle dimensioni di questo flusso. Proprio per questo, credo che ci stiamo avvicinando a una sorta di 'singolarità': non produciamo più dati perché siamo esseri umani, ma siamo esseri umani perché produciamo dati—I dati sanno più cose riguardo gli esseri umani di noi: la nostra "identità online" è più dettagliata di quella reale. Ciononostante, a differenza degli altri diritti fondamentali, i dati che si interfacciano con il concetto di privacy sono gestiti e configurati da aziende private che possiedono le infrastrutture in cui vivono queste informazioni. Credo che i governi del mondo debbano reclamare il possesso di questi dati come pubblico dominio, e proteggerli come se fosse una proprietà privata.

Emily Taylor: Ovviamente non solo gli umani a produrre dati. In futuro la 'datasfera' sarà popolata da gadget interconnessi: frigoriferi, città, auto e sensori.

Penso sia arrivato il momento di ristabilire i nostri diritti sui nostri dati, di chiedere ai nostri governi di essere all'altezza del loro impegno per il rispetto dei diritti umani, e di chiedere alle aziende private di sviluppare dei piani per gestire questi dati compatibilmente ai diritti umani. Al momento, sembra che ogni cosa venga conservata per sempre, ed è un aspetto che deve cambiare. Nel mio paper ho proposto un nuovo modo per pensare ai dati, secondo la loro natura permanente o transitorie e a seconda che siano condiviso in senso privato o pubblico.

Pubblicità

"Penso sia arrivato il momento di ristabilire i nostri diritti sui nostri dati, di chiedere ai nostri governi di essere all'altezza del loro impegno per il rispetto dei diritti umani."

In passato mi sono occupato di concetti come quello della 'filter bubble'—L'era dello 'smercio dei dati' che stiamo vivendo si può considerare potenzialmente pericolosa per gli esseri umani, antropologicamente parlando? Dovremmo avere paura di una infosfera disegnata dagli algoritmi che al momento gestiscono i nostri dati personali?

Emily Taylor: Sì, ci sono dei pericoli, e hai ragione nel porla come una domanda di carattere filosofico.

Una delle difficoltà che non riesco a superare nell'ambito dell'attuale situazione è che gli algoritmi non sono neutrali, e non sono il prodotto di una macchina. Sono progettati da esseri umani—e integrano i pregiudizi, gli ideali e il background culturale di queste persone. Mentre gli algoritmi sono spesso tenuti segreti, è possibile capire quali possano essere questi ideali di partenza sulla base del funzionamento degli algoritmi stessi. Il principale errore che i programmatori continuano a commettere è l'idea secondo cui le persone sono razionali, costanti e regolari: "Se ti è piaciuto questo, amerai quest'altro… E ancora e ancora, per sempre." Le persone vere si annoiano. Sono incostanti e irrazionali. Amano qualcosa o qualcuno un certo giorno, e poi si stufano. Professano credi e atteggiamenti che le loro azioni nel privato poi sconfessano—In breve, sono esseri umani. Se poniamo troppa fiducia negli algoritmi finiremo per accorgerci sempre di più di questo conflitto e inconsistenza di fondo.

Nel capitolo 'l'illusione della neutralità' del suo paper, parla della moderazione e della censura online. The Verge ha recentemente pubblicato un bellissimo pezzo riguardo questo tema—Dovremmo temere che 'l'élite della moderazione' di oggi possa diventare una sorta di 'polizia del pensiero' in futuro?

Emily Taylor: Certamente—Dobbiamo avere paura dei processi di moderazione dei contenuti che non sono trasparente e non sono conformi alla legge. Non metto in dubbio che la moderazione sia desirabile o necessaria in molte situazioni: lo è. Ciononostante, è necessario richiedere molta più trasparenza nel processo, le persone devono avere la possibilità di sapere cosa sta succedendo, chi ha preso una certa decisione, su quali basi, e devono poter fare appello alla sentenza. Questo recente pezzo di Jullian York della Electronic Frontier Foundation parla dell'impatto che ha avuto su di lui il fatto di essere stata bannata da Facebook a causa di un'immagine.

Cosa pensa delle decentralizzazione del web? È una possibile soluzione all'attuale egemonia delle piattaforme o dovremmo reinterpretare completamente il paradigma che sfruttiamo per interpretare il concetto di 'internet' per poterlo di nuovo rendere sostenibile?

Emily Taylor: Quando è stato creato, si pensava che una delle caratteristiche fondamentali di internet fosse la sue decentralizzazione. Ciononostante, il mercato delle piattaforme web è rapidamente diventato altamente concentrato. Il libro di Tim Wu, The Master Switch, suggerisce che questo si tratti di un inevitabile ciclo a cui sono sottoposti tutti i media di comunicazione. I vincitori del mercato di oggi hanno ottenuto i loro traguardi offrendo ottimi prodotti versatili che le persone amano utilizzare. Ciò non significa che dovremmo accettare passivamente tutto quello che sta succedendo. Coloro che vivono in Occidente si affidano ai loro governi per opporsi allo strapotere delle grandi industrie—per assicurare che si verifichi una competizione onesta, e che i diritti umani e del consumatore vengano rispettati.

Temi come la privacy o la crittografia sono finiti sotto le luci della ribalta quando è esploso il caso Apple VS FBI: quale sarà il prossimo tema caldo in ambito tech?

Emily Taylor: Non abbiamo ancora finito di occuparci delle questioni di sicurezza e di privacy, di quelle di sorveglianza e di libertà di espressione, della questione di accessibilità contro la crittografia. Questi problemi—in forme diverse—hanno generato problematiche per la società per migliaia di anni. Non dobbiamo aspettarci che vengano immediatamente risolti da un algoritmo. Uno dei temi da tenere d'occhio è quello del cosiddetto 'internet of things'—che sta arrivando ora nelle grandi catene molto prima che si compiano le dovute discussioni riguardo la sua sicurezza e la sua privacy. Pensa ad una smart city intera che viene hackerata.

All'inizio di quest'anno, Motherboard ha pubblicato un articolo poco dopo l'ultimo discorso sullo State of the Union di Barack Obama, "Lo State of the Union ha parlato di tecnologia perché oggi tutto riguarda la tecnologia." È vero? La tecnologia (e la privacy) ormai riguardano ogni cosa?

Emily Taylor: La tecnologia è importante. È fantastica e anche un po' inquietante. Ma non tutto riguarda la tecnologia. La tecnologia serve a migliorare la vita delle persone, ad accedere alle informazioni, a introdurre maggiore efficienza e divertimento nel lavoro e nel piacere. Ma se ci dimentichiamo delle persone, rischiamo di scordarci del motivo principale per cui la tecnologia esiste.