Il Manifesto dei Bot

I bot sono ormai una parte fondamentale della nostra vita su internet — Forse è arrivato il momento di definire i loro diritti e i loro doveri?

|
07 marzo 2016, 9:46am

Samuel Woolley, Danah Boyd, Meredith Broussard, Madeleine Elish, Lainna Fader, Tim Hwang, Alexis Lloyd, Gilad Lotan, Luis Daniel Palacios, Allison Parrish, Gilad Rosner, Saiph Savage, and Samantha Shorey

Un bot-manifesto

Viviamo in un mondo di bot. In generale, questo insieme di algoritmi sono responsabili di davvero un sacco di lavoro che si consuma dietro le quinte di internet — rendono possibili le ricerche su Google e permettono alla tua cartella spam di essere riempita ogni giorno. Ma un nuovo tipo di bot, capace di interagire con gli esseri umani e comportarsi di conseguenza, sta giocando un ruolo sempre più importante nelle nostra vita di tutti i giorni.

I bot calcolano lo stato di salute tecnico di internet, condividono informazioni riguardanti i disastri naturali, predicono il diffondersi di epidemie, compilano i nostri ordini a domicilio e aggiornano con notizie e articoli intere reti di persone su piattaforme come Twitter e Slack. Alcuni di questi articoli potrebbero essere addirittura scritti da loro. Sono importantissimi anche per le campagne social di propaganda politica, per gli attacchi DDoS e per la manipolazione del mercato azionario. Abbiamo visto come i bot siano capaci di sostenere brevi conversazioni con gli umani, e si è pensato di sfruttare i bot-assistenti come Siri per affiancare i piloti di aerei da guerra nell'abbattimento dei nemici per prevenire i danni psicologici.

I "social bot" su piattaforme come Twitter interagiscono con gli utenti umani diffondendo strane storie a metà tra il reale e la fantasia, promuovendo la trasparenza nella politica e facendo circolare notizie riguardo lo stato della sorveglianza o riguardo battaglie legali in corso sull'argomento. Infatti, molti di questi bot sono costruiti proprio per fingere di essere umani. Progetti come BotOrNot, un software che vuole verificare "l'umanità" che si cela dietro molti account Twitter, dimostrano quanto efficaci siano i codici, concepiti dagli sviluppatori, che muovono questi bot. Nel frattempo, molti bot sembrano dei cyborg disassemblati — in parte automatizzati, in parte umani — che riescono a farsi passare per esseri umani agli occhi di corporation multinazionali, al grande pubblico e anche alle piattaforme social stesse.

In ogni caso, bot come @oliviataters, @nice_tips_bot e @twoheadline riescono ad attirare l'attenzione su di loro perché, scrutati da vicino, non sono esattamente convincenti nella loro umanità. In uno studio condotto in Bolivia dei ricercatori hanno scoperto che dei potenziali volontari rispondevano negativamente allo stimolo sociale di un bot quando dei bot di Twitter chiaramente non umani tentavano di apparire umani.

A partire da ELIZA, per molti considerata il primo vero chatbot, una caratteristica distintiva dei bot è il loro essere semi-autonomi: manifestano un comportamento che, in parte, è una funzione delle intenzioni del programmatore che li ha sviluppati, in parte un insieme di algoritmi di abilità di machine learning che rispondono ad una complessità molto diversa di input. Pensare ai bot come a degli attori semi-automatici li rende molto difficili da concepire in termini di design. Li rende anche piuttosto atipici, in senso etico. Quando si costruiscono bot di questo tipo bisogna pensare anche a questioni di responsabilità e l'eventualità che possano in qualche modo ingannare gli utenti.

Per cercare di capire qualcosa in più della questione, Sam Woolley un ricercatore dell'istituto Data & Society ha organizzato una conferenza che ha radunato diversi esperti del campo. Questo articolo è un riassunto dell'evento, un viaggio nel mondo dei bot e della loro semi-autonomia da tre punti di vista diversi: quella di un designer, quella di un implementer e quella di un regulator. In ognuna di esse, i bot presentano sfide da superare che ancora nessun essere umano è riuscito a comprendere appieno.

The Designer: Tecno-Umanità e Sistemi Umili

Le nostre aspettative per i bot cambiano in base al contesto. A volte vogliamo che i bot ci ricordino della nostra umanità, quindi li progettiamo per fare in modo che dicano cosa che ci facciano ridere di loro. Ci affidiamo alla possibilità di oggettificare i bot perché stanno provando a essere umani e non ci stanno riuscendo.

Chi è responsabile delle azioni dei bot, eticamente e legalmente? In che modo la semi-autonomia crea dei vincoli etici che limitano gli sviluppatori dei bot?

Allo stesso tempo, vogliamo che i bot ci capiscano, e che lavorino per noi; in questo caso, un bot che sbaglia non è divertente ma fastidioso. Per esempio, quando chiamiamo una linea di supporto tecnico, spesso e volentieri, prima di riuscire a parlare con un essere umano ci ritroviamo a barcamenarci in un labirinto di voci meccaniche che cercano di definire il nostro problema — spesso, non serve aspettare molto prima che questa situazione ci faccia arrabbiare. Questa rabbia, poco dopo, rischia di essere riversata sull'essere umano che finalmente riuscirà a parlare con noi. In entrambi i casi, l'umanità che vogliamo nei nostri bot è un di tipo di umanità derivante da una società civile. Non ci incazziamo con il bot per le sue scarse capacità di socializzare, ci incazziamo con l'essere umano che si nasconde dietro di lui.

Questa condanna, però, rischia spesso di essere fraintesa. Non è sempre l'umano che c'è dietro ai bot a volere che le cose non funzionino bene. Benché vogliamo preservare la responsaibilità umana per le scelte di design, dobbiamo anche tenere a mente che alcuni bot saranno programmati per svolgere alcuni compiti indipendentemente e senza il supporto del loro creatore.

Prendete il Random Darknet Shopper bot, programmato per spendere 100 dollari in bitcoin ogni settimana per fare acquisti totalmente casuali sulla darknet, sul black market online Agora. A un certo punto il bot ha acquistato della droga. Il portatile su cui girava il programma che teneva in vita il bot è stato in seguito sequestrato dalla polizia tedesca, assieme alle paste di MDMA che aveva acquistato.

Quando il !Mediengruppe Bitnik, il collettivo svizzero dietro al bot, si è potuto spiegare, le accuse rivolte al bot sono state ritirate e il procuratore ha deciso che "l'incredibile interesse nelle domande sollevate dall'opera d'arte "Random Darknet Shopper" giustifica l'esibizione delle droghe come artefatti, anche se la mostra in effetti prevede un piccolo rischio di mettere in pericolo terze parti attraverso le droghe esposte."

Anche se gli artisti stavano proprio lavorando sul concetto di colpevolezza online, su quello di anonimato e di come l'etica e il commercio funzionino nelle profondità del web, hanno dichiarato che si prendono ogni responsabilità delle azioni del bot. La costituzione svizzera, però, mette a repentaglio la loro volontà di prendersi carico delle potenziali ripercussioni, perché afferma che l'arte pensata per l'interesse pubblico è legale.

L'opera e la risposta delle autorità sollevano questioni importanti. Chi è responsabile dei risultati e delle azioni dei bot, sia eticamente che legalmente? In che modo la semi-autonomia crea vincoli etici che limitano i creatori dei bot? Delle domande simili erano state poste lo scorso anno, quando un bot di testo semi-random posseduto da un uomo proveniente da Amsterdam aveva pronunciato una minaccia di morte. "Ovviamente, visto che non ho alcun tipo di conoscenza giuridica, non so chi debba essere considerato responsabile (e se qualcuno debba essere considerato tale), ma al momento sono abbastanza spaventato," aveva tweetato il programmatore del bot. Infine, il proprietario l'ha eliminato.

Coloro di noi che creano e liberano i bot in questo selvaggio mondo, si presume che lo facciano in maniera ragionata. Dovrebbe essere nostra responsabilità quella di valutare i valori intrinsechi alla nostra creazione. Avere spazio e libertà tali da permettere lo svilupparsi di questo tipo di problemi non dovrebbe essere tradotto in un via libera per qualsiasi cosa.

The Implementer: automatizzare il Quarto Potere

Fuori dal regno dell'arte, queste domande hanno già stuzzicato le menti di coloro che sfruttano i bot in senso civico. I bot possono essere utili per rendere comprensibili i sistemi di valute, per rivelare informazioni insabbiate e amplificare la visibilità di argomenti o comunità marginalizzate. Account Twitter come @congressedits, @scotus_servo, e @stopandfrisk sfruttano il principio di re-contestualizzazione per evidenziare informazioni di un certo tipo. Un metodo finora esclusivo delle organizzazioni giornalistiche.

Il bot può diventare qualcosa di più di un assistente, può essere un'estensione civile, uno strumento che amplifica la nostra abilità di percepire le altre persone e gli altri sistemi. I bot non sostituiranno i giornalisti, ma possono renderli ancora più efficaci automatizzando compiti che sarebbero stati svolti, altrimenti, manualmente. Un bot può continuare a tenere d'occhio un argomento per un tempo indefinito, può rendere pubbliche connessioni e pattern che un essere umano avrebbe speso ore per individuare. Attraverso queste miriadi di scopi, i bot possono diventare degli strumenti potenti nelle mani dei cittadini, sfruttabili per richiedere ancora più trasparenza da parte dei potenti.


Le domande relative alla progettazione e alla proprietà sono particolarmente rilevanti quando si tratta di bot gioranlistici, perché Il giornalismo è una disciplina di verifica. I giornalisti cercano di esporre la verità e la precisione, e cercano di evitare le speculazioni grossolane. Un bot, prima o poi, sbaglierà qualcosa se viene rifornito di informazioni non precise, e un bot, inoltre, potrebbe commettere un atto di diffamazione. Se crei un bot, saresti preparato a gestire una situazione in cui il tuo bot ha compiuto un'azione che nemmeno tu avresti compiuto? Come puoi fermare un bot che sta diffondendo disinformazione? L'automazione e i big data sono senza dubbio degli innovativi strumenti giornalistici, ma evidenziano come ora più che mai serve porre particolare attenzione alle questioni di etica.

The Regulator: bot, politiche e policy

Le azioni dei bot, dato il ruolo pubblico e sociale sempre più rilevante da loro svolto, possiedono anche conseguenze politiche, tanto implicite quanto esplicite. Gli ultimi anni hanno registrato un aumento nell'utilizzo dei bot nella propaganda politica, nell'attivismo e per rimpolpare le liste di follower di personaggi pubblici. su piattaforme come Twitter e Reddit, gli attivisti possono utilizzare bot per promuovere mobilitazioni connesse a cause sociali e politiche. Di recente, in Messico, tanto il governo quanto l'opposizione hanno sfruttato dei bot per influenzare l'opinione pubblica. Dove si traccia la linea di demarcazione tra propaganda, relazioni pubbliche e un uso creativo della comunicazione?

Le piattaforme social, i governi e i cittadini devono prendere parte al dibattito sugli obiettivi e il futuro della tecnologia bot, ben prima che questa si trasformi esclusivamente in uno strumento di manipolazione anonima.

Allo stato attuale il controllo dei bot è un problema che grava sulle spalle delle varie piattaforme social, ma persino grandi aziende come Twitter e Facebook non sono in grado di identificarli tutti e d'altro canto non sono nemmeno intenzionate a farlo. Il design e l'approccio bot-friendly di Twitter differiscono molto dalla regolamentazione rigida di Facebook; il primo, infatti, consente lo sviluppo di un florido "ecosistema" di bot, lasciando purtroppo anche spazio d'azione ai loro usi più dannosi. I bot sfruttati per scopi politici oppure progettati per attaccare altri utenti ne sono un esempio. Bisognerebbe impedire i tentativi automatizzati di abuso, coercizione e truffefavoriti dall'anonimato garantito dai proxy botpreservando allo stesso tempo la creatività e la libertà essenziali per lo sviluppo di tali tecnologie.

L'eliminazione completa dei bot dai social media comprenderebbe, dopo tutto, sbarazzarsi anche di quelli che svolgono compiti importanti per il giornalismo o che ci divertono. Ideare una politica di amministrazione efficiente diventa quindi una questione cruciale per le piattaforme che vogliono cogliere le opportunità favorite dai bot senza cadere vittima dei rischi che comportano.

Un approccio sensato alla regolamentazione potrebbe tentare di limitare i comportamenti che non gradiamo quando vengono messi in atto da parte di esseri umani. Un po' come chiedersi come creare politiche che dissuadano le persone dall'intraprendere attacchi politici sleali? Due valori principali emergono come utili punti di partenza: la privacy decisionale e la garanzia di democraticità,

La privacy decisionale, secondo Beate Rossler, consiste nella libertà di "fare le proprie scelte e di agire in base a queste, senza interferenze indesiderate da parte del governo o di altri enti." Applicare questo principio ai bot significa impedire che questi interferiscano nelle scelte personali fondamentali come quella del candidato politico da votare oppure del genere di trattamento medico desiderato.

Tuttavia, anche questo genere di approccio evidenzia i suoi limiti nel momento in cui si considerano i bot come fornitori di servizi: agenti che promuovono comportamenti socialmente utili. I motori di ricerca potrebbero rivelarsi strumenti efficaci nel guidare le persone verso stili di vita più sani oppure diffondere informazioni sui disastri naturali in casi di emergenza. Come favorire i bot "buoni" dal punto di vista civico, ostacolando allo stesso tempo quelli che reprimono le nostre libertà o ci manipolano?

In ogni caso, un discorso democratico sano viene rafforzato da un ambiente che favorisce una pluralità di voci. I bot possono essere visti, allo stesso tempo, come espressioni della libertà di parola o come veri e propri agenti che intervengono nei dibattiti. Nel primo caso verrebbero tutelati dal Primo Emendamento, considerandoli invece come "attori", bisognerebbe attribuire loro i diritti riservate agli esseri umani, sia che si tratti della possibilità di amplificare la propria voce oppure di limitare la libertà degli altri.

Vivere la Semi-Autonomia

Dalla Silicon Valley all'ambiente accademico, l'attenzione per i bot è grande. Questo in parte perché gli esiti creativi, politici, giuridici ed etici di questa tecnologia sono ancora tutti da definire. La semi-autonomia, ovvero, la doppia natura in parte umana e in parte artificiale dei bot, alimenta una serie di rivoluzionarie possibilità nella produzione e fruizione. Tuttavia, bisogna tenere presente che tali strumenti diventeranno sempre più sofisticati. Dove ci condurrà questa evoluzione?

Il modo migliore di prevedere i scenari futuri dell'automazione sociale passa attraverso l'accettazione della natura paradossale dei bot. E` vero, questi strumenti subiscono l'influenza delle persone da cui sono stati progettati, tuttavia, vengono eseguiti su internet, una fonte quasi illimitata di input e output indeterminabili a priori. Ciò non significa sollevare i programmatori dalle loro responsabilità, quanto piuttosto ammettere che determinarle è più complicato di quanto possa sembrare, sopratutto nel caso del deep web. Casi come quello del Darknet Shopper mettono in risalto la questione, rivelando la natura distribuita e imprevedibile del codice.

Le piattaforme social, i governi e i cittadini devono prendere parte al dibattito sugli obiettivi e il futuro della tecnologia bot, ben prima che questa si trasformi esclusivamente in uno strumento di manipolazione anonima. La riflessione collettiva dovrebbe anche rifiutare politiche o prospettive che prevedano semplicemente di bandire qualsiasi bot. Tali programmi, infatti, possono e devono essere utilizzati per scopi positivi, dal migliorare la società fino a espandere i limiti dell'arte. Speriamo di stimolare un dibattito sulla progettazione, implementazione e regolamentazione dei bot per tutelare quanto di buono già esistente oltre a favorire sviluppi futuri che al momento non possiamo neanche immaginare.



Abbracciando la complessità, chi progetta, utilizza e interagisce con i bot si apre alla creatività, all'innovazione, e all'imprevedibilità automatizzate così fondamentali per lo sviluppo del web. Questa capacità di inventiva continuerà ad estendersi negli ambiti del giornalismo, dell'attivismo politico e delle proteste civili, ovvero i centri vitali della democrazia e del benessere della società. Un approccio del genere favorisce regolamentazioni ben ponderate, che consentano ai bot di essere liberi quanto i loro creatori, favorendo allo stesso tempo la diversità e prevenendo gli squilibri di potere.

Stay tuned to Motherboard for IN OUR IMAGE, a week of coverage dedicated to artificial intelligence, starting March 14.