Robot che possono uccidere gli umani

Che sia giusto o meno dare alle macchine il potere di uccidere gli esseri umani, la guerra del futuro sarà comunque un incubo.

|
15 maggio 2014, 12:11am
Immagine: RCB/Flickr

Con i robot puoi farci tranquillamente sesso, ma c'è una bella differenza tra un’intelligenza artificiale che può gestire solo un dildo e una che, invece, può sganciare un missile anticarro Hellfire in piena autonomia. Siamo ancora molto lontani dal costruire robot soldati non radiocomandati, armarli e lanciarli in mezzo al campo di battaglia, ma il discorso sul fatto che sia giusto o meno dare alle macchine il potere di uccidere gli esseri umani è maledettamente attuale.

In questi giorni, le Nazioni Unite organizzano un incontro a Ginevra per fare il punto sulle implicazioni etiche delle armi letali autonome—note come Lethal Autonomous Weapons Systems (LAWS). L'obiettivo della conferenza è quello di mettere insieme il parere degli esperti del settore e buttare giù un rapporto informativo da spedire in busta chiusa al meeting della Convention on Certain Conventional Weapons (CCW) che si terrà a novembre.

Per farla breve, la CCW è una sorta di lista internazionale delle armi convenzionali proibite o a uso limitato in guerra. Finora hanno aderito 117 nazioni, tra cui anche l'Italia. Il suo obiettivo “è quello di bandire o ridurre l'utilizzo di tipologie specifiche di armi che sono considerate causa di sofferenze non giustificabili e non richieste ai danni dei combattenti e che colpiscono i civili in modo indiscriminato.” Quindi, in guerra si può uccidere, ma solo seguendo le regole.

Ovviamente, i soldati robot sono una novità assoluta rispetto alle armi citate nella CCW—munizioni a frammentazione non rilevabili, mine, armamenti incendiari, laser accecanti e residui bellici esplosivi—e le Nazioni Unite si sono chieste se non sia il caso di inserirli nella lista. Dopo tutto, l'idea di armare un drone automatico con una mitragliatrice anti-fanteria e spedirlo sul campo a falciare tutti i soldati che indossano la divisa del colore sbagliato ha un che di inquietante. Se a sparare è una macchina indipendente, chi è il responsabile delle uccisioni?

Nei film—vedi Terminator o Matrix—dare alle macchine il potere di uccidere è sempre una pessima idea. Tuttavia, allo stato attuale delle cose, gli esseri umani sono molto divisi sull'argomento dei robot soldati. Per esempio, all'incontro di Ginevra sarà discusso anche il punto di vista di chi è a favore delle macchine con la licenza di uccidere.

Uno dei sostenitori dei LAWS è Ronald Arkin, professore di robotica e roboetica presso il Georgia Institute of Technology. Nel suo curriculum spiccano varie collaborazioni con la DARPA—l'agenzia statunitense per lo sviluppo di nuove armi tecnologiche—e una lunga serie di pubblicazioni sui sistemi di navigazione e multitasking nei robot. In uno dei suoi articoli, Arkin sostiene che “potrebbe essere possibile realizzare sistemi militari intelligenti e autonomi in grado di causare vittime civili e danni materiali inferiori rispetto alle performance dei combattenti umani.”

Ronald Arkin. Immagine: Wikimedia

Secondo Arkin, un robot dotato di sensori e armi letali farebbe il proprio lavoro in modo più diretto e preciso, evitando inutili violenze ai danni della popolazione coinvolta nelle aree di guerra. Tuttavia, il roboetico sostiene che armi del genere, se approvate, dovrebbero essere introdotte sul campo di battaglia in modo “attento e graduale” piuttosto che “a casaccio.” Eppure, la tentazione di schierare un plotone di droni senzienti ha molti lati positivi. Un soldato robot non dorme mai, è sempre vigile, combatte senza pregiudizi, rispetta sempre gli ordini, non subisce pressioni psicologiche ed è anche pronto a sacrificarsi in missioni suicide, semplicemente perché per lui la propria vita non ha alcun valore.

Ora, il timore degli oppositori di Arkin è che anche la vita dei suoi nemici umani sia trattata come una variabile numerica. Come si fa a programmare un robot in modo che possa prendere scelte cruciali sulla vita altrui? Gli algoritmi possono dire al drone soldato di sparare a vista su chiunque indossi una divisa rossa, nera o verde, ma la guerra non è un videogioco—tranne che in Norvegia—e sul campo di battaglia possono presentarsi numerose eccezioni che un computer non è ancora in grado di affrontare come farebbe un essere umano.

Le critiche più accese sui robot soldato arrivano da Noel Sharkey, professore di robotica alla University of Sheffield e capo dell'International Commitee for Robot Arms Control (ICRAC). Sharkey sostiene che i LAWS “non hanno sistemi di analisi visiva e sensoriali adeguati per riconoscere i combattenti dai civili, soprattutto nelle aree di rivolta, né per distinguere i soldati feriti o che si arrendono.” 

Noel Sharkey. Immagine: Stop Killer Robots/Flickr

Telecamere e sensori montati sui robot sono sì in grado di riconoscere gli esseri umani dalla materia inanimata, ma non sono abbastanza precisi da capire se sono nemici, alleati o civili. Gli algoritmi di riconoscimento facciale possono dare una mano ai robot per individuare i volti noti—comandanti, terroristi e criminali di guerra—ma è impensabile che nel database dei droni soldato ci siano le facce di tutti i suoi nemici sulla faccia della terra. Senza contare che basta indossare un passamontagna per rendere questa tecnologia inutile e perfino dannosa—militari senza scrupoli potrebbero costringere alcuni civili a indossare uniformi e maschere e mandarli a farsi macellare dai droni in campo aperto. A quel punto, chi sarebbe il responsabile della carneficina: gli uomini che hanno architettato il piano o i robot che hanno aperto il fuoco?

Il vero problema, secondo Sharkey, e che gli esseri umani tendono a mitizzare troppo i robot soldato. La potenza di calcolo e gli algoritmi che guidano le intelligenze artificiali in guerra lavorano in modo totalmente diverso dal cervello umano, semplicemente perché non sono guidati da pregiudizi e senso morale e tendono a considerare la realtà come una serie di variabili che contribuiscono alla riuscita della missione. Punto. Tutto il resto—perdite umane, esecuzioni di fronte ai civili, distruzione—non conta, perché il robot soldato non è costruito per meditare sulle proprie azioni.

Quello che ci frega, dice Sharkey citando un articolo del Washington Post, è il fatto che tendiamo a umanizzare i robot soldato. Nel nostro immaginario collettivo al posto di cingolati e droni stealth ci sono umanoidi meccanizzati, fanteria robotica in cui riconosciamo un qualcosa di vicino a noi. Per assurdo, si sono verificati casi in cui i soldati hanno mostrato un rispetto e una compassione incredibile nei confronti di robot sminatori dilaniati dalle esplosioni. Qualcuno li ha anche portati a pescare in riva al fiume durante il tempo libero.

Insomma, la vera differenza tra noi e i robot soldato e che proviamo empatia. Un'empatia non corrisposta. L'idea di affidare ai robot il compito di uccidere al posto nostro è più subdola di quanto sembri. Sappiamo perfettamente che uccidere di solito è una merda, e che, per quanto siano avanzate sotto il profilo tecnologico, le armi non sollevano gli esseri umani dalle loro responsabilità. Vale per una spada quanto per un drone Predator radiocomandato—la mano che mena il colpo e quella che sgancia il missile è sempre umana. E allora perché non lasciare che siano i robot a fare tutto il lavoro sporco?

Un drone MQ-1 Predator fotografato nel 2008. Immagine: US Air Force/Wikimedia

Dopo tutto, in guerra gli uomini sbagliano di continuo. Come si vede in questa infografica interattiva, negli ultimi dieci anni i droni statunitensi pilotati a distanza hanno ucciso 3213 persone in Pakistan: di queste, ben il 22 percento erano civili e bambini. Vittime collaterali cadute sotto il fuoco dei missili sganciati da soldati seduti in una postazione di comando a migliaia di chilometri di distanza. La responsabilità umana quasi non si vede, ma c'è—fatevi una partita a Unmanned e capirete. Con i robot soldato le cose andrebbero diversamente, perché la catena di causa-effetto che lega gli umani alle atrocità della guerra si interromperebbe di colpo. Per quello che ne sappiamo, a lungo andare le guerre potrebbero essere combattute solo da eserciti robotici, sulla base di regole di ingaggio ferree e discusse a tavolino. Un po' come se i conflitti fossero una grande partita a Risiko. Tiri i dadi e distruggi il nemico.

In realtà, il passo che ci porta da qui a un futuro fatto di guerre asettiche governate dalla robotica sembra un salto nel vuoto. Prima di arrivare ai robot da battaglia perfetti dovremo necessariamente costruirne di imperfetti. Ecco perché in molti sostengono che l'idea di mettere in campo droni che rischiano di uccidere gli esseri umani senza criterio, in attesa di qualcosa di meglio, sia inaccettabile. 

Riconoscere gli esseri umani è facile. Decidere quali uccidere un po' meno. Immagine: jurvetson/Flickr

Per esempio, la campagna Stop Killer Robots—sostenuta anche da Sharkey—chiede alle Nazioni Unite di vietare i LAWS inserendoli nei protocolli con cui la CCW definisce le armi bandite dai campi di battaglia. Anche il rapporto di Human Rights Watch del 2012, intitolato Losing Humanity, va nella stessa direzione e propone di proibire anche lo sviluppo e la produzione dei droni soldato, affinché non finiscano nelle mani sbagliate. In effetti, il bando imposto dalla CCW non è di natura totale: ai 117 paesi firmatari è stato chiesto di aderire ad almeno due dei cinque protocolli in questione. 

Questo significa che alcune nazioni si sono prese la libertà di escludere dal loro arsenale solo alcune delle voci proibite. Per esempio, il Principato di Monaco non ha firmato i protocolli su armi incendiarie e laser, anche se forse non ne avrà mai bisogno. E poi ci sono molti paesi, come la Siria, che sono completamente al di fuori della CCW. Quindi, anche se i LAWS venissero regolati dai trattati delle Nazioni Unite, non è scontato che tutti facciano a gara per mettere la firma sul protocollo che ne vieta l'utilizzo. L'idea di chiudere le porte in faccia a una tecnologia militare così seducente potrebbe indurre molti paesi a lasciarsi uno spiraglio aperto per vedere cosa succede. Senza contare che mettere sul piatto un esercito di droni soldato potrebbe essere un ottimo diversivo per sdoganare del tutto le armi a controllo remoto attualmente in uso. 

Messa di fronte alla scelta “preferisci davvero un drone che va in guerra senza controllo umano a uno pilotato in remoto?” l'opinione pubblica finirebbe con l'appoggiare la seconda opzione perché, tutto sommato, a premere il grilletto ci sarebbe ancora un qualche responsabile in carne e ossa su cui scaricare il fardello morale delle uccisioni. In ogni caso, la guerra del futuro sarà di sicuro una merda.