FYI.

This story is over 5 years old.

Tecnologia

Dobbiamo imparare a gestire i robot-killer prima che ci sfuggano di mano del tutto

Persino in un mondo in cui i sistemi robotici guidano o combattono per conto loro, gli esseri umani devono assumersi la responsabilità delle proprie azioni.
Il robot Atlas all'interno dei laboratori di tecnologie avanzate della Lockheed Martin. (Foto via Washington Post/Getty Images)

Negli ultimi 15 anni, l'idea dei "robot-killer" è passata dalla fantascienza alla realtà.

Ormai le macchine senza equipaggio rappresentano una caratteristica comune delle aree di conflitto sorte dopo l'11 settembre 2001. Praticamente tutti coloro che combattono nella guerra in Iraq e in Siria hanno usato dei droni — dagli Stati Uniti alla Russia, dal governo siriano a Hezbollah, senza dimenticare lo Stato Islamico.

Pubblicità

Da quando si è diffuso l'uso dei robot sul terreno di guerra, è cresciuta la paura che essi possano diventare troppo indipendenti, troppo intelligenti e troppo autonomi. Si teme che imparino ad agire di testa loro, senza essere controllati da un essere umano.

La tematica è stata discussa nel corso dell'incontro organizzato dalle Nazioni Unite "Riunione di esperti sui sistemi di armi autonome letali," che si è concluso venerdì 17 aprile a Ginevra. L'obiettivo di molti dei partecipanti al convegno è di combattere un futuro incombente, vietando l'utilizzo della tecnologia e assicurandosi che gli esseri umani continuino a prendere le scelte decisive sul fronte militare.

Ma probabilmente quella nave è già salpata — e lo ha fatto senza un equipaggio.

Questi incontri sono una corsa contro il tempo per arrestare i cambiamenti tecnologici e militari. Secondo il database "World of Drones" di New America, almeno 86 paesi possiedono droni militari.

Alcuni sono modelli a controllo remoto, come l'US Predator, ma con ogni nuovo avanzamento tecnologico i droni - come l'American Reaper o il Global Hawk - stanno diventando sempre più autonomi nello svolgimento delle proprie funzioni. Il ruolo degli esseri umani è sempre meno quello del controllo remoto e sempre più quello di gestione e supervisione.

Parallelamente, una ricerca del Center for a New American Security ha documentato che almeno 30 paesi possiedono missili e sistemi di combattimento come Aegis o CRAM per difendere le loro navi da guerra e le loro basi militari.

Pubblicità

Questi meccanismi possono essere impostati in modalità automatica per abbattere gli aeroplani, i missili o i razzi in arrivo. Gli esseri umani hanno la facoltà di bloccare le scelte della macchina, ma bisogna considerare che quando un razzo ti sta arrivando addosso, il tempo a disposizione per prendere una decisione si riduce notevolmente.

Sono in arrivo anche molte novità. Sono già in via di sviluppo almeno 20 esempi di sistemi di combattimento che l'incontro dell'ONU a Ginevra sta tentando di limitare. Stati Uniti, Francia, Cina e Regno Unito hanno programmi di droni automatizzati, studiati per operare alla stregua di "leali copiloti" nei cieli e persino per sfidare le difese aeree nemiche per conto proprio.

Ci sono poi numerosi programmi che mirano a portare questi sistemi automatizzati in mare, anche se in questo caso probabilmente non si scatenerebbe una polemica — è più probabile infatti che una macchina confonda un civile con un soldato sulla terraferma, piuttosto che scambiare una nave da crociera per un sottomarino nemico.

Solo la scorsa settimana, la Marina americana ha inaugurato una nuova Sea Hunter, una "nave fantasma" robotica senza equipaggio progettata per prendere di mira i sottomarini nemici nell'Oceano Pacifico.

Anche i nuovi ambiti di conflitto saranno in larga parte autonomi. Per superare il problema della distanza e della vulnerabilità delle comunicazioni nello spazio, programmi come l'X-37 - una nave spaziale militare che rappresenta una versione robotica in miniatura dello Space Shuttle - si spostano senza il controllo umano.

Pubblicità

E le battaglie nel cyberspazio vedranno altissimi livelli di autonomia e di intelligenza artificiale, per la semplice ragione che le velocità digitali sono più rapide del battito di ciglia di un essere umano, soprattutto quando si tratta di prendere decisioni.

'Se tra dieci anni non sarà un maledetto robot ad attraversare per primo il fronte, dovremo vergognarci.'

Stuxnet, l'arma digitale che gli Stati Uniti hanno usato nel 2010 per sabotare il programma nucleare iraniano, aveva tutte le sembianze di un'arma autonoma. È stata mandata nel mondo con un obiettivo e una missione precisi e non ha ricevuto alcun ordine ulteriore.

Aveva addirittura un protocollo di autodistruzione.

Human Rights Watch, la Croce Rossa e perfino Stephen Hawking hanno espresso le loro preoccupazioni riguardo all'intelligenza artificiale e all'autonomia dei robot, e i loro dubbi sono condivisi da un gruppo di un certo peso: i più alti ufficiali militari degli Stati Uniti.

Ma la spinta di questi funzionari per lo sviluppo di armi autonome è influenzata da una paura ancora più grande — che perdere il treno per una rivoluzione tecnologica di questo calibro possa farli perdere una guerra in futuro.


P.W. Singer (@peterwsinger) è strategist a New America, mentre August Cole (@august_cole) è un fellow dell'Atlantic Council. Sono co-autori del libro: Ghost Fleet: A Novel of the Next World War.

Segui VICE News Italia su Twitter, su Telegram e su Facebook