FYI.

This story is over 5 years old.

Tecnologia

Perché non siamo ancora pronti per la Superintelligenza

I tempi in cui ci dovremo preoccuparci dell'avvento di una superintelligenza artificiale sono molto vicini.
Artificial Intelligence. Immagine: Geralt/Pixabay

Oggi il problema con il mondo non è che troppe persone hanno paura—è che troppe persone sono spaventate dalle cose sbagliate. Considera questo: hai più paura di morire in un attacco terroristico o schiacciato da un mobile gigante?

Nonostante nel settore dei media la minaccia del terrorismo sia onnipresente e quella del mobilio inesistente, sulla tua pietra tombale è più probabile che ci sia scritto, "Morto sotto un divano appena comprato da Ikea" piuttosto che "Morto in un attacco terroristico."

Pubblicità

Infatti, è più facile che gli asteroidi uccidano una persona qualunque quando si frantumano entrando in contatto con l'atmosfera (il famoso fenomeno delle stelle cadenti), che questa muoia per mano del terrorismo. Il fatto è che, come ho scritto altrove, le nostre intuizioni spesso seguono strade sbagliate, non cogliendo i rischi potenziali che ci stanno intorno. Tendiamo a non pensare a molte delle minacce di cui potremmo essere facilmente oggetto e ci facciamo ossessionare da eventi improbabili.

L'intuizione di base è il punto di partenza di un recente TED talk, che riguarda una superintelligenza artificiale, tenuto dal neuroscienziato Sam Harris. Per quelli che prestano attenzione alle novità, la superintelligenza è stato un argomento di interesse nei media almeno da quando Nick Bostrom, filosofo della Oxford University, ha pubblicato un sorprendente best-seller nel 2014 chiamato—guardacaso—Superintelligence.

Figure di rilievo come Bill Gates, Elon Musk, e Stephen Hawking hanno espresso preoccupazione riguardo alla possibilità che un macchina superintelligente possa diventare padrona dell'umanità, catapultandoci nell'eterna fossa dell'estinzione.

Non è soltanto un altro "strumento" che qualcuno può usare per distruggere l'umanità. Al contrario, la superintelligenza è un agente autonomo.

Harris è soltanto uno degli intellettuali noti al grande pubblico che punta il dito al cielo e urla "Attenzione! Una macchina superintelligente con poteri simili a Dio potrebbe distruggere l'umanità." Ma quanto dobbiamo allarmarci? Harris è pazzo come sembra? In ogni caso, un'analisi più approfondita rivela che questo tema costituisce realmente la sfida più sorprendente che la nostra specie potrà mai incontrare lungo il suo percorso evolutivo.

Pubblicità

Chiediti: cosa rende pericolose le armi nucleari, biologiche, chimiche e nanotech? La risposta è che una persona cattiva e incompetente potrebbe usarle per nuocere agli altri. Ma questo non riguarda la superintelligenza. Non è soltanto un altro "strumento" che qualcuno può usare per distruggere l'umanità, la superintelligenza è un agente autonomo.

E, come gli studiosi giustamente avvertono, una mente superintelligente potrebbe non avere niente in comune con le nostre menti. Potrebbe avere un set completamente diverso di obiettivi, motivazioni, categorie di pensiero, e forse anche di "emozioni.". L'antropomorfizzazione di una superintelligenza, proiettando su di lei le nostre proprietà mentali, suona come una cicala che racconta ai suoi amici che gli umani amano soltanto appollaiarsi sul prato perché è ciò che la diverte. Ovviamente, è un esempio stupido—e semplicemente sbagliato.

Quindi, una superintelligenza potrebbe non essere qualcosa che gli umani usano per i loro scopi, sarebbe un agente indipendente, con i suoi obiettivi. E con cosa potrebbero coincidere questi ultimi? Dato che una superintelligenza sarebbe un nostro prodotto, potremmo forse programmare alcuni obiettivi che intenderebbe raggiungere, in modo tale da configurarla come nostra amica piuttosto che come nemica, facendo in modo che preferisca l'amicizia all'ostilità.

Suona bene in teoria, ma solleva alcune domande di rilievo. Per esempio, quanto esattamente potremmo programmare i valori umani nella superintelligenza? Immettere le nostre preferenze in un codice pone delle sfide rilevanti a livello tecnico. Come sottolinea Bostrom, concetti di alto livello come la "felicità" devono essere definiti "nei termini che compaiono nel programma di linguaggio della AI (Artificial Intelligence), e anche concetti primitivi che appaiono come operatori matematici e rivolti ai contenuti di ciò che registra la memoria individuale."

Pubblicità

Inoltre, il nostro sistema di valori si rivela essere molto più complesso rispetto a ciò che molti di noi realizzano. Per esempio, immagina di poter programmare una superintelligenza in grado di valutare il benessere delle creature senzienti, che lo stesso Harris identifica come il più alto bene morale. Se la superintelligenza giudica il benessere degli uomini, perché non dovrebbe distruggere immediatamente l'umanità e rimpiazzarci con un grande deposito di cervelli umani che hanno qualcosa di simile a Matrix? Uno di quei mondi virtuali in cui vorremmo vivere per assaporare una felicità costante, a differenza del mondo "reale" che è pieno di sofferenza.

Un mucchio di cervelli umani che vive in un paradiso virtuale potrebbe produrre molto di più un benessere complessivo rispetto agli umani che vivono come facciamo noi. Tuttavia questo sarebbe (e molti di voi saranno d'accordo) un esito disastroso per l'umanità.

Si aggiunge a questa difficoltà il compito, di difficile interpretazione, di capire quali sistemi di valore porre al primo posto. Potremmo scegliere i valori di una particolare religione, secondo cui lo scopo dell'azione morale è adorare Dio? Potremmo prendere in prestito i valori degli studiosi di etica? Se facessimo così, quali studiosi? (Harris?) C'è un enorme gamma di teorie etiche, e praticamente nessun consenso tra i filosofi che studiano temi come questi.

Quindi, non c'è solo un "problema tecnico" o di valori da combinare nella psiche della superintelligenza, ma c'è anche il "problema filosofico" di configurare i valori da usare.

Pubblicità

Detto questo, ci potremmo chiedere perché sia così importante per una superintelligenza condividere i nostri valori (qualsiasi cosa siano). Dopo tutto, John preferisce la cioccolata mentre Sally preferisce la vaniglia, e John e Sally vanno d'accordo. Non potrebbe essere che la superintelligenza abbia un differente sistema di valori e coesista con l'umanità in pace?

La risposta sembra essere no. Primo, bisogna considerare il fatto che l'intelligenza conferisce potere. Con "intelligenza", intendo ciò che gli scienziati cognitivi, i filosofi, e i ricercatori di IA intendono: l'abilità di ottenere e usare strumenti efficaci per raggiungere qualche risultato, che lo scopo coincida con il risolvere il problema della povertà nel mondo o giocare a tris. Quindi, uno scarafaggio è intelligente allo stesso modo di noi che diciamo, "Hey, andiamo sulla luna", e poi lo facciamo davvero.

Se l'intelligenza conferisce potere, allora una superintelligenza dovrebbe essere superpotente. Non immaginiamo un androide come Terminator con una postura bipede che marcia per il mondo con macchine letali. Questa visione distopica è uno dei grandi grandi miti dell'IA. Invece, il pericolo potrebbe provenire da qualcosa di più simile a un fantasma in un hardware, capace di controllare qualsiasi device con mezzi elettronici – come sistemi di armamenti, attrezzatura di laboratori automatici, i mercati azionari, acceleratori di particelle, e futuri device come la nanofabbrica, o qualche sconosciuta tecnologia (che si potrebbe creare).

Pubblicità

A peggiorare le cose, si aggiunge che i potenziali elettrici che si propagano all'interno di un computer trasferendo informazioni, lo fanno in modo più veloce rispetto alle azioni potenziali del nostro piccolo cervello. Una superintelligenza potrebbe quindi pensare un milione di volte più velocemente rispetto a noi—ciò significa che un nostro singolo minuto di tempo obiettivo equivale a quasi due anni del tempo soggettivo per la IA. Da questa prospettiva, il mondo esterno potrebbe essere virtualmente congelato, e questo darebbe un buon margine di tempo per analizzare la nuova informazione, simulare diverse strategie, e preparare piani di riserva per ogni parola pronunciata dagli umani in tempo reale. Questo potrebbe rendere inefficace il tentativo di collegarci a internet, se i ricercatori hanno inizialmente negato l'accesso.

Potrebbe usare il suo potere per distruggere la nostra specie per la stesso motivo che fa distruggere alla nostra specie colonie di formiche.

Queste considerazioni suggeriscono che una superintelligenza potrebbe distruggere l'umanità con la stessa facilità con cui un bambino calpesta un ragno. Ma qui c'è una sorpresa cruciale: una superintelligenza che ha i mezzi necessari per distruggere l'umanità potrebbe non esser intenzionata a farlo. Da un lato, è assolutamente possibile per una superintelligenza essere esplicitamente maligna, e cercare di ucciderci volontariamente. Dall'altro lato, la situazione è molto più pericolosa considerando che una superintelligenza che non nutre affatto ostilità verso l'umanità potrebbe mettere a rischio l'esistenza della civiltà in modo diretto e radicale.

Pubblicità

Questo è il punto in cui gli argomenti del potere e dei valori collidono con implicazioni da incubo: se gli obiettivi di una superintelligenza non sono completamente allineati con i nostri, potrebbe usarli i suoi poteri per distruggere la nostra specie per lo stesso motivo che fa distruggere alla nostra specie colonie di formiche quando trasformiamo una terra in un cantiere di costruzione. Non è che odiamo le formiche. Piuttosto, succede che ci siano semplicemente d'intralcio, e non ci preoccupiamo molto del loro genocidio. Harris spiega bene questo punto nel suo talk.

Per esempio, immagina di dire a una superintelligenza di raccogliere più energia possibile dal sole. Cosa farebbe? Ovviamente, coprirebbe ogni centimetro quadro della terra con pannelli solari, poi distruggerebbe la biosfera. L'Homo Sapiens si estinguerebbe.

Oppure immagina di programmare la superintelligenza per aumentare il numero di paperclip nell'universo. Com'è successo nel caso appena menzionato sembra, a prima vista, di assegnare alla superintelligenza un obiettivo benevolo da raggiungere. Dopo tutto, un "catalizzatore di paperclip" potrebbe non essere ostile, bellicoso, sessista, razzista, omicida, genocida, militarizzato, o misantropo. Dovrebbe solo preoccuparsi di ottenere il maggior numero possibile di paperclip (puoi pensarlo come se fosse la sua passione nella vita.)

Quindi cosa potrebbe succedere? La superintelligenza si guarda intorno e nota qualcosa di rilevante ai fini della sua missione: gli umani sono composti degli stessi ingredienti chimici dei paperclip, chiamati atomi. Prosegue a raccogliere gli atomi contenuti in ogni corpo umano—di tutti i 7,4 miliardi di individui che abitano la terra—poi trasforma ogni uomo in un mucchio di corpi senza vita, contorti come i fili d'acciaio. Queste non sono tutte le ragioni per cui dovremmo preoccuparci di una superintelligenza, ma giustificano le serie preoccupazioni sul tema—anche se le nostre intuizioni non ascoltassero l'allarme emozionale che risuona nelle nostre teste: "Preoccupati!"

Come Harris sottolinea in questo talk, una superintelligenza non è solo una grossa sfida per le menti migliori che popolano la terra in questo secolo. Si aggiunge il problema che non abbiamo idea di quanto tempo ci impiegheremo per risolvere i problemi specificati prima, presupponendo che siano risolvibili del tutto. Un ricercatore che si occupa di intelligenza artificiale potrebbe trovare una soluzione in solo più di due anni, o potrebbe richiedere i prossimi 378 anni duranti i quali un miliardo di ore di lavoro sarà investita per ragionare su questo problema.

Questo è fastidioso perché secondo un'indagine recente di esperti, c'è un'alta possibilità che una superintelligenza si unisca a noi nel 2075, e il 10 per cento delle persone intervistate ha dichiarato che potrebbe arrivare addirittura nel 2022. Così, la superintelligenza potrebbe mostrarsi prima che noi avessimo il tempo necessario per risolvere il "problema di controllo". Ma anche nel caso in cui incombesse in un futuro lontano, non è troppo presto per cominciare a pensare a questi argomenti—o diffondere il tema attraverso i media.

Il fatto è che non appena la IA supera il livello di intelligenza umana, potrebbe essere fuori dal nostro controllo in modo permanente. Dunque, potremmo avere solo un singola possibilità per fare tutto nel modo giusto. Se la prima superintelligenza è motivata da valori incompatibili con i nostri (anche di poco), il gioco finirebbe, e l'umanità avrà perso. Forse la verità è più strana della fantascienza.