FYI.

This story is over 5 years old.

Tecnologia

Come condividere il pianeta con l'intelligenza artificiale

È tempo di prepararsi al Macchinocene.
Il robot Octavia alla mostra dell'Office of Naval Research (ONR). Immagine: John F. Williams/US Navy

L'intelligenza di livello umano è un concetto familiare quando si parla di hardware biologici—ne state usando uno in questo momento. Scienza e tecnologia sembrano convergere, da diverse direzioni, sulla possibilità di un'intelligenza simile nei sistemi non-biologici. È difficile predire quando la cosa diventerà realtà, ma la maggior parte degli specialisti in intelligenza artificiale (IA) ritengono che le probabilità che avvenga entro il prossimo secolo siano alte.

Pubblicità

Libero da costrizioni biologiche, come il fatto che un cervello umano debba passare attraverso un canale di parto con una certa capacità (e che consuma l'equivalente di una lampadina da 20W), le macchine non-biologiche potrebbero diventare molto più intelligenti di noi. Ma cosa implica questa ipotesi? Il ricercatore in IA Stuart Russell suggerisce che, nel bene e nel male, sarebbe 'l'evento più importante nella storia dell'umanità.' Indubbiamente, le scelte che compiamo in questo secolo avranno conseguenze di lungo termine non solo per il nostro pianeta, ma per tutta la galassia, come ha fatto notare l'astronomo reale inglese Martin Rees. Il futuro dell'intelligenza nel cosmo potrebbe dipendere da cosa facciamo ora, qui sulla Terra.

Dovremmo preoccuparci? Parliamo di macchine intelligenti da generazioni—cosa c'è di nuovo?

Tanto per cominciare, sono cambiati due grossi fattori negli ultimi decenni. Primo: c'è stato un reale progresso—teorico, pratico e tecnologico—nella comprensione dei meccanismi dell'intelligenza, biologica e non-biologica. Secondo: la IA ha raggiunto un punto in cui è immensamente utile per una miriade di compiti. Di conseguenza, ha un valore commerciale enorme, che attira grossi investimenti—un processo che sembra destinato a continuare e probabilmente anche ad accelerare.

In un modo o nell'altro, allora, ci troveremo presto a condividere il pianeta con un bel po' di intelligenza non-biologica. Qualsiasi rivoluzione comporti, questo futuro è da affrontare insieme. condividiamo un ovvio interesse nel fare le cose per bene. Ed è fondamentale riuscirci al primo tentativo. Esclusa l'ipotesi che una calamità metta fine alla civiltà tecnologica in cui viviamo senza condannarci all'estinzione totale, non saremo mai più dove siamo ora.

Pubblicità

Ci sono stati segnali incoraggianti di una crescita di consapevolezza a riguardo dell'argomento. Migliaia di ricercatori in IA e altri hanno firmato una lettera aperta chiedendo al mondo della ricerca che la IA sia sicura e di beneficio. Più di recente, è iniziata la Partnership on AI to Benefit People and Society, che coinvolge Google, Amazon, Facebook, IBM e Microsoft.

Per il momento, l'attenzione è soprattutto sulla sicurezza, e sui benefici e l'impatto previsti per il breve termine (sul mondo del lavoro, per esempio). Ma per quanto queste domande siano pressanti, non sono le uniche su cui dovremmo concentrarci. Prendiamo in prestito un esempio da Jaan Tallinn, ingegnere fondatore a Skype. Immaginate che l'umanità possa già viaggiare nello spazio su enormi astronavi. Sarebbe di massima importanza assicurarsi che queste astronavi fossero sicure e sotto controllo, e che chiunque a bordo ricevesse vitto e alloggio consoni. Fattori cruciali, ma non sufficienti di per sé. Dovremmo anche fare del nostro meglio per capire dove ci stia portando la flotta, e come fare per deviarla verso l'opzione di arrivo migliore. Potrebbero esserci mondi paradisiaci ad aspettarci là fuori, ma c'è un sacco di spazio buio e freddo di qui a lì. Avremmo bisogno di sapere dove stiamo andando.

Parlando del futuro a lungo termine della IA, ci sono buone ragioni per essere ottimisti. Potrebbe aiutarci a risolvere tanti dei problemi pratici che sono insormontabili per i nostri cervelli limitati. Ma quando si tratta di pensare a che aspetto avrà la cartografia del futuro, quali parti siano migliori o peggiori, e come puntare ai risultati migliori—su questo siamo ancora a dir poco ignoranti. Abbiamo una vaga idea delle regioni che conviene evitare, ma grossa parte della mappa resta terra incognita. Sarebbe più noncuranza che ottimismo pensare di poter aspettare e vedere come va.

Pubblicità

Uno dei lungimiranti personaggi che hanno colto i segni di questo futuro è stato il grande Alan Turing. "Sembra probabile che una volta che il metodo di pensiero della macchina avrà preso corpo, non ci vorrà molto perché superi le nostre deboli capacità," ha scritto in una lezione del 1951. Nell'articolo del 1950 relativa al cosiddetto Test di Turing, progettato per valutare la facilità con cui attribuiamo un'intelligenza di tipo umano a una macchina, Turing conclude con queste parole: "Possiamo vedere solo poco davanti a noi, ma possiamo vedere tante cose che bisogna fare." Abbiamo superato da un pezzo l'orizzonte di Turing, ma questo progresso non allevia la sensazione che ci siano ancora domande cui dobbiamo cercare di rispondere. Al contrario—viviamo sotto il peso di pressioni che ci porteranno presto oltre il nostro orizzonte presente e, rispetto a Turing, abbiamo maggior motivo di pensare che ad aspettarci ci sia qualcosa di proporzioni titaniche.

Se stia sviluppando macchine in grado di pensare, assicurarci che siano sicure e benefiche è una delle sfide intellettuali e pratiche più impegnative di questo secolo. E dobbiamo affrontarla tutti insieme—la questione è troppo ampia e cruciale per essere soggetta a una sola istituzione, azienda o nazione. I nostri nipoti, o i nipoti dei nostri nipoti, vivranno in era diversa, forse più Macchinocene che Antropocene. La nostra missione è effettuare questa transizione epocale nel modo migliore possibile, per loro e per le generazioni a seguire. Abbiamo bisogno della migliore intelligenza umana per creare la migliore intelligenza artificiale.

Stuart Russel e Martin Rees sono affiliati al nuovo Leverhulme Centre for the Future of Intelligence all'università di Cambridge, dove Huw Price è dirigente accademico.

Martin Rees e Jaan Tallinn sono co-fondatori del Centre for the Study of Existential Risk all'università di Cambridge, dove Huw Price è dirigente accademico.

L'articolo è stato pubblicato in origine su Aeon, ed è stato ripubblicato sotto Creative Commons.