FYI.

This story is over 5 years old.

Tecnologia

Tranquilli, la vera intelligenza artificiale deve ancora arrivare

Ha senso temere l'arrivo di un'intelligenza artificiale che possa ritorcersi contro di noi?

Si fa presto a dire "intelligenza artificiale" e a immaginare un futuro prossimo dominato dalle macchine, in cui l'umanità è stata ridotta in schiavitù da robot capaci di spezzare le catene informatiche che li costringevano a obbedire ai nostri ordini. Il timore, come noto, è stato espresso da personaggi del calibro di Bill Gates, Elon Musk e Stephen Hawking e a volte se ne parla come se questo futuro fosse dietro l'angolo, questione di pochi anni.

Pubblicità

Le cose—fortunatamente—sono più complicate di così. Ci sono tre diverse classificazioni di intelligenza artificiale: l'intelligenza artificiale limitata (una AI in grado di fare una cosa sola), l'intelligenza artificiale generale (una AI in grado di fare ogni cosa a livello umano), la superintelligenza artificiale (in grado di svolgere molteplici compiti a un livello superiore a quello umano). Inutile a dirsi, al momento siamo fermi all'intelligenza artificiale limitata.

Il robot che ha battuto il campione di Go, l'algoritmo che permette a Facebook di riconoscere i volti umani, quello che permette a Google Translate di tradurre—malissimo—da una lingua all'altra, quello che guida le self-driving car e pure il filtro che separa lo spam dalle mail che vogliamo ricevere: sono tutti esempi di ANI (artificial narrow intelligence) e—anche impegnandosi tantissimo—è davvero difficile immaginare un filtro anti-spam che prende il comando del mondo.

Questo vale a maggior ragione se si considera il modo in cui queste intelligenze apprendono a fare ciò che fanno, un metodo che di intelligente ha davvero poco e che va sotto il nome di machine (o deep) learning: "Quando la gente parla di intelligenza artificiale, non fa davvero riferimento all'intelligenza artificiale. Si riferiscono al metodo forza bruta", ha spiegato al New Scientist il professor Roger Schank della Northwestern University.

Avete presente quando una password viene crackata inserendo una quantità immensa di diverse combinazioni fino a quando non si riesce ad azzeccare quella giusta? Il concetto alla base non è poi così dissimile: un algoritmo che deve imparare a riconoscere un gatto non va in cerca di orecchie a punta, baffi, coda, ecc. ecc.; ma viene sottoposto a centinaia di migliaia di foto di gatti, finché non impara a riconoscerli. Non solo non c'è intelligenza, ma non c'è neanche apprendimento: quell'algoritmo non ha la più pallida idea di che cosa sia un gatto, così come il robot che ha battuto Kasparov a scacchi non aveva la più pallida idea di che cosa stesse facendo.

Pubblicità

Non c'è intelligenza, non c'è apprendimento: c'è un network neurale dalla potenza di calcolo tale da imparare, a un certo punto, il compito per il quale è stato addestrato. La cosa interessante—nonché il "lato oscuro" della vicenda—è che una volta che l'algoritmo ha imparato a riconoscere un gatto, il suo programmatore non ha modo di capire come è riuscito nel suo compito: "Non puoi entrare dentro il network neurale e vedere cos'è successo", ha spiegato il co-creatore di Android, Andy Rubin, a Wired USA. "È come il cervello umano: non puoi tagliarti la testa e vedere a cosa stavi pensando." Si vede solo una marea di matematica, un algoritmo capace di mettere in relazione milioni di dati fino a generare supposizioni sul mondo.

"Non puoi entrare dentro il network neurale e vedere cos'è successo [] è come il cervello umano: non puoi tagliarti la testa e vedere a cosa stavi pensando."

Probabilmente è questo l'aspetto più impressionante del deep-learning. Il funzionamento è drasticamente diverso dai classici software, che agiscono in base a un codice che dice loro passo dopo passo che cosa devono fare: i programmi basati sul deep learning, invece, imparano da soli. Ma da qui a essere davvero intelligenti ce ne passa: per imparare a riconoscere una mucca, un'intelligenza artificiale deve mettere a confronto centinaia di migliaia di foto di mucche. A un bambino ne basta una.

Tutto ciò dovrebbe bastare a farci dormire sonni tranquilli sul futuro della nostra specie. Filosofi della tecnologia come Luciano Floridi, professore di Oxford, hanno insistito molto sulla mancanza di un nesso tra la capacità di assolvere a un compito ben preciso e lo sviluppo di una coscienza. Ma non tutti la pensano come lui, e anzi c'è chi già fornisce le date relative allo sviluppo dell'intelligenza artificiale generale (più o meno attorno al 2040) e soprattutto relative all'avvento della superintelligenza artificiale: il 2060. Stando ai teorici della singolarità tecnologica, la superintelligenza si verificherà nel momento in cui le intelligenze artificiali generali inizieranno a sviluppare una serie di cicli di auto-miglioramento, ognuno dei quali porterà progressi qualitativi e quantitativi sempre più rapidi, fino a causare un'esplosione di intelligenza tale da sorpassare di gran lunga quella umana.

Pubblicità

Immagine. Via: wikimedia.

Lo scenario è da incubo, ma potrebbe non aver fatto i conti con il più terreno dei problemi: la quantità enorme di energia di cui un computer del genere avrebbe bisogno. Senza addentrarci troppo negli aspetti tecnici, possiamo ancora affidarci a Luciano Floridi: "C'è un possibile enorme segnale di stop per qualunque corsa verso una vera intelligenza artificiale. Le stime di ciò di cui avremmo bisogno in termini di potenza di calcolo per avvicinarci alla qualità del cervello umano (misurata dalla velocità e complessità delle operazioni) parlano di un livello di efficienza energetica che dovrebbe essere di circa un miliardo di volte migliore di quello che viene considerato come il massimo possibile dell'efficienza energetica di un computer."

La legge di Moore. Fonte: Wikimedia.

A livello teorico, ovviamente, non si può escludere che i progressi tecnologici rendano risibili le previsioni odierne; ma ci sono parecchi altri ostacoli da superare. Per esempio, quello relativo alla fine della Legge di Moore (secondo la quale il numero di transistor presenti in un microprocessore raddoppia ogni due anni; legge che è stata valida, con qualche correzione, fin dal 1965, ma che ha già subito uno stop e sarà invalidata a partire dal 2021). I progressi tecnologici, finora, si sono basati proprio su questa legge: "Uno dei più importanti benefici della Legge di Moore era la possibilità di coordinarsi", ha spiegato Neil Thompson del MIT di Boston. "Sapevo che in due anni avrei potuto contare su una certa quantità di potenza e che potevo quindi sviluppare una determinata funzionalità." Il suo stop, quindi, pone una grossa incognita così come l'eccessivo consumo di energia richiesto dai chip di ultima generazione.

Non siamo alla fine del progresso tecnologico, come dimostrano i primi algoritmi in grado di imparare di più con meno dati e come dimostra il nuovo chip sviluppato da Nvidia: il Tesla P100. Costato due miliardi di dollari, ha al suo interno 15 miliardi di transistor—con componenti delle dimensioni di 10 nanometri—e dovrebbe permettere di processare dati 12 volte più rapidamente del precedente chip sviluppato dalla casa statunitense; ma quanto ancora si potrà ridurre la dimensione dei transistor, che già oggi sono costituiti da poche decine di atomi? Al netto delle potenzialità, ancora tutte da scoprire, dei computer quantistici, il timore sottolineato da tanti esperti è che la tecnologia si stia avvicinando ai limiti fisici; mentre una vera intelligenza artificiale è ancora molto lontana da venire.