FYI.

This story is over 5 years old.

Tecnologia

La vera minaccia per l'uomo non è l'intelligenza artificiale ma la 'stupidità artificiale'

Scordatevi la paura delle super-IA che prendono il controllo. Secondo questo ricercatore, è più probabile che la nostra rovina saranno le loro incapacità.
globalsecurity.org

Gli ultimi due anni, sono stati un vero e proprio incubo per i ricercatori che lavorano nell'ambito dell'intelligenza artificiale. Provate a immaginare una folla di tecnologi celebri e autorità del mondo scientifico che tutt'a un tratto iniziano a prendere di mira il vostro campo di ricerca, indicandolo come una minaccia concreta alla stessa sopravvivenza della specie. Voi vorreste semplicemente starvene tranquilli a occuparvi di come scegliere in maniera automatica l'emoji più appropriata in ogni circostanza sulla base di analisi testuali e arriva un Elon Musk a parlare di argomenti su cui non sembra essere poi così preparato preannunciando che l'apocalisse è ormai prossima.

Pubblicità

Non che gli informatici non si siano pronunciati in merito all'hype che ha circondato il tema, eppure se un accademico di cui probabilmente non avete mai sentito parlare (ma non è così un po' per tutti gli accademici in fondo?) dichiara che siamo ancora "molto lontani" dal realizzare l'intelligenza artificiale, quell'accademico finirà per essere ascoltato molto di meno rispetto a quel tipo nominato sopra il cui lavoro sembra proprio quello di uscirsene periodicamente con dichiarazioni pubbliche roboanti. Questo mese, il ruolo di quell'accademico sconosciuto in questione viene ricoperto da Alan Bundy, professore di automated reasoning presso l'Università di Edimburgo, in Scozia. In Communications of the ACM, lo studioso sostiene che la minaccia connessa all'IA sia reale, ma non riguarda per nulla il rischio che l'intelligenza delle macchine sfugga al nostro controllo. Al contrario: il pericolo maggiore è la stupidità delle IA . Macchine maldestre e incompetenti.

Bundy fa notare come, negli ultimi anni, la maggior parte tutti i nostri più grandi successi legati all'IA riguardino in realtà compiti estremamente circoscritti. Certo, disponiamo di strumenti in grado di giocare a Jeopardy o a Go — con ottimi risultati in entrambi i casi — ma non abbiamo nulla che si avvicini alla cosiddetta intelligenza generale.

"La singolarità è basata su un modello lineare di intelligenza, un po' come il QI, in cui ogni specie animale ha il suo posto e lungo il quale l'IA sta gradualmente avanzando," scrive Bundy. "Ma l'intelligenza non funziona così. Come ha sostenuto, per esempio, Aaron Sloman, dovrebbe essere rappresentata attraverso uno spazio multidimensionale, con diversi tipi di intelligenza e l'IA dovrebbe progredire in molte direzioni diverse."

Pubblicità

Il problema è che, in realtà, il pubblico non viene a sapere queste cose, perché nessuno si preoccupa di spiegargliele. Noi possediamo l'intelligenza generale e quando vediamo uno strumento che imita dei comportamenti intelligenti presupponiamo che queste capacità siano simili all'intelligenza generale, anche se un computer che gioca a Go è per lo più condannato a continuare a fare solo quello per il resto della sua esistenza. Come scrive Bundy: "Molti esseri umani tendono ad attribuire troppa intelligenza a sistemi artifciali che eseguono compiti estremamente specifici."

Ebbene, sì: l'incompetenza delle macchine. Bundy insiste particolarmente su questo punto, perché ha fatto parte di un gruppo di informatici britannici che, nei primi anni Ottanta, si era pronunciato contro la Strategic Defense Initiative di Ronald Reagan e Edward Teller. Inizialmente, si sarebbe dovuto trattare di un sistema di intelligenza artificiale indipendente dall'intervento umano che, in teoria, avrebbe dovuto rilevare gli ICBM sovietici per disintegrargli con dei laser prima che questi rientrassero nell'atmosfera terrestre causando così la fine del mondo.

La SDI sembrava una grande idea per i politici, ma ciò che i politici non avevano capito è che l'IA necessaria a gestirla non esisteva ancora. Nei casi precedenti di preallarme per il rilevamento di missili, erano comuni i cosiddetti falsi positivi innescati da fattori come, tra le altre cose, gli stormi di uccelli e il sorgere della luna. Un falso positivo, in questo caso, avrebbe comportato una guerra nucleare.

"Per fortuna, in questi sistemi era sempre coinvolto un essere umano per interrompere qualsiasi reazione ingiustificata ai sospetti infondati di attacco," scrive Bundy. "Un gruppo di noi studiosi di Edimburgo ha incontrato gli scienziati della Difesa che lavoravano con il Ministro della Difesa per la SDI, i quali hanno ammesso di condividere la nostra analisi.  Di conseguenza, la SDI è stata successivamente convertita in un programma più sensato. Questo è un ottimo esempio di scienziati estranei all'ambito del computing che sopravvalutano le capacità delle macchine."

I ricercatori "devono diffondere queste lezioni per assicurare che vengano recepite dal maggior numero di persone possibile", aggiunge Bundy.

Lo studioso conclude sostenendo che l'IA procederà nel suo sviluppo, con macchine nuove e impressionanti che continueranno a spaventare i profeti delle sventura per le loro capacità straordinarie in ambiti relativamente ristretti, pur rimanendo "incredibilmente stupide" in tutti gli altri campi.

Il rischio rimane lo stesso degli anni Ottanta, in cui il pubblico e i politici assistevano ai successi delle macchine all'interno di questi ambiti ristretti, senza mai valutare quanto siano inappropiate a gestire attività più complesse che richiedono di avvicinarsi ai confini della cognizione umana