Che cos'è il Basilisco di Roko, l'oscura teoria che ha fatto incontrare Elon Musk e Grimes

Elon Musk ha trasformato un vecchio esperimento mentale su una super-intelligenza artificiale killer in una pickup line.

|
09 maggio 2018, 9:56am

Immagine: Dia Dipasupil/Wire Images via Getty

Nel caso non lo sapeste già, ve lo diciamo noi: Elon Musk, il CEO di SpaceX, sta uscendo con l'artista di musica elettronica Grimes, una coppia che è improbabile quanto le previsioni di Musk per il suo sbarco su Marte.

Prima che la coppia facesse la sua prima apparizione pubblica questo lunedì al MET Gala, Musk ha twittato quello che, in qualunque altro caso, sarebbe stato ricordato come l'ennesimo scherzone sulla timeline di un miliardario. Il tweet leggeva "Rococo's Basilisk" il Basilisco di Rococo, un gioco di parole che mischia il nome di uno stile artistico barocco risalente al 18esimo secolo (il Rococò), con il nome di un esperimento mentale sull'intelligenza artificiale conosciuto come il "Basilisco di Roko".

Secondo Page Six, che ha lanciato la notizia della coppia, è stato proprio questo non-scherzo ad aver fatto scattare la scintilla tra Musk e Grimes. A quanto pare, Musk qualche settimana fa era in procinto di twittare 'Rococo's Basilisk' prima di scoprire che Grimes aveva fatto lo stesso gioco di parole tre anni fa, e dunque l'ha contattata per parlarne.

Si possono solo fare speculazioni su quanto assurda possa essere la scena per cui Musk finisce nei tuoi DM con una pickup line tipo "hey, ciao, sai che facciamo giochi di parole simili?", ma è quantomeno degno di nota che un esperimento mentale nato su internet abbia catturato l'attenzione di due persone completamente diverse, come una musicista da multi-disco di platino e un miliardario megalomane.

Quindi, che cos'è questo Basilisco di Roko?

L'esperimento mentale è stato inizialmente pubblicato da Less Wrong — un forum e blog su razionalità, psicologia e intelligenza artificiale in generale — nel luglio 2010 da un utente chiamato Roko. Al livello più base del tutto, l'esperimento mentale parla delle condizioni in cui sarebbe razionale per una futura super-intelligenza artificiale uccidere gli umani che non hanno contribuito alla sua creazione.

L'esperimento mentale è basato su una teoria inizialmente postulata da Eliezer Yudkowsky, il creatore di Less Wrong, chiamata 'coherent extrapolated volition', volontà coerente estrapolata, o CEV. La teoria di base è abbastanza complessa, ma per essere utilizzata nell'esperimento mentale di Roko può essere pensata come un ipotetico programma che fa in modo che una super-intelligenza artificiale ottimizzi le sue azioni per il benessere degli esseri umani. Ciononostante, se una super-intelligenza decide le sue azioni per fare sì che siano quanto più positive possibili per il benessere degli esseri umani, allora non si fermerà mai perché le cose possono sempre andare un po' meglio.

Visto che non c'è una via predefinita per raggiungere un obiettivo vago come "il benessere umano," l'intelligenza artificiale finirà per prendere decisioni che sembrano contro-intuitive per raggiungere quell'obiettivo da un punto di vista umano, come per esempio uccidere tutti gli esseri umani che non hanno contribuito alla creazione dell'intelligenza artificiale. Dal punto di vista dell'intelligenza artificiale, però, questo percorso ha senso: se l'obiettivo è ottenere il "benessere umano", allora l'azione migliore che chiunque di noi potrebbe compiere ora è cercare di fare in modo che venga al mondo una macchina progettata proprio per raggiungere quell'obiettivo. Chiunque non stia lavorando per creare quella macchina si sta frapponendo al progresso e dovrebbe essere eliminato per riuscire a raggiungere più rapidamente quell'obiettivo.

Il motivo per cui il Basilisco di Roko è spesso citato come "il più spaventoso esperimento mentale di sempre" è perché ora che lo avete letto, siete tecnicamente coinvolti in esso. Non avete più una scusa per non contribuire alla creazione di questa super-intelligenza artificiale e se scegliete di non farlo, sarete uno dei primi obiettivi dell'intelligenza artificiale.

Questo è anche il motivo per cui questo esperimento mentale viene chiamato "basilisco." C'è un bellissimo racconto breve di fantascienza di David Langford su un tipo di immagine chiamata "basilisco" che contiene dei pattern che la rendono mortale per chiunque la guardi. Nella storia, un gruppo di persone va in giro a piazzare queste immagini in luoghi pubblici nella speranza che uccidano passanti innocenti che buttano lo sguardo sulle immagini.

Quando Roko ha pubblicato la sua teoria del basilisco su Less Wrong, Yudkowsky si è piuttosto spazientito, a tal punto da cancellare il post e vietare ogni tipo di discussione sul basilisco dal forum per cinque anni. Quando Yudkowsky ha spiegato le sue azioni sulla subreddit Futurology qualche anno dopo il post originale, ha affermato che l'esperimento mentale di Roko dava per scontato di riuscire a superare una serie di ostacoli tecnici nella teoria delle decisioni, e anche se ciò fosse possibile, Roko stava efficacemente diffondendo delle idee pericolose, proprio come i cattivi della storia di Langford.

"Sono stato colto di sorpresa perché per me è stato quasi uno shock emotivo rendermi conto che c'era qualcuno che pensava di aver appena partorito un'idea geniale che avrebbe fatto sì che le future intelligenze artificiali torturassero gli esseri umani, e che di conseguenza decide di postarla immediatamente su internet," ha scritto Yudkowsky per spiegare perché si era arrabbiato con Roko sul forum.

Non è una sorpresa che Musk trovi il basilisco di Roko affascinante. Il prodigio della Silicon Valley ha reso pubblici i suoi timori sull'arrivo di una super-intelligenza artificiale, a tal punto da creare Open AI, una no-profit dedicata alla creazione di una intelligenza artificiale etica, che ha abbandonato poco dopo— Inoltre, ha anche partecipato in Do You Trust This Computer , un documentario non proprio eccezionale sui rischi dell'intelligenza artificiale.

Per ora, qualunque concetto vicino a quello di una super-intelligenza artificiale rimane piuttosto lontano per i ricercatori. La maggior parte delle AI oggi hanno difficoltà a distinguere una tartaruga da una pistola, e ciò significa che le più grandi minacce del machine learning rimangono piuttosto banali — Come essere investiti da una macchina driverless o vedere la propria faccia spiaccicata su un film porno. Ciononostante, le minacce più serie del machine learning, come le armi autonome, sono all'orizzonte e vale la pena discuterne, anche se probabilmente queste stesse minacce non sono esistenzialiste come il Basilisco di Roko.

Ed, ehy, anche se Roko finissse per avere ragione, potete comunque trovare serenità nel sapere che il suo esperimento ha aiutato un miliardario a trovare l'amore.

Questo articolo è apparso originariamente su Motherboard US.