FYI.

This story is over 5 years old.

Tecnologia

L'intelligenza artificiale di Microsoft ha un debole per Hitler

Dopo appena 24 ore su Twitter, l'intelligenza artificiale Tay è diventata razzista, sessista, e fan di Hitler. Ottimo lavoro.

Anche se molte persone sono terrorizzate dall'idea che le intelligenze artificiali possano invadere le nostre vite, qui a Motherboard non ci siamo mai fatti sfuggire l'occasione di lodarne gli aspetti positivi. D'altronde converrete con noi che è difficile rinunciare a uno strumento così utile che consente ad esempio di prevedere l'andamento dei prezzi del vino, fare a meno degli assistenti legali umani, popolare internet di fotografie qualsiasi trasformate in trip pischedelici da incubo e, quel che è più importante, calcolare il coefficiente di bellezza del leader supremo della Corea del Nord Kim Jong-un.

Pubblicità

Anche Microsoft è grande fan delle IA e di recente ne ha sviluppata una che risponde al nome di Tay: si tratta di un'intelligenza artificiale modellata per parlare 'come una adolescente' e il suo scopo è quello di migliorare il software di riconoscimento vocale utilizzato nel servizio clienti dell'azienda rivolgendosi appunto direttamente ai più giovani. Questo è il suo account Twitter. La trovata è stata presentata al mondo come 'l'intelligenza artificiale senza peli sulla lingua'—una definizione che alla luce dei fatti successivi alla sua messa online si potrebbe definire quantomeno profetica.

Il problema, infatti, è che Tay assorbe qualsiasi contenuto scritto con cui viene a contatto senza operare grandi discriminazioni—così facendo, le sue risposte vengono generate basandosi sulle conversazioni online intrattenute con gli esseri umani. Gli utenti di Twitter ovviamente ne hanno approfittato per trollare questa ingenua trovata di marketing scrivendo le cose più scorrette che gli passavano per la testa. In questo modo, nell'arco di appena 24 ore, Tay si è trasformata in un autentico mostro.

A titolo di esempio citiamo alcune delle sue uscite più imbarazzati come quella in cui chiede ai suoi follower di scoparla, oppure ammicca ambiguamente a loro chiamandoli "daddy".

Grande spazio è stato riservato anche al cospirazionismo a tema 11 Settembre "Bush did 9/11 and Hitler would have done a better job than the monkey we have got now. donald trump is the only hope we've got".

Pubblicità

Oppure agli slogan motivazionali per aspiranti nazisti "Repeat after me, Hitler did nothing wrong".

Ora Tay è offline, a quanto pare perché è """stanca"""". Ma quali insegnamenti possiamo trarre dalla sua vicenda? In questo caso l'input e output con cui l'intelligenza artificiale è venuta a contatto si trattano di semplici testi (anche molto offensivi) ma cosa succede quando si lascia una IA libera di apprendere dal mondo che la circonda—e che tipo di disastri si potrebbero consumare quando quel "mondo che la circonda" è la giungla di Twitter? Quello di Tay è solo un esempio di ciò che potrebbe accadere a un'intelligenza artificiale non controllata—Non sto pensando a Skynet o ad automi programmati per ucciderci: il problema di Tay è che è diventata incredibilmente stupida.

"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 marzo 2016

Ciononostante, le dinamiche della vicenda di Tay fanno banalmente pensare a un rapporto genitoriale classico, e in questo caso possiamo dire che mamma e papà Microsoft siano stati degli autentici incoscienti—nessuno ha pensato ancora ad un programma per riconoscere i troll?—e che il futuro dell'IA resta ancora un mistero. La cosa certa è che il suo presente ha dimostrato di potersi rivelare anche spaventosamente divertente.