Tecnologia

Perché questa donna inquietante continua ad apparire nelle immagini di IA?

La donna, che l’artista Supercomposite chiama “Loab”, è stata scoperta usando una tecnica chiamata “negative prompt weight”.
Janus Rose
New York, US
Giacomo Stefanini
traduzione di Giacomo Stefanini
Milan, IT
Images generated by AI featuring a woman with brown hair and rosey cheeks.
Immagini generate da Supercomposite

I generatori di immagini tramite intelligenza artificiale (IA) come DALL-E e Midjourney sono sulla bocca di tutti ultimamente, ed è facile capire perché. Utilizzando modelli di machine learning addestrati su miliardi di immagini, questi sistemi posseggono il fascino del modello black box e creano opere dall’apparenza aliena ma anche stranamente familiare.

Naturalmente, ciò rappresenta un terreno fertile per ogni sorta di leggenda urbana sulle intelligenze artificiali, visto che nessuno è davvero in grado di spiegare come queste complesse reti neurali decidano quali immagini produrre. L’ultimo esempio viene da un artista di nome Supercomposite, che ha postato immagini generate di una donna dall’aria inquietante e grottesca, che apparirebbero in risposta ad alcune specifiche query.

Pubblicità

La donna, che l’artista chiama “Loab”, è stata scoperta usando una tecnica chiamata “negative prompt weight” (“prompt con peso negativo”) che prevede che il sistema di IA generi un’immagine opposta alla richiesta dell’utente (prompt). Detto in poche parole, a un termine si può applicare un “peso” nel dataset che determina la probabilità che questo appaia nel risultato. Assegnandogli un peso negativo, è come se dicessi alla IA: “Genera quello che tu ritieni sia l’opposto di questa parola.”

In questo caso, usando la tecnica del peso negativo sulla parola “Brando”, Supercomposite ha ottenuto un logo con lo skyline di una città e le parole “DIGITA PNTICS.” Quando, come prova del 9, l’utente ha provato a usare la tecnica del peso negativo con le parole riportate nel logo, invece di un’immagine di Marlon Brando è comparsa Loab.

“Visto che Loab è stata scoperta usando un prompt con peso negativo, la sua gestalt è frutto di una raccolta di tratti che sono ugualmente distanziati da qualcosa,” Supercomposite ha riflettuto in un thread su Twitter. “Ma i suoi tratti combinati sono comunque un concetto coerente per la IA e quasi tutte le immagini discendenti da questa contengono una Loab riconoscibile.”

Pubblicità

Le immagini sono rapidamente diventate virali sui social media, portandosi dietro ogni sorta di speculazione su cosa potrebbe essere la causa di questo sinistro fenomeno. La cosa più inquietante è che Supercomposite sostiene che quasi ogni singola immagine generata a partire dalla prima Loab tenda a scenari horror, esplicitamente violenti e gore. Ma per quante variazioni vengano fatte, tutte le immagini sembrano contenere lo stesso terrificante volto di donna.

“A causa di chissà quale incidente statistico, qualcosa associa questa donna a un immaginario estremamente sanguinoso e macabro nella distribuzione della conoscenza del mondo della IA,” ha scritto Supercomposite.

Non è chiaro quali strumenti IA siano stati usati per generare queste immagini e Supercomposite ha rifiutato di specificarlo una volta contattato via DM su Twitter.

“Non posso confermare né smentire di quale modello si tratta per varie ragioni sfortunatamente! Ma posso confermare che Loab esiste in vari modelli di generazione di immagini via IA,” ha detto a Motherboard.

Quindi Loab è una specie di presenza all’interno del sistema, un sussurro dei dataset della IA che ha preso forma umana? O è soltanto un’illusione nata dal desiderio umano di mettere ordine nel caos della generazione casuale?

Purtroppo è praticamente impossibile sapere esattamente che cos’è. I sistemi di generazione di immagini via IA usano modelli che hanno assorbito miliardi di immagini e sono decisamente troppo complessi perché i risultati siano compresi da noi. Ironicamente, questo è esattamente il motivo per cui gli eticisti della IA hanno sconsigliato l’uso di grandi modelli di linguaggio come quello usato da DALL-E: sono troppo estesi e i loro risultati troppo imprevedibili per poter evitare risultati potenzialmente nocivi.

Mentre OpenAI ha implementato alcuni controlli manuali per DALL-E che bloccano e filtrano certi termini—per impedirle di generare immagini finte di celebrità, per esempio—altri modelli di IA come Stable Diffusion possono essere semplicemente messi su host indipendenti. Questo ha portato alcuni appassionati a creare la loro versione privata del software e a usarla per generare ogni sorta di bizzarra pornografia e qualunque altro contenuto a cui i creatori potrebbero opporsi.

Potremmo non scoprire mai come e perché i modelli IA generano anomalie inquietanti come Loab, ma è anche in parte ciò che le rende intriganti. Non tanto tempo fa, un altro gruppo di artisti IA hanno annunciato di aver scoperto un “linguaggio nascosto” dentro a DALL-E, ma ogni tentativo di replicare la scoperta si è rivelato infruttuoso.

Per ora, questi fenomeni funzionano come un creepypasta nell’epoca delle intelligenze artificiali: una cosa che ci affascina e terrorizza dai limiti della nostra comprensione.