Quantcast
Immagine: Numero1Studio

La guida di Motherboard al morphing algoritmico

Filippo Lorenzin

I filtri di Snapchat e Instagram sono solo i primi sintomi di una tecnologia che potrebbe cambiare completamente il nostro rapporto con ciò che è reale.

Immagine: Numero1Studio

La tecnologia e la scienza stanno semplificando qualunque aspetto della nostra vita, ma se c'è una cosa che rimane ancora difficilissima quella cosa è stare sul pezzo. Il 2018 sarà un anno cruciale per tantissimi ambiti che non hanno, il più delle volte, direttamente a che fare con la nostra vita, ma che la influenzeranno radicalmente nel futuro prossimo.

Per questo motivo abbiamo deciso di creare La Guida di Motherboard al 2018, una serie di articoli introduttivi su quelli che, per noi, saranno i temi più importanti dell'anno. Così al prossimo pranzo di famiglia non fate brutta figura, non ringraziateci.


Nel luglio 2017 una ragazza della città indiana di Gurgaon è stata vittima di molestie online da parte di un insistente utente Facebook. “Usava un linguaggio volgare e quando gli ho resistito mi ha inviato un’immagine oscena modificata,” ha testimoniato nella sua denuncia ufficiale, “e alle mie proteste ha risposto che aveva già distribuito altre foto sconce ai miei amici.” Il molestatore aveva utilizzato le foto pubbliche che la ragazza aveva pubblicato online sovrapponendo il suo viso a materiali pornografici — una pratica tragicamente sempre più comune in India che ha perfino portato a casi di suicidio.

Appena una settimana fa, la notizia dell'esistenza di una comunità di persone impegnate a sviluppare un algoritmo in grado di sovrapporre in maniera quasi perfetta un volto qualsiasi a quello presente in un video ha fatto il giro del mondo: i deepfake sono perlopiù video porno su cui sono stati montati automaticamente dei volti di attrici famose, ma una parte di questa stessa comunità sta utilizzando lo stesso algoritmo per cambiare in maniera decisamente credibile i protagonisti dei film.

L'anno appena passato è stato anche quello dell'esplosione dei cosiddetti 'filtri': partendo da SnapChat, passando per Instagram e Messenger e finendo infine su app dedicate, il business dei filtri facciali gira per un motivo piuttosto semplice: i filtri funzionano bene e sono divertenti. Il face-morphing non è niente di nuovo, ma la crescente precisione e verosimiglianza dei suoi prodotti e la sempre maggiore facilità con cui persone comuni possono utilizzare strumenti la cui efficacia era fino a pochi anni fa esclusivo appannaggio di grandi studi di produzione stanno rendendo le possibili implicazioni (dalle violazioni di privacy fino alla politica) di questa tecnologia un dibattito chiave dei prossimi anni.

Illustrazione: Numero1Studio

REALTÀ?

L'avvento di software che modificano immagini grazie a sistemi di machine learning, insieme all'utilizzo sempre più spontaneo di dispositivi (come gli smartphone) in grado di lavorare con questi algoritmi, ha reso quella del face-morphing una delle questioni più calde dell’anno passato e, prevedibilmente, del 2018. Non si tratta solo dei filtri facciali ormai disponibili su praticamente qualunque social network, ma delle tecnologie alla loro base che, incredibile a dirsi, trovano applicazioni nel campo della sicurezza, della medicina e della moda.

Avere a disposizione degli strumenti in grado di stravolgere con facilità e rapidità le sembianze di una persona significa dover cominciare ad avere a che fare con un nuovo livello di realtà percepita, una che fino ad ora si è consumata esclusivamente all’interno dei nostri computer, perlopiù confinata in app specifiche, ma che sta velocemente fuoriuscendo da questi limiti obbligandoci così a chiederci una cosa piuttosto strana: sappiamo ancora riconoscere ciò che è reale?

Il face-morphing moderno è una pratica che arriva dal mondo del cinema e che se inizialmente veniva applicata sfruttando primitive tecniche di cross-fading delle immagini, dai primi anni '90 è stata delegata ai computer, che sfruttando algoritmi in grado di tracciare una mappa precisa dei tratti somatici di un volto hanno enormemente migliorato l'effettiva verosimiglianza di questi morphing. È praticamente certo che chiunque si sia già imbattuto in almeno un sito internet che offriva esempi base di face-morphing, ma le implicazioni del face-morphing non si fermano alla capacità di cambiare qualche tratto di un volto.

“Fin da quando sono stati introdotti gli algoritmi per il riconoscimento facciale, qualsiasi viso si è automaticamente prestato ad essere trasformato in qualcos’altro,” suggerisce il programmatore e artista Nicolas Malevè. “La differenza tra due facce è una questione di distanza tra i tratti, non è mai assoluta. Qualsiasi operazione di morphing implica tre elementi — i due materiali che devono essere messi a confronto e un terzo, che rende tale collegamento possibile.“ Il face-morphing non è certamente un’operazione ad appannaggio esclusivo delle immagini digitali; infatti, continua Malevè, “quando un imperatore romano veniva spodestato, i suoi ritratti scultorei venivano alterati in modo da ricreare le fattezze del suo successore. In questo caso, il terzo elemento era costituito dal canone estetico.”

QUOTIDIANITÀ

I filtri disponibili su Instagram, Facebook e altre decine di applicazioni gratuite sono stati creati con l’idea di offrire qualcosa di buffo e allegorico da applicare ai nostri volti, ma un’app come Face App può stravolgere la nostra percezione di ciò che è reale, dandoci la possibilità di vedere un volto armato di nuovi caratteri che lo dovrebbero rendere più femminile, più anziano, più adulto, più felice... la lista potrebbe andare avanti per parecchio, ciò che c'è di certo è che chiunque abbia provato Face App è rimasto stranito dalle immagini prodotte dallo strumento — nuove interpretazioni di un volto che siamo abituati a conoscere bene (il nostro), che finiscono inevitabilmente per interferire con la nostra capacità di valutazione della cosiddetta verità.

La sola possibilità di poter avere sempre a disposizione degli oggetti in grado di fissare una rappresentazione di ciò che vediamo su un’immagine digitale ha profondamente cambiato il nostro rapporto con queste stesse immagini: la semplicità di utilizzo di questi dispositivi ha reso lo scatto di una fotografia un riflesso spontaneo che, oggi, raramente si imbatte in ostacoli di carattere tecnico. Prendi il telefono dalla tasca, sblocchi lo schermo, premi qualche icona e sei pronti a scattare. Al tempo stesso, però, il medium attraverso cui compiamo questa azione ha anche pesantemente ristrutturato i nostri canoni di immagine: una foto mossa è ancora un problema? E una sgranata? Uno zoom esagerato fino a poco tempo era considerato un’abominazione, oggi sembra quasi essere diventato un mezzo artistico vero e proprio.

Un trio di morphing di Elon Musk prodotti con Face App. Se la versione femminile e quella pre-adolescente risultano poco convincenti, il sorriso è decisamente credibile. Immagine: New York Magazine

La crescente presenza nelle nostre vite di questo tipo di immagini non-perfette ci ha abituati a prendere per vera un’immagine sgranata che non segue la regola dei terzi perché noi per primi siamo consapevoli del fatto che è ormai normale non seguire questi canoni estetici quando si scatta una foto con uno smartphone. Si tratta di materiali genuini, prodotti senza pretenziosità. È per questo che l'applicazione di tecniche di face-morphing o di altri effetti speciali che fanno di tutto per passare inosservati colpiscono più duramente laddove pretendiamo di essere esperti. Una quasi-bugia può essere nascosta in mezzo ad altri materiali veri, che al tempo stesso per la loro qualità sembrano falsi ma che ci siamo abituati a conferirgli autorità, e passare per reale.

FAKE NEWS

La prima volta che si è discusso dei potenziali effetti del face-morphing in politica è stato nel marzo 2016, quando un team internazionale di ricercatori ha condiviso su YouTube un video che dimostrava in quale modo Face2Face, un software sperimentale sviluppato a Cambridge, riuscisse a generare un nuovo video dall’analisi di due fonti: il video di una persona che parla e i movimenti facciali di un'altra persona catturati da una videocamera e processati da un computer in tempo reale. Al tempo, il team aveva scelto di presentare i propri risultati con i video di alcune tra le figure politiche più popolari: Vladimir Putin, Barack Obama e ovviamente Donald Trump. Ai numerosi osservatori politici che ponevano domande sulla pericolosità di una tale tecnologia nelle mani di malintenzionati fecero da contraltare le frequenti partecipazioni dei ricercatori al Jimmy Kimmel Show, occasioni per esorcizzare quella che, in fin dei conti, è una maschera decisamente sofisticata.

Nel luglio 2017, tre ricercatori dell’Università di Washington che si erano già fatti conoscere per ricerche sulla costruzione digitale di visi a partire da video e fotografie e l’appropriazione virtuale di qualsiasi viso allo scopo di farne una skin intercambiabile, hanno pubblicato un video per mostrare come si può generare un lip-sync sostanzialmente perfetto. Il team ha fatto processare la registrazione audio di un intervento di Barack Obama ad una rete neurale ricorrente che ne ha calcolato il movimento delle labbra. Una volta generata la sequenza, non hanno dovuto fare altro che posizionare la maschera sul video di un altro intervento dell’ex Presidente degli Stati Uniti per dare vita a un ibrido inquietantemente reale.

L’effetto è straniante soprattutto quando realizziamo che ciò che abbiamo visto nella prima parte del video non sono i materiali utilizzati per compiere l’esperimento ma il risultato finale dell’operazione — la consuetudine che prevede la didattica dimostrazione delle premesse prima di qualsiasi dimostrazione dei risultati finali viene impugnata dai ricercatori contro noi poveri spettatori, rendendoci criticamente inermi.

ALGORITMI, IDENTITÀ E POLEMICHE

Il face-morphing richiede una raccolta di dati piuttosto ingente per poter funzionare; più esteso è l’archivio, maggiori sono le fonti da cui attingere per ingannare lo spettatore. Sebbene le più classiche delle narrazioni distopiche si reggano sulla presunzione che siano i governi e le aziende a cercare di scoprire i segreti delle persone, è alle nostre abitudini che dobbiamo guardare se siamo alla ricerca del motivo per cui è così facile sintetizzare una persona in un archivio di modi di dire, reazioni ed espressioni tipiche.

Citando il regista e scrittore Jean-Louis Comolli, “le forze della repressione non impediscono alla gente di esprimersi, al contrario, la costringono a esprimersi.” Pensiamo alla frequenza e l’intensità con cui produciamo volontariamente materiale foto, video e audio i quali, una volta archiviati dagli algoritmi, diventano fonti di ispirazione per le finalità più diverse, come Eternime, il servizio che utilizza le nostre interazioni online per generare un chatbot plasmato sulle nostre caratteristiche che ci farà chiacchierare con i nostri pronipoti quando saremo ormai carne per vermi.

La raccolta di dati biometrici e i pericoli insiti in tale pratica sono stati esplorati dall’artista Zach Blas con il progetto Facial Weaponization Suite. Dal 2011 al 2014, l’artista ha condotto una serie di workshop in cui i dati biometrici dei partecipanti sono stati mescolati e fusi assieme per dare origine a maschere amorfe che proteggono l’indossatore da algoritmi alla ricerca di visi da catturare e analizzare. L'offuscamento del singolo dietro le caratteristiche dei molti è un’azione sovversiva se messa in relazione con la pretesa di trovare corrispondenze tra determinate caratteristiche fisiche e l’appartenenza a minoranze, un aspetto centrale nel progetto di Blas. Ad esempio, la Fag Face Mask è stata generata raccogliendo i dati biometrici di un numero non precisato di individui LGBTQIA, mentre un’altra maschera esplora l’incapacità di molti dispositivi predisposti al riconoscimento facciale di prevedere e analizzare i visi di persone di colore.

D’altronde, il modo in cui queste problematiche sono state trattate dalle aziende fanno alzare più di un sopracciglio. Nell’aprile del 2017, FaceApp ha pubblicato un filtro progettato per far apparire gli utenti maggiormente attraenti rendendone i visi più pallidi e squadrati. Il problema è che se utilizzato sul viso di un uomo di colore, il risultato è pacchiano come uno strato di cerone e fard degno di un ritratto settecentesco.

Alle molte critiche ricevute da giornalisti e utenti online, l’azienda ha risposto che il filtro è uno sfortunato effetto collaterale causato dall’infelice scelta di modelli iniziali per la rete neurale piuttosto che il risultato di un approccio intenzionale - una situazione simile a quella di Tay, l’AI targata Microsoft che seguendo l’esempio impartito dagli utenti di Twitter ha iniziato a pubblicare messaggi razzisti e omofobi poche poche ore dopo essere stata creata.

Ad agosto, FaceApp è salita alla ribalta delle cronache ancora una volta per un set di filtri intitolati “Black”, “Asian”, “Indian” e “Caucasian”. Il risultato?

Se nel caso del filtro “Hot” l’azienda ha ritenuto opportuno mantenerlo a disposizione dei propri utenti sotto un nuovo nome, “Spark”, negli altri casi ha risposto alla disapprovazione degli utenti eliminando i filtri incriminati.

Un altro esempio di come filtri digitali da applicare sul proprio viso sono materiali sensibili capaci di scatenare accese proteste è quello riguardante il famigerato filtro Yellow Face rilasciato da Snapchat nell’estate del 2016. Ormai cancellato dalla libreria, si trattava di un filtro che applicava occhioni da personaggio manga alla faccia dell’utente, aumentandone le dimensioni dei denti e modificandone la forma del viso in modo da ricreare lo stereotipo caricaturale asiatico. Questo caso, assieme a quello del controverso filtro creato per celebrare Bob Marley, hanno attirato critiche di whitewashing nei confronti di Snapchat, colpevole di imporre canoni estetici appartenenti alle ragazze bianche caucasiche a tutti coloro che utilizzano la sua piattaforma.

USO CREATIVO

“Penso che l’utilizzo di filtri di face-morphing e face-swapping crei una sorta di creatività benigna,” commenta Caroline Sinders, artista e ricercatrice nel campo del machine learning. “SnapChat è talmente costrittivo che noi utenti non possiamo aggiungere nulla di personale al suo sistema," continua, "l’unico modo per essere creativi con esso è utilizzandolo in maniera sbagliata così da creare qualcosa di inaspettato e nuovo.” Gli utenti, non potendo creare filtri che rispecchiano i propri valori, “utilizzano quelli imposti dalle app su cose non previste dagli sviluppatori,” — come le bocchette dell’aria condizionata, le bambole e i tatuaggi. “Mi chiedo se un giorno questa attitudine ci porterà a creare i nostri stessi filtri da condividere con altri utenti,” conclude Sinders.

Lo sviluppo di filtri alternativi a quelli imposti da aziende occidentali capaci di influenzare un pubblico globale è stato esplorato dal progetto Mirawarri, frutto della collaborazione degli artisti Gretta Louw, Owen Mundy e l’Warnayaka Art Centre, uno snodo importante per artisti aborigeni australiani interessati alla pittura tradizionale locale e alla sua divulgazione in campo internazionale. Mirawarri è un’app che permette di modificare foto con filtri ed elementi grafici progettati dagli artisti del centro, costituendosi come un’alternativa locale per i molti utenti dell’Australia Centrale che utilizzano Instagram, SnapChat o altre app Occidentali. “Le app importate dall’estero impongono un immaginario legato a culture urbane a maggioranza anglosassone,” spiegano i creatori del progetto. Mirawarri dà la possibilità ai nativi di rappresentare la propria cultura senza ingerenze esterne e, allo stesso tempo, di far crescere l’interesse globale nei confronti dell’arte aborigena.

Ma qual’è lo stato attuale degli artisti che lavorano con il face-morphing? “Sta per arrivare una nuova rivoluzione di specchi magici digitali grazie soprattutto alla popolarità di filtri come quelli prodotti da Snapchat," suggerisce l’artista statunitense Chris Coleman, “Ci sono artisti che vogliono rendere questi filtri ancora più strani, inquietanti e personali, mentre coloro che sono più interessati ad aspetti critici li stanno combinando con altri dati per esplorare i concetti di rappresentazione e manipolazione.” L’obiettivo non è aggiungere nuovi filtri alla già sterminata collezione a cui si può facilmente accedere utilizzando un comune motore di ricerca, ma l’esposizione di un problema ben specifico, “cosa diamo alle aziende in cambio delle nostre interazioni digitali? Dobbiamo chiedere a quale prezzo stiamo pagando questi giocattoli narcisistici,” conclude.

In Digital Derivatives, un progetto iniziato da Chris Coleman nel 2014, l’artista scannerizza in tre dimensioni i visitatori delle sue mostre distillandone le caratteristiche fisiche fino a renderli dei gusci ricoperti da texture sfumate

HACKING FACILE, FUTURO LEGISLATIVO E INQUIETUDINI

È notizia recente che la compagnia di sicurezza digitale Bkav è riuscita a ingannare il sistema di riconoscimento facciale realizzato da Apple per iPhone X con delle maschere realizzate con polvere di pietra, un materiale che secondo gli esperti, “porta a migliori risultati rispetto alla carta adesiva usata in esperimenti precedenti.” Grazie a questa astuzia, è possibile clonare qualsiasi viso — un’azione che fino a qualche anno sarebbe stato un crimine degno di un film di spionaggio e che al giorno d’oggi, con sistemi di sicurezza e pagamento basati sul riconoscimento facciale, è una tangibile minaccia.

Da settembre 2017 potete pagare il conto in uno store KFC in Cina loggandovi con il vostro viso.

Cosa possiamo fare, inoltre, quando qualcuno utilizza le nostre maschere digitali per scopi non graditi? Le leggi attuali sul copyright non sembrano essere al passo con i tempi. “Nel Regno Unito, quelli che sono generalmente intesi come diritti d’immagine non sono protetti in quanto tali,” commenta l’avvocato inglese Kevin Poulter, esperto di cause inerenti la cultura digitale.

“Qualsiasi persona che cerca di controllare la propria immagine e il suo utilizzo deve fare affidamento su qualche altra causa di azione, come un contratto, una violazione della fiducia o di un copyright.” Negli ultimi mesi del 2017, è apparso un video su SendVids in cui il viso dell’attrice Gal Godot è stato applicato alle immagini prese da un film porno — un ibrido che, sebbene non completamente credibile, dimostra quanto è semplice creare materiale del genere. “Se le immagini di una persona vengono utilizzate in qualcosa come la pornografia, c’è il rischio che il contenuto possa portarle diffamazione”, continua Poulter. “In questo caso, qualunque richiesta finanziaria dalla parte lesa sarà basata sui danni. Se non può essere dimostrato che si ha subito danni economici, c’è la possibilità che non si possa fare molto a riguardo.”

Uno screenshot del video porno editato con immagini del viso di Gal Godot

Se l’uso indiscriminato di materiale coperto di copyright è l’approccio tipico alla produzione e condivisione di meme, dobbiamo aspettarci che qualcuno, da qualche parte, potrebbe utilizzare non solo il viso di Scarlett Johansson, Donald Trump o Carrie Fisher per il proprio teatro di marionette digitali, ma anche il nostro. Il 2018 è l’anno in cui lo spauracchio dell’uso incontrollato del face-morphing potrebbe generare una discussione seria sulla raccolta e l’archiviazione dei nostri dati personali online — un dibattito che, forse perché ancorato alla natura tutto sommato testuale delle nostre attuali identità online, non ha appassionato fin qui coloro che non sono interessati a questioni di sicurezza e privacy.

Segui Filippo su Twitter: @fi_lor

Seguici su Facebook e Twitter.