Ecco come il film 'The Moment' è controllato dal cervello degli spettatori

In 'The Moment' il cervello degli spettatori decide l'andamento di trama, montaggio e colonna sonora.

|
12 giugno 2018, 11:05am

Se c'è una tecnologia che spero entri presto a fare parte della nostra vita di tutti i giorni è quella delle interfacce neurali. L'idea di controllare i miei dispositivi attraverso gli impulsi cerebrali, infatti, è troppo allettante per una persona estremamente pigra come me.

Per questo, ogni volta che vengo a sapere di una novità che riguarda le interfacce cervello-computer mi esalto e sogno il momento in cui potrò azionare qualsiasi strumento solo grazie al pensiero o godere di esperienze immersive controllabili tramite il cervello. Quando penso che tutto questo potrebbe essere solo un capriccio, mi consolo ricordandomi che in giro c'è anche chi pensa che lo sviluppo delle interfacce neurali potrebbe consentirci in generale un balzo evolutivo a livello antropologico.

L'ultimo esempio di applicazione di questa tecnologia che mi ha fatto sognare è il cortometraggio The Moment creato da Richard Ramchurn, studente dell'Università di Nottingham e regista. Le storie dei protagonisti, le scene e la colonna sonora del suo film di fantascienza, ambientato in un futuro dove tutti usano le interfacce uomo-computer, varia a seconda degli spettatori che assistono a una sua riproduzione proprio in base agli impulsi cerebrali prodotti dagli stessi.

Se nel 2013 Ramchurn aveva creato un sistema che monitorava il battito delle ciglia per valutare il livello di attenzione degli spettatori in modo da proporre tagli e cambi di inquadratura personalizzati, per la nuova opera, il regista ha realizzato un dispositivo che rileva in tempo reale i livelli di attenzione dello spettatore analizzando la sua attività cerebrale grazie agli headset Mindwave NeuroSky — sensori EEG commerciali che rilevano i segnali elettrici prodotti dall'attivazione dei neuroni cerebrali. I dati rilevati dagli headset vengono rielaborati da un software che li utilizza per modificare le caratteristiche del film.

Il regista ha proiettato il film davanti a tre spettatori che indossavano i caschi. Ognuno aveva il controllo su un singolo elemento: trama, colonna sonora e mix delle scene. Dato che la visione del film influenza le onde cerebrali degli spettatori e che queste a loro volta influenzano lo sviluppo dello stesso, in questo modo, si crea un doppio flusso di informazioni che interagiscono tra loro. Ho avuto uno scambio via mail con il regista, autore del soggetto, editore, creatore del sistema e ricercatore dietro alla creazione del film per capirne di più. Ecco cosa ci siamo detti.

Motherboard: Quali sono i principi alla base del tuo ultimo lavoro?

Richard Ramchurn: Il mio lavoro prende ispirazione dal modo in cui si raccontavano a voce le storie nei tempi antichi — cioè adattando la storia con piccoli spunti pensati apposta per la persona che la stava ascoltando. Nel mio sistema, invece, le persone interagiscono inconsciamente. Se i videogiochi permettono alle persone di controllare attivamente lo sviluppo di un'esperienza, con il mio film, invece, piuttosto che dire ”voglio questo” e di metterlo in pratica con dei comandi, lo spettatore influenza in tempo reale lo svolgimento di una storia sulla base delle sue risposte inconsapevoli.

Come hai creato il sistema che permette di interagire con il film?

Ho preso in prestito dei concetti dal neurocinema [il campo di studi che esamina gli effetti delle scene dei film sul cervello umano N.d.R] e li ho applicati all'editing, al sound mixing e alla costruzione narrativa in tempo reale. Il film è stato girato in maniera tradizionale, circa un terzo delle immagini sono state generate grazie alla computer-generated imagery ma, per il resto, è stato realizzato solo grazie a un laptop e un headset! Abbiamo costruito il nostro sistema usando il linguaggio di programmazione visiva MAX/MSP.

Tutte le immagini per gentile concessione di AlbinoMosquito.

Quindi, su quali aspetti del film influiscono le onde cerebrali?

Il film viene creato in tempo reale in base alle risposte cerebrali degli spettatori che modificano il ritmo del montaggio, la colonna sonora, le combinazioni narrative che fanno interagire i personaggi e i loro dialoghi. Per questo, ogni volta che il film viene riprodotto, il risultato è un'opera inedita grazie ai dati rilevati dagli headset. Dal punto di vista narrativo, sono possibili 18 miliardi di combinazioni.

Bene, visto che possono esistere tantissime versioni possibili del film, quali sono le tue preferite tra quelle prodotte fino ad ora che ti è capitato di vedere?

Le mie versioni preferite sono quelle che nascono quando il controller — cioè la persona che indossa il casco — produce una versione che prima esisteva solo nella mia immaginazione. Avendo progettato quelle possibilità narrative, mi piace vedere qualcuno fare nascere una di quelle storie a cui avevo pensato in anticipo.

Come proseguirà il tuo lavoro con le interfacce EEG usate per l'intrattenimento?

Mi piacerebbe produrre un film horror, vorrei lavorare a film che provochino un vero e proprio coinvolgimento emotivo e si adattino alle emozioni e ai pensieri degli spettatori per condurli in territori inesplorati. Vorrei anche permettere ad altri registi di raccontare le loro storie utilizzando il mio sistema, credo che si potrebbero creare film di qualsiasi genere.

Un'immagine del set di The Moment.

Lavorerai anche ad applicazioni di questa tecnologia diverse dal cinema?

Sto esplorando campi di ricerca delle neuroterapia che prevedono l'utilizzo di esperienze culturali per incoraggiare l'uso di aree cerebrali sottoutilizzate per persone con difficoltà a gestire il dolore. Il controllo dei video con i dati prodotti dal cervello non è una novità: nel 2005, è stato pubblicato un paper che illustra l'utilizzo di video per trattare i bambini con Il Disturbo da Deficit di Attenzione/Iperattività che si intitola "ERPs correlates of EEG relative beta training in ADHD children.

E invece quale pensi che sarà lo sviluppo delle Brain Computer Interface?

Credo che quando verranno sviluppate BCI con una ampiezza di banda maggiore per trasferire i dati, nasceranno anche un numero maggiore di applicazioni artistiche che sfruttano la BCI — dal creare oggetti con il pensiero fino all'idea di trasformare pensieri astratti in luci e suoni. Le BCI a banda larga cambieranno la nostra coscienza come specie e saranno l'inizio della singolarità.

The Moment è stato presentato ufficialmente allo Sheffield International Documentary Festival.