L’Intelligenza Emotiva Artificiale è la nuova empatia?

FYI.

This story is over 5 years old.

Tecnologia

L’Intelligenza Emotiva Artificiale è la nuova empatia?

Gli algoritmi che empatizzano con gli esseri umani sono sempre più precisi, ma fino a dove può arrivare il legame uomo-macchina?

Vittorio Gallese, uno dei padri dei neuroni specchio, in un suo libro scriveva: " Siamo esseri relazionali, siamo inconcepibili come sé, se non c'è altro dal sé". Secondo questa concezione, la relazione con i propri simili è qualcosa di fondamentale per la sopravvivenza dell'individuo, perché delinea la nostra stessa identità come singoli. Ma cosa accade quando la relazione non è tra membri della stessa specie, ma coinvolge la nuova tecnologia?

Pubblicità

Se il carburante che accende ogni tipo di relazione è derivato dalle emozioni, se l'empatia è il fattore fondamentale per consolidarle, ecco che la tecnologia, per potersi meglio adattare, deve possedere tali caratteristiche. Siamo nell'era di Her, di Black Mirror, di Mr Robot, di Lo And Behold di Herzog. Questi sono solo alcuni esempi di quanto queste domande siano uscite dal laboratorio e risuonino ora nelle nostre teste e sui nostri schermi.

Le emozioni guidano gli stati d'animo, ci permettono di orientarci nel mondo, ci permettono di capire quando scappare, quando rimanere, quando innamorarci, quando odiare. Oltre ad avere una funzione utile a noi stessi ci permettono di capire gli altri, di essere empatici.
Dopo la scoperta dei neuroni specchio — avvenuta tra gli anni '80 e '90 all'Università di Parma con uno studio coordinato dal professor Giacomo Rizzolati — il concetto di empatia è stato ampiamente riconsiderato: è possibile riuscire a provare l'emozione dell'altro ed entrare, letteralmente, dentro il suo pathos? Sembra di sì. In questo senso, nel campo delle neuroscienze, è stato dimostrato che questo tipo di neuroni ha la particolarità di essere attivato sia quando eseguiamo delle azioni, sia quando osserviamo le stesse eseguite dagli altri. In sintesi: quando la persona che mi sta davanti compie una determinata azione, nella mia testa si attivano le stesse dinamiche che stanno avendo luogo nella sua. Il meccanismo di "rispecchiamento", secondo chi l'ha scoperto, starebbe alla base dell'apprendimento imitativo.

Pubblicità

"La novità più radicale della scoperta dei neuroni specchio è la dimostrazione di quanto fondamentale e costitutiva sia la relazione che ci lega agli altri."

Ma la novità più rilevante è il fatto che tutto ciò non si fermi all'ambito motorio, ma coinvolga anche quello emotivo e sensoriale. Lo scienziato neurocognitivo Vittorio Gallese, parte del team di ricerca sui neuroni specchio, in un'intervista ha dichiarato: "La novità più radicale della scoperta dei neuroni specchio è la dimostrazione di quanto fondamentale e costitutiva sia la relazione che ci lega agli altri. Anche a livello neurofisiologico c'è una dimensione condivisa: le mie azioni, emozioni e sensazioni sono simili a quelle dell'altro."

Queste nuove conoscenze nel campo delle neuroscienze hanno dato una notevole spinta non solo al campo scientifico, ma anche a quello tecnologico. Si è passati dunque da uno studio che riguarda l'Io e l'Altro ad uno che coinvolge l'Io e La Macchina.  Da qui l' Artificial Intelligence e la Machine Learning, ma soprattutto l'AEI: Artificial Emotional Intelligence

Nel 2009, per esempio, è nata una start up chiamata Affectiva, nel circuito MIT Media Lab, una delle incubatrici più importanti a livello mondiale di progetti di ricerca e sviluppo in ambito tecnologico. Affectiva ha un proposito: diventare leader nella tecnologia di " emotion measurement", creando delle applicazioni capaci di riconoscere le emozioni con un software dotato di "intelligenza emotiva artificiale", capace di misurare, appunto, le risposte emotive degli utenti. Tutto ciò attraverso una webcam, in tempo reale.

Pubblicità

Affectiva Affdex Video di Edemante su Vimeo.

Non si parla solo di assistenti vocali alla Siri, si analizza lo stato d'animo dell'utente attraverso l'espressione facciale. Ed ecco che nasce Affdex, un software capace di farlo tramite il riconoscimento di quattro stati d'animo: felice, confuso, disgustato e sorpreso. Tutto ciò grazie alla scansione delle espressioni del viso, che vengono mappate in diversi punti per poi costruire dei veri e propri "database" su come un volto può reagire a determinati stimoli. L'influenza arriva da un celebre psicologo, Paul Ekman, che negli anni '60 riconobbe sei emozioni umane fondamentali, uguali per ogni sesso, età, paese ed educazione. A seguito del loro riconoscimento, Ekman le suddivise in quelle che definì "unità d'azione", corrispondenti a 46 singoli movimenti. Basandosi su questi studi, Affdex ha ottenuto ad oggi numeri da capogiro: più di due milioni di video in più di ottanta Paesi, numeri in crescita come in crescita è la capacità del software che si arricchisce, letteralmente, grazie alle nostre reazioni emotive.

Un progetto ambizioso. In un'intervista per il  New Yorker, una delle sue ideatrici, Rana El Kaliouby, ha affermato: " Nel giro di dieci anni non ricorderemo più com'era quando non si poteva lanciare un'occhiata fugace al proprio dispositivo senza che questo rispondesse – hey, non ti è piaciuto questo, vero?" El Kaliouby, proponendo esempi pratici, ha affermato che i dispositivi potrebbero essere capaci di comprendere i livelli di gradimento rispetto a una canzone, una mail, un film, stabilire di quali medicine o esercizi abbiamo bisogno oppure cosa possiamo proporre ad un ipotetico pubblico che vogliamo raggiungere. Ciò che ne deriva è facilmente intuibile: dalle analisi di mercato agli indici di gradimento televisivi. Un potente strumento di marketing, insomma.

Pubblicità

Ma è davvero affidabile delegare tutto a una macchina, lasciare che sia questa a decifrare qualcosa di umano come le emozioni?

Chiaramente i competitor ci sono, e negli ultimi anni le scoperte e le invenzioni relative a questo campo si sono diffuse a macchia d'olio.Il chatbot alla Her" di nome Xiaoice, per esempio, in Cina e Giappone ha più di 40 milioni di utenti. Sempre in Giappone è stato creato il robot Pepper,  in grado di capire la provenienza dei suoni, identificare le emozioni tramite l'analisi vocale e il riconoscimento dei tratti espressivi del volto. Il primo lotto di 1.000 robot Pepper è stato messo in vendita in Giappone alle 10 di mattina, ed è andato sold out dopo un solo minuto. Mille persone sono state disposte a pagare 198.000 yen (poco più di 1.400 euro) per averne uno.

In ogni caso, è bene considerare le relative ripercussioni di tali invenzioni, non solo a livello scientifico, ma anche sociale. Secondo alcuni studiosi l'AEI rivoluzionerebbe molti campi, tra cui l'educazione, i rapporti con i media, il marketing, la pubblicità, la conoscenza di sé, le relazioni interpersonali. Ma sarà davvero possibile? Quali saranno gli effettivi riscontri nella società?

Tornando ad Affdex , il giornalista Raffi Khatchadourian nell'intervista del New Yorker riporta: "Durante le elezioni presidenziali del 2012 il team della dottoressa Kaliouby ha usato l'App di Affectiva per  prevedere le preferenze di voto di duecento soggetti mentre questi guardavano spezzoni dei dibattiti Obama-Romney, calcolando un'affidabilità del 73 >#/i###"

Ma è davvero affidabile delegare tutto a una macchina, lasciare che sia questa a decifrare qualcosa di umano come le emozioni? si parla di un futuro distopico? No, si parla di un futuro più che mai prossimo — se non già presente — nel quale potremmo avere dei sistemi in grado di riconoscere in modo stupefacente le nostre emozioni, non solo, in grado di interagire con noi, in grado di garantirci tutta la funzionalità — e forse l'affetto? — possibile. L'argomento ci riguarda, in quanto esseri individuali e sociali, dunque non può e non potrà mai prescindere da un ragionamento di tipo morale. Anche se si tratta di un processo auspicabile per molti, a cosa porterà?
Per ora non lo sappiamo. Ma non cercatelo su Google.