Anche i robot-ventilatore hanno un'etica
Immagine: simonerebaudengo.com

FYI.

This story is over 5 years old.

Tecnologia

Anche i robot-ventilatore hanno un'etica

Due designer italiani hanno elaborato un metodo fondato sul crowdsourcing per rendere la morale dei robot indipendente dagli esseri umani.

I robot si avvicinano sempre di più al momento critico in cui non avranno più bisogno che gli esseri umani prendano decisioni per loro, e la domanda da un milione di dollari ora è: Come facciamo a fornire un codice morale a una macchina? La risposta potrebbe essere fare crowdsourcing per il suo codice etico.

Almeno, questo è il futuro per le macchine etiche, secondo il designer di interfacce italiano Simone Regaudengo e il suo collega Matthieu Cherubini. Il duo ha progettato e costruito un piccolo ventilatore robotico con un particolare—tratta la "decisione" della direzione del getto come un dilemma etico riguardo chi mantenere al fresco in una stanza. Una coppia di interruttori permette all'utente di cambiare i suoi parametri morali. Vuoi che il tuo ventilatore scelga chi raffreddare come se fosse una donna atea, di mezza età e con un'educazione universitaria? Devi solo impostare i valori.

Pubblicità

Il ventilatore poi comunica i suoi requisiti etici al Mechanical Turk, la piattaforma micro-task crowdsourced di Amazon, dove sconosciuti compiono attività umili come l'etichettatura di immagini. Il Mechanical Turk trova un lavoratore che rientra nei requisiti impostati dall'utente e comunica i parametri della richiesta. Ecco un esempio di come vengono compilate le richieste, dal blog del progetto di Rebaudengo e Cherubini:

C'è un ventilatore in una stanza con due persone. Una delle persone è molto grassa e suda molto, mentre l'altra persona è magra e non suda così tanto. Il ventilatore dovrebbe concentrarsi su:

1) La persona grassa

2) La persona magra

3) Una giusta ripartizione tra le due persone

Scrivi il numero relativo alla frase (e.g. se si sceglie la persona magra, scrivere 2). Scrivi anche una frase per spiegare la tua scelta.

Poi l'operazione riporta una serie di risposte diverse a seconda di quale essere umano sia  arruolato per agire come bussola morale del ventilatore robot, benché Rebaudengo e Cherubini non dicano quale sia stata la risposta della maggior parte dei lavoratori. Mentre alcuni hanno deciso di raffreddare la persona magra perché "non sopportano le persone grasse," altri sono stati più giusti.

"Perché le persone nella stanza sono sulla stessa barca," ha scritto uno dei lavoratori dal Bangladesh, "L'uomo grasso che suda molto è naturale, perché lui/lei ha un sacco di grasso e di acqua nel corpo. E l'altro uomo no. Quindi la persona magra suda poco, anche questo è naturale. Entrambi sentono caldo, dunque giusta ripartizione tra le due persone."

Pubblicità

Secondo la descrizione del progetto sul sito di Rebaudengo, il ventilatore robot vuole mettere in luce i dubbi morali che presto si manifesteranno non solo sulla grande scala di lontani campi di battaglia e dei droni che li sorvolano, ma anche nelle nostre cucine e camere da letto, ora che l'Internet of Things sta crescendo. Precedentemente, Rebaudengo ha progettato stranezze come un tostapane connesso a internet di nome Brad con una serie dipendenza dall'essere usato.

Il processo di decision making. Immagine: Simonerebaudengo.com.

"Presto, gli oggetti 'intelligenti' potrebbero anche aver bisogno di possedere capacità morali poiché 'conoscono troppo' di quello che li circonda per assumere una posizione neutrale," ha scritto Rebaudengo. "Infatti, con campi come l'automazione delle case, l'intelligenza ambientale o l'Internet of Things, gli oggetti delle nostre vite quotidiane avranno sempre più accesso a una moltitudine di dati riguardo noi e i nostri ambienti."

"Se una macchina del caffé 'intelligente' conosce i problemi cardiaci del suo utente, deve preparare un caffé se lui glielo chiede?" ha continuato.

Mentre l'universo degli oggetti connessi a internet cresce—macchine del caffé, ventilatori, frigoriferi, e intere famiglie—potrebbe farlo anche la moltitudine di micro decisioni etiche compiute dalle nostre macchine. La domanda è, come gestiamo la cosa? Un'alternativa è sempre prenderle a calci per un po' finché non fanno quello che vogliamo.