FYI.

This story is over 5 years old.

Tecnologia

Amazon Alexa ha registrato una conversazione privata e l’ha inviata a dei contatti a caso

Attenti a quello che dite. Non solo i muri hanno le orecchie.
Immagine originale: Flickr/BestAI Assistant. Composizione: Giulia Trincardi

Una coppia americana di Portland, nell'Oregon, ha vissuto una brutta avventura con Alexa — ma no, questa volta l'assistente vocale di Amazon non ha terrorizzato nessuno ridendo a caso nel cuore della notte. Invece, ha registrato l'audio di una conversazione privata tra i due, per poi inviarlo a un contatto scelto casualmente tra quelli presenti nella loro rubrica. Due settimane dopo l'avvenimento, un dipendente del marito che risiede a Seattle, nello Stato di Washington, ha telefonato alla coppia avvisandola di disattivare i dispositivi di Alexa, temendo che fossero stati hackerati.

Pubblicità

La notizia è stata riferita per prima dall'emittente Kiro 7 che ha anche contattato Amazon per un commento ufficiale sulla vicenda, ottenendo questa risposta: ”Amazon prende molto seriamente la privacy. Abbiamo indagato su quanto successo e determinato che si tratta di un episodio estremamente raro. Stiamo facendo in modo che un incidente così non si ripeta in futuro.”

Dopo che la coppia ha verificato quanto segnalato dal dipendente del marito, ha provato a contattare l'assistenza di Amazon che ha confermato l'inconveniente, portando un tecnico dell'azienda a scusarsi ”tipo 15 volte in 30 minuti,” aggiungendo che attribuiva una grande valore alla loro segnalazione, secondo quanto raccontato dalla donna all'emittente. Il grosso problema è che la coppia sostiene di non avere sentito Alexa annunciare che avrebbe inviato i file e, per questo, pretende un rimborso dal colosso di Jeff Bezos.

Interrogata dalla CNBC, Amazon ha dichiarato che il dispositivo si è attivato a causa di una parola presente nel rumore di sottofondo dell'audio della conversazione che è stata interpretata come il richiamo vocale ”Alexa” usato per iniziare a dare comandi al dispositivo. Dopo che Alexa si è attivato, altri elementi della conversazione sono stati interpretati come una richiesta di inviare il messaggio vocale e come un nome dell'elenco dei contatti. Alexa, di default, avrebbe chiesto conferma dell'ordine di inviare il messaggio proprio a quel contatto, interpretando un'altra parte della conversazione successiva come un'approvazione. Insomma, si è trattato di una sfortunatissima serie di eventi. In ogni caso, Amazon ha promesso di lavoraci sopra ”per quanto improbabile questa serie di eventi sia, stiamo valutando le opzioni per rendere questo caso ancora meno probabile.”

Pubblicità

Vuoi restare sempre aggiornato sulle cose più belle pubblicate da MOTHERBOARD e gli altri canali? Iscriviti alla nostra newsletter settimanale.

Ovviamente, non c'è mai limite al peggio e la serie di eventi in questi casi, avrebbe potuto essere ancora più sfortunata: cosa sarebbe successo se l'assistente vocale avesse registrato dell'audio comprensibile di una conversazione su temi sensibili? E se avesse registrato la coppia mentre sparlava direttamente della persona che ha ricevuto il messaggio? In ogni caso, a meno che non si decida di programmare Alexa per sganciare degli ordigni nucleari — le conseguenze disastrose di un'interpretazione errata degli assistenti vocali non saranno mai gravi quanto quelle di altre forme di quella che impropriamente viene chiamata Intelligenza Artificiale: pensate, ad esempio, a quanto può essere più fastidioso venire investiti per errore da un'auto a guida autonoma.

Quando si tratta di interpretare l'audio, le possibilità di errore sono infinite e pretendere la precisione assoluta è impensabile, tanto che non può essere pretesa neanche dagli esseri umani: molti di loro ultimamente, ad esempio, non riescono neanche a mettersi d'accordo su cosa dica in realtà questa voce sintetizzata (Laurel o Yanny?). Chissà cosa ci riserva il futuro, ora che Amazon Alexa sarà presto disponibile in italiano.

Segui Federico su Twitter: @spaghettikraut

Seguici su Facebook e Twitter.