FYI.

This story is over 5 years old.

Tecnologia

Facebook deve risolvere i problemi di censura una volta per tutte

Mentre il colosso ammette il fallimento dei propri algoritmi, gli stronzi continuano ad agire indisturbati.
Immagine: Shutterstock

Facebook si è finalmente reso conto che gli algoritmi che impiega per determinare "l'accettabilità" di un contenuto fanno abbastanza schifo, e ha annunciato che, nel corso delle prossime settimane, comincerà a lasciare che su Facebook appaiano più contenuti ritenuti rilevanti e significativi dalle persone, anche se violano le norme della comunità.

Il dietrofront arriva dopo un periodo in cui il social network è stato duramente criticato per aver cancellato post come l'iconica fotografia della Guerra del Vietnam—che ritrae Kim Phúc bambina, ustionata dal napalm—e un contenuto pubblicato da Le Monde, che mostrava la mammografia di una vittima di cancro.

Pubblicità

È comprensibile che rapportarsi con la natura soggettiva di immagini o notizie significative per ragioni storiche e culturali sia un compito complesso, ma è ormai chiaro che non è un compito da delegare a una manciata di algoritmi, non finché il loro livello di intelligenza resta questo. Facebook deve anche fare i conti con norme culturali e leggi diverse di paese in paese—un altro problema che è meglio non affidare a un algoritmo. E in cima a tutto ciò, come ho spiegato a settembre, Facebook deve evitare il più possibile di trasformarsi da aggregatore di notizie in vero e proprio gatekeeper.

"Nelle prossime settimane, vogliamo iniziare a dare spazio a più contenuti che per le persone sono interessanti, significativi o importanti—anche se per altri possono risultare in violazione delle nostre norme," hanno scritto il vice presidente delle politiche pubbliche di Facebook, Joel Kaplan, e il vice presidente delle operazioni globali Justin Osofsky. "Lavoreremo con la nostra comunità e i nostri partner per capire esattamente come fare, sia attraverso nuovi strumenti e approcci. Il nostro intento è quello di fare spazio a più immagini e storie, senza mettere a repentaglio la sicurezza o mostrare immagine grafiche a minori e altre parti che non vogliono ritrovarsi esposte."

Il duo ha detto che Facebook deve ancora capire esattamente come fare, ma è facile che la cosa implicherà un maggiore intervento umano nel vaglio delle immagini e dei post che potrebbero essere bollati come inappropriati. Motherboard ha chiesto a Facebook maggiori informazioni, ma l'azienda non ha avuto altro da aggiungere per il momento.

"Mandateli nelle camere a gas"

Ma la notizia arriva giusto quando Facebook si ritrova in una fase ancora più complicata della propria strategia di contenuti—una fase che manda in diretta le guerre, i suicidi, e, nel caso di oggi, la distruzione di un campo rifugiati su Facebook Live.

Ero in lacrime mentre guardavo commenti ed emoji attraversare lo schermo mentre la videocamera si muoveva per la scena grigia e deprimente del campo per rifugiati di Calais, in Francia, che è stato appena demolito. "Un giro di droni ed è fatta," ha commentato un utente Facebook. "Tutti terroristi!" ha scritto un altro. Il commento che mi ha fatto arrivare al limite è stato "Mandateli nelle camere a gas."

Come è possibile che questo genere di incitamento all'odio sia accettabile, ma l'immagine di una vittima di cancro al seno no? Facebook ha parecchia strada da fare, e così anche la nostra società.