FYI.

This story is over 5 years old.

Tecnologia

Quando l'algoritmo diventa sbirro: pro e contro della polizia predittiva

I precog di Minority Report sono diventati realtà, ma sottoforma di algoritmi.

Una quadrato rosso compare sulla mappa della città, e una volante della polizia si precipita nella via indicata per sventare il crimine prima ancora che venga commesso. I precog di Minority Report non c'entrano nulla, perché a predire dove e quando ci sarà bisogno dell'intervento delle forze dell'ordine sono gli algoritmi che governano software comePredPol—utilizzati nelle principali città di tutto il mondo, da New York fino a Milano—e che sono alla base della "polizia predittiva".

Pubblicità

La previsione, ovviamente, non è certa; si tratta di calcoli probabilistici—gli stessi utilizzati dalla sismologia e dall'epidemiologia—che danno i loro risultati in base a un enorme numero di dati immagazzinati all'interno del software: dove un crimine è stato commesso, quando, di che tipo e altre variabili ancora. Il tutto allo scopo di prevenire il ripetersi di furti o aggressioni basandosi su un semplice assunto: se in una zona sono avvenuti numerosi crimini di un determinato tipo, è altamente probabile che avverranno di nuovo.

Ci vuole un software per scoprire una simile ovvietà? Il capitano John Romero della polizia di Los Angeles, parlando con il Guardian, prova a stroncare le perplessità con un esempio: "È come un pescatore dilettante che utilizza uno strumento per scoprire dove i pesci si trovano in un lago. Un pescatore esperto saprebbe dove guardare semplicemente basandosi sulla specie di pesce che sta cercando, l'ora del giorno e così via. Allo stesso modo, un poliziotto molto bravo sa da solo dove deve andare. Questo tipo di strumenti non fa altro che migliorare le abilità del poliziotto medio."

Tra l'altro, le informazioni date in pasto a questi algoritmi variano a seconda della società che ha creato il software: se PredPol si limita ad analizzare dove, quando e che tipo di furto è avvenuto, altre aziende tentano un approccio più strutturato. Risk Terrain Modeling utilizza tutti questi dati, aggiungendo il livello di illuminazione delle strade, la prossimità con fermate della metro, con locali notturni, il meteo e addirittura le fasi lunari. HunchLab è probabilmente il più evoluto, perché a tutto ciò aggiunge la possibilità di "pesare" i vari crimini in modo da dare un ordine di priorità agli interventi, di scegliere la migliore tattica d'azione e di segnare appunti che vengono immagazzinati dal software. Da notare come nessuno di questi programmi sfrutti i dati personali degli assalitori (per esempio, se colpiscono più di frequente bianchi o neri), in modo da evitare, come spiegano sul sito, "preoccupazioni riguardanti le libertà civili e la profilazione."

Pubblicità

Il poliziotto di pattuglia, così, non deve far altro che osservare il monitor montato sulla sua volante per capire, in tempo reale, quali sono gli "hotspot" in cui c'è bisogno della sua presenza e in quale zona della città è più probabile che avvenga un certo tipo di crimine. Si tratta di aree molto circoscritte, di circa 150 metri quadrati, che appaiono e scompaiono sul monitor basandosi su dati "così complicati che sarebbe impossibile per il singolo poliziotto intuirli da solo," come spiegano gli sviluppatori di PredPol.

Detto questo, la polizia predittiva è efficace? Uno studio dell'Università della California sembrerebbe dare risposta positiva, segnalando come nelle città in cui PredPol viene utilizzato (Los Angeles, Atlanta, Seattle, per dirne alcune) i crimini si siano ridotti in media del 7,4%, con punte del 30%. Il problema è che questo studio è stato condotto, tra gli altri, dai due fondatori di PredPol e i risultati riportati sono stati seriamente messi in dubbio in uno studio condotto dall'Università di Grenoble.

Le perplessità, però, non riguardano solo i risultati effettivi, ma anche il modo in cui i dati vengono raccolti e utilizzati. Una prima problematica fondamentale viene efficamente sintetizzata su The Verge: "Se un gran numero di crimini viene denunciato in un luogo specifico non significa necessariamente che lì stiano avvenendo più crimini che altrove. Potrebbe significare che la polizia tende a stazionare nelle vicinanze (rendendo più probabile la denuncia del crimine avvenuto, ndr), che la pattuglia ha deciso di concentrarsi per un certo lasso di tempo in quell'area, che gli abitanti di quel quartiere tendono a denunciare i crimini più facilmente di quanto avvenga altrove. Ma i software predittivi non hanno modo di conoscere tutto ciò, e quindi possono causare una profezia che si autoavvera."

Pubblicità

Il rischio, quindi, è che la polizia prenda di mira determinati quartieri—spesso quelli abitati da minoranze etniche e immigrati

Il meccanismo è evidente: se la polizia già tiene d'occhio una certa zona, avrà modo di intervenire più frequentemente che altrove. L'algoritmo apprenderà che in quella zona ci sono stati numerosi crimini, e continuerà a segnalarla come "zona pericolosa", dando vita a un circolo vizioso in cui, paradossalmente, più la polizia interviene più la zona viene segnalata come a rischio. Allo stesso tempo, una zona che la polizia controlla poco e in cui furti e scippi vengono di rado denunciati potrebbe rimanere ignota all'algoritmo.

Il rischio, quindi, è che la polizia prenda di mira determinati quartieri—spesso quelli abitati da minoranze etniche e immigrati—eccedendo nei controlli e nelle perquisizioni con il pericolo di alzare il livello di tensione. Gli algoritmi—difesi dall'aura di scientificità—potrebbero insomma diventare una giustificazione per la più classica profilazione razziale o stimolare la polizia a fermare e controllare un soggetto per il solo fatto che cammina per una zona indicata come hotspot.

Negli Stati Uniti, proprio nel tentativo di evitare il rischio di profilazione, vengono volontariamente omesse le caratteristiche socio-demografiche dei criminali più frequentemente arrestati nei diversi hotspot. Lo stesso non avviene invece per quanto riguarda Keycrime, un software di polizia predittiva sviluppato da Mario Venturi e in dotazione esclusiva, almeno per il momento, alla questura di Milano.

Pubblicità

Anche in questo caso, le statistiche sono molto positive: rapine a supermercati, negozi e farmacie sono calati del 57% da quando a Milano si usa questo software. Keycrime, però, utilizza molti più dati rispetto ai software americani, concentrandoli sulle persone; come spiega lo stesso Mario Venturi intervistato da RaiUno: "La raccolta meticolosa di queste informazioni è finalizzata a individuare dei tratti caratterizzanti l'evento criminoso, quindi colui che l'ha commesso."

Nel servizio che racconta il funzionamento di Keycrime (software che ha ottenuto una validazione scientifica dall'Università dell'Essex da parte del professor Giovanni Mastrobuoni) si spiega come i poliziotti inseriscono nell'algoritmo precise caratteristiche: se il ladro ha usato una pistola o meno, se era mancino o destro, se era da solo o con dei complici, dove ha colpito, quali sono gli orari o i giorni che predilige e moltissimi altri dettagli (fino a 12mila informazioni per ogni atto criminoso). Il tutto allo scopo di trovare lo schema d'azione di una determinata banda e poter così prevedere dove, quando e come è più probabile che colpirà nell'immediato futuro.

Sicuramente, verrà segnalata anche l'etnia del criminale, informazione tanto utile quanto delicata: non c'è il rischio di indurre la polizia a controllare qualcuno sulla base della sola etnia di appartenenza? Contattato per via telefonica, Mario Venturi nega questa chiave di lettura: "Se il software segnala che in una certa area agiscono dei rapinatori a bordo di una Fiat, la polizia farà più attenzione a chi guida una Fiat. Non è discriminazione: il software aiuta a razionalizzare le risorse e collocarle laddove c'è bisogno."

Pubblicità

Il funzionamento di Keycrime, inoltre, è diverso da quello dei software basati sugli "hotspot"; il suo compito non è quello di portare la polizia a presidiare un'area in cui è probabile che avvenga un crimine, ma di prevedere dove colpirà il criminale che si sta cercando e individuarlo. Più che sul luogo, quindi, agisce sulle persone; un aspetto che sembra mettere il software di Venturi al riparo dalla critica della "profezia che si autoavvera".

"Il software", prosegue Venturi, "è in grado di attribuire la responsabilità anche di altri crimini già compiuti dalla persona fermata: se prima si veniva condannati solo per lo specifico reato che veniva contestato, oggi Keycrime permette di portare a giudizio non per un solo evento, ma per una serie di eventi. Le condanne sono quindi più pesanti, contribuendo, una volta a regime, a far crollare il numero di crimini."

In mezzo a questa marea di dati positivi, si nasconde un'altra insidia, che la diminuzione dei reati per merito di questi programmi faccia dimenticare che compito della società non è solo quello di reprimere il crimine, ma anche di lavorare sulle cause socio-economiche che portano criminalità.

Il rischio, quindi, è che le forze dell'ordine–e, più su, la politica–si accontentino di governare gli effetti e di diffondere statistiche con il segno meno; agendo con una "mentalità schiaccia-la-talpa" (come dicono gli anglosassoni) che porta a una militarizzazione delle zone più difficili e in cui i perché e i per come che causano la criminalità non vengono più analizzati e contrastati.

Seguici sulla nostra nuova pagina!