Polizia predittiva: possono gli algoritmi prevedere i reati?

[pubblicato originariamente su Il Messaggero l’11 dicembre 2017 con il titolo “Scacco alla malavita: arriva l’algoritmo che prevede i reati”]

All’inizio degli anni ’60 tre ragazzi di Angera, vicino Varese, misero a segno 17 rapine in banca tra Milano, Torino e Varese. Colpivano sempre di lunedì, e fu proprio lunedì 15 marzo 1965 che vennero arrestati dalla squadra mobile di Milano, guidata dal commissario Mario Nardone. I tre banditi vennero ribattezzati “banda del lunedì”. Cinquanta anni dopo le cose non sono cambiate: delle 2000 rapine a danno di esercizi commerciali e istituti bancari avvenute a Milano tra il 2008 e il 2011, il 70% può essere collegato a un’altra tra quelle commesse. Insomma: il reato di rapina tende a essere seriale. Questa caratteristica ha spinto Mario Venturi, assistente capo della Polizia di Stato presso la questura di Milano, a sviluppare il software di polizia predittiva KeyCrime, collaudato nel 2007 e regolarmente utilizzato a partire dal 2008. Analizzando i dati relativi alle rapine passate, KeyCrime raggruppa gli eventi simili in una serie e prevede dove e quando è più probabile che avvenga la prossima rapina. Le previsioni indirizzano le operazioni degli agenti sul territorio per permettergli di cogliere i colpevoli in flagrante.

L’idea che i dati e la statistica possano aiutare le attività di sorveglianza e investigazione delle forze dell’ordine non è nuova. Già nel 1994 la polizia di New York aveva messo a punto CompStat, un programma informatico che analizzava le distribuzioni temporali e geografiche dei reati commessi in città ed emetteva dei bollettini periodici con i risultati. Gli agenti avevano infatti notato che a New York i crimini si concentravano in pochi isolati, addirittura pochi incroci, i cosiddetti crime hotspot.

KeyCrime è più sofisticato, si basa sul fatto che il comportamento di alcuni criminali è prevedibile. “Ho sviluppato KeyCrime per condividere con i colleghi che continueranno a lavorare dopo di me le conoscenze maturate durante la mia carriera”, racconta Mario Venturi in un’intervista telefonica. Per ogni rapina commessa, gli agenti dedicati a KeyCrime raccolgono qualche centinaio di informazioni, relative soprattutto al comportamento del rapinatore: se ha usato un’arma, con che mano la impugnava, se l’azione è iniziata subito o invece ha temporeggiato. I dati vengono estratti dai verbali di denuncia delle vittime e da un’analisi accurata delle immagini delle telecamere a circuito chiuso. L’algoritmo individua rapine simili presenti nel database e propone all’agente una serie, un insieme di rapine riconducibili alla stessa mano criminale. Se l’agente accetta la proposta, il sistema produce una previsione, più o meno accurata, sul prossimo reato. Viene infine comunicata agli agenti in pattuglia la fascia oraria, l’area geografica e il tipo di bersaglio (un supermercato, ad esempio) su cui è opportuno concentrare la propria attenzione.

Ma KeyCrime funziona? A rispondere a questa domanda è stato Giovanni Mastrobuoni, economista del Collegio Carlo Alberto di Torino. “Dato che KeyCrime lavora sulla serialità, la sua efficacia va misurata sulle rapine che fanno parte di una sequenza, non su quelle isolate”, spiega Mastrobuoni e prosegue, “maggiore è la lunghezza della serie, migliore è la capacità di previsione”. L’analisi di Mastrobuoni mostra che dalla quarta rapina in poi l’impiego di KeyCrime permette di risolvere il 9% in più di casi. Sembrerebbe un guadagno minimo, ma come afferma Venturi “una volta arrestato in flagranza di reato, il criminale verrà accusato di tutte le rapine precedenti e, se giudicato colpevole, sarà condannato a una pena più lunga”.

Mentre Venturi sviluppava il suo software a Milano, alla University of California Los Angeles l’antropologo Jeffrey Brantingham e il matematico Andrea Bertozzi progettavano PredPol, un algoritmo che formula previsioni sfruttando solo tre informazioni sui crimini passati: data, luogo e tipo di reato (dal furto d’auto, alla rapina, fino all’omicidio). Oggi PredPol è usato da decine di dipartimenti di polizia negli Stati Uniti, che lo acquistano a caro prezzo dalla startup che Brantingham e Bertozzi hanno fondato nel 2012 grazie a un finanziamento di 3,7 milioni di dollari da parte di fondi di venture capital. “Al contrario di KeyCrime, PredPol non è mai stato sottoposto a una valutazione di efficacia da parte di soggetti senza conflitto di interessi”, sottolinea Mastrobuoni, “la trasparenza di questi sistemi è fondamentale, prima di tutto per assicurare ai cittadini che l’investimento sia utile”.

L’unica analisi indipendente condotta su PredPol riguarda il rischio di discriminazione razziale. Da anni attivisti, giornalisti e accademici negli Stati Uniti lamentano il rischio che l’impiego di algoritmi predittivi, soprattutto di machine learning, da parte della polizia possa danneggiare le minoranze. Nel 2016 gli statistici dello Human Rights Data Analysis Group (HRDAG) hanno analizzato le previsioni di PredPol sulla città di Oakland in California, relative al consumo illegale di droga. Nonostante i dati del dipartimento Health and Human Services mostrino che l’uso illecito di sostanze è diffuso uniformemente in tutta la città, le zone a cui PredPol assegna un rischio maggiore sono quelle abitate principalmente da cittadini afro-americani e con basso reddito. Il motivo di questa discrepanza, secondo HRDAG, è che il sistema riceve come input i dati storici sulle denunce e gli arresti e prevede, di conseguenza, il comportamento delle vittime e della polizia piuttosto che dei criminali. In altre parole apprenderebbe i pregiudizi radicati nella società americana e li rinforzerebbe con le sue previsioni.

Dal 2014 anche altri Paesi europei hanno sperimentato sistemi di polizia predittiva. In Germania le polizie di Monaco e Berlino hanno testato il software PRECOBS, che, similmente a KeyCrime, cerca di individuare i professionisti delle rapine. PRECOBS è stato oggetto di critica in Germania, soprattutto per il timore che incentivi le forze di sicurezza alla raccolta indiscriminata di dati, anche personali, violando la privacy e il diritto alla presunzione di innocenza.

Pubblicato da

Chiara Sabelli

Cerco. E, quando trovo, racconto. Giornalista scientifica freelance. Fisica di formazione, in finanza dopo il PhD.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.