Ormai, l’intelligenza artificiale (IA) è oggetto di dibattimento e uso in moltissime sfere della vita umana e questo articolo vuole occuparsi di una in particolare: l’utilizzo dell’IA in ambito di polizia di predizione (c.d. predictive policing) e di giustizia predittiva (c.d. predictive justice) sul territorio nazionale italiano.
IA, polizia di predizione e giustizia predittiva
Innanzitutto, è necessario specificare cosa si intenda per IA, polizia di predizione e giustizia predittiva. L’IA nel settore informatico viene definita come l’insieme di software e hardware che sono in grado di produrre ragionamenti complessi assimilabili all’intelligenza umana e superiori ad essa grazie all’enorme potenza computazionale, criteri di valutazione ed elaborazione dei dati decisamente più complessi di quelli operabili dalla mente umana in pochi secondi. Sono esattamente la performatività (quantità di dati elaborati e velocità di elaborazione), la neutralità statistico-matematica, e l’adattabilità a rendere l’IA fruibile in ambito di sicurezza pubblica e giudiziario. La polizia predittiva consiste nell’utilizzo di sistemi di IA da parte delle forze dell’ordine per l’elaborazione di previsioni statistiche di luogo, modalità, tempo, e/o autore di un crimine futuro. Invece la giustizia predittiva detiene un duplice significato che identifica sia il soggetto deputato al settore (la magistratura), sia l’individuazione di condotte penalmente rilevanti, dei responsabili e delle prove.
Il caso italiano: Giove e KeyCrime
Oggi in Italia stiamo assistendo ad un dibattito sulle sorti di Giove, il software di polizia predittiva che sfrutta la tecnologia di KeyCrime. KeyCrime – sviluppato già nel 2004 per la predizione di rapine commerciali – è utilizzabile per entrambi i settori di pubblica sicurezza e giudiziario. Si tratta di un’IA ibrida tra person-based e place-based predictive policing con miglioramenti rispetto ai sistemi statunitensi ed europei più noti, quali PredPol, Palantir, HunchLab e Precob.
A differenza di quest’ultimi, KeyCrime è ritenuto migliore perché non sfrutta l’hotspot analysis, la network analysis e il public health approach che sono tutte strategie di prevenzione poco efficienti, ma soprattutto altamente discriminatorie nei confronti di minoranze etniche.
Nei dettagli:
- L’hotspot analysis è la prima strategia usata in polizia predittiva prima ancora dell’avvento dell’IA come mezzo di sorveglianza pubblica (c.d. algorithmic governance). Si tratta di una strategia di rilevazione dei crimini futuri che si basa su un modello di calcolo chiamato epidemic-type aftershock sequence (ETAS) che assume che la probabilità di un evento di accadere in prossimità ad uno simile accaduto in precedenza è più alta (near repeat effect). Il problema di questo approccio sta nel fatto che sulla base di dati passati raccolti dalle forze dell’ordine (in USA soprattutto) sempre negli stessi quartieri per questioni legate alla discriminazione raziale, i sistemi di IA producono predizioni fallaci e concentrate solo su quei quartieri, non sulla totalità della città.
- La network analysis è una metodologia usata per rintracciare possibili sospettati e vittime di crimini attraverso l’analisi matematica delle loro reti di attività, ruoli sociali, conoscenti, parenti e amici. Per questa strategia ci si basa sull’assunzione che la rete di contatti comunica molti indizi rispetto ai criminali e alle vittime. Tuttavia nel tempo ha fornito alle forze dell’ordine il pretesto di cercare i criminali in cerchie ristrette di persone negli stessi quartieri, alimentando così le possibili discriminazioni.
- Il public health approach nasce come strategia di prevenzione per la diffusione dei virus che identifica rischi ambientali per la sicurezza pubblica. Con la stessa assunzione di base, questa strategia viene utilizzata dalla polizia predittiva per affibbiare caratteristiche di rischio ai luoghi e/o alle persone. Tuttavia, il problema risiede nell’assenza di oggettività scientifico-criminologica per indicare i fattori di rischio. Un esempio: la povertà è spesso indicata come fattore di rischio criminale, ma si tratta di un fattore che, se usato come variabile nell’algoritmo di IA, conduce ad avere delle previsioni che escludono totalmente certi tipi di crimini, i c.d. “white collar crimes”.
Diversamente, KeyCrime si basa sul principio di “Crime Linking”: un algoritmo che combina dati storici relativi al profilo degli autori di reati passati (come ad esempio abbigliamento utilizzato, gesti e movenze, segni riconoscibili) e i luoghi e le tempistiche precise dei crimini commessi. Tramite correlazione (e non causazione) il software suggerisce quali crimini sono compiuti dagli stessi criminali e fornisce predizioni sulle loro future condotte. Stando al Fascicolo 06/2019 di diritto penale contemporaneo, l’utilizzo di KeyCrime in polizia giudiziaria penale è possibile grazie ad un limite dell’algoritmo stesso, ossia l’utilizzabilità limitata ai casi di condotte seriali e non sporadiche. Gli aspetti positivi di questa IA permettono, infatti, non solo l’identificazione dei soggetti per la polizia predittiva, ma anche l’utilizzo del sistema stesso come mezzo di reperimento, verifica e confronto di dati e informazioni che supportano e recuperano l’efficienza dei giudizi penali (specialmente le richieste di archiviazione).
Dubbi e preoccupazioni
Tuttavia, nonostante i passi avanti, dei dubbi rimangono ancora irrisolti.
- Il rischio discriminatorio non è stato eliminato, ma solo ridotto. L’algoritmo di KeyCrime (come gli altri usati per lo stesso scopo) è “allenato” sulla base di dati storici raccolti dall’uomo, il che significa che l’oggettività e la correttezza della raccolta non può essere assicurata e, quindi, il rischio che le predizioni siano erronee e che compromettano il godimento dei diritti fondamentali (come quello della riservatezza) rimane concreto, seppur minore.
- Stando all’interrogazione parlamentare richiesta al ministro Piantedosi il 7 giugno 2023, restano ancora ignoti i seguenti aspetti: le banche dati con le quali l’algoritmo verrà allenato; se le vittime di reato dovranno compilare set di domande che diventeranno poi ulteriori dati per allenare l’algoritmo; chi sarà responsabile dei dati usati dal software (visto che il Garante della privacy ha già vietato in passato l’utilizzo di questi sistemi) e se verrà creata un’unità speciale per la gestione del software; se il software dialogherà con SARI (il software italiano di facial recognition); e quali saranno le misure di sicurezza informatica.
- Il dubbio più grande rimane di ambito etico-legale e riguarda la prospettiva di ricostruzione dibattimentale e il giudizio penale stesso. Ci si chiede se le predizioni del software potranno essere utilizzate come elemento probatorio per giustificare eventuali misure cautelari e/o richieste di intercettazione. Stando alle fonti giuridiche dei codici penale e di procedura penale, l’IA può essere un ottimo strumento probatorio testimoniale (non scientifico) che si può utilizzare durante i processi, ma in assoluto non può e non potrà mai sostituire il giudizio umano (art. 192, 2° co., c.p.p.). Questo perchè se si vuole una sentenza che trasmetta e comprenda la complessità delle azioni umane e delle infinite variabili che le possono influenzare, è necessario un giudizio di tipo qualitativo (come quello che è in grado di elaborare l’essere umano) e non unicamente quantitativo (come quello elaborato dalle macchine, anche le più avanzate). Ad esempio, per l’IA è impossibile calcolare e (in)validare sia la ragionevolezza del dubbio – che è l’essenza stessa del giudizio di condanna o meno – (art. 533 c.p.p.), sia il criterio della gravità (art. 133, c.p.).
Cosa dice la normativa europea
Prima ancora che Giove diventasse argomento di interrogazione parlamentare, a imporre la necessità di mantenere il primato del giudizio umano è stata la Commissione Europea nel 2018 che, con un focus sul piano etico, ha raccomandato una serie di linee guida per l’utilizzo dell’IA che includono il bisogno di un controllo umano costante insieme a: affidabilità e resistenza degli algoritmi di fronte ad errori; costante informazione dei soggetti passivi riguardo l’uso dei loro dati; e assicurazione della trasparenza (intesa come tracciabilità dei sistemi). Soprattutto l’ultimo punto è e rimarrà oggetto di dibattito in quanto è praticamente impossibile garantire tracciabilità e trasparenza dei software di IA a causa della loro struttura c.d. “black box” che sostiene il loro intero sistema di auto-apprendimento.
In contrarietà proprio a quest’ultima linea guida, durante un’intervista Mario Venturi, ex assistente capo della Questura di Milano e sviluppatore di KeyCrime, ha affermato che il software non richiede responsabilità pubblica e non viola le libertà degli individui perché: “la prevenzione nel nostro caso è mirata: il software ti propone solo il crime linking e la predizione dei prossimi obiettivi”. Ci si può chiedere dunque se abbia senso implementare un software di IA, con i relativi costi sia di tipo economico che di tipo etico-legale, per prevenire (senza estrema certezza) solo un tipo di crimine: le rapine.
A dirimere qualche dubbio potrebbe essere, tuttavia, la normativa europea in materia. Basato su un presupposto di calcolo del rischio per i diritti fondamentali, l’AI Act dell’Unione Europea fissa regole armonizzate per lo sviluppo, immissione sul mercato e utilizzo di sistemi di IA nell’Unione e differenzia gli usi dell’IA a seconda del loro livello di rischio: inaccettabile, alto, e basso o minimo. Ascrivendo i sistemi di polizia predittiva e i sistemi di identificazione biometrica ai fini di controllo sociale (nel caso italiano i software Giove e SARI) tra gli utilizzi che potrebbero creare un rischio inaccettabile per il godimento dei diritti fondamentali, l’AI Act allo stato attuale ne vieta il loro utilizzo per attività di predizione (c.d. “real-time investigation” e “pre-crime practices”), ma ne permette l’impiego per ragioni di sicurezza nazionale e attività investigative post-crimine, il che comunque lascia ampio spazio di manovra ai governi nazionali per lo sviluppo e l’applicazione dei sistemi di polizia predittiva e giudiziaria.
Conclusioni
In questo clima di proliferazione di dichiarazioni, proposte di legge, e regolamentazione è pertanto essenziale che gli sviluppatori e i progettisti di software IA per predictive policing siano consapevoli dei principi e della loro applicazione in modo da scegliere come allineare correttamente il loro utilizzo per la costruzione di sistemi di IA più sicuri, affidabili ed etici. Infatti, poiché l’IA affidabile (Thrustworthy AI) riguarda la progettazione e la robustezza, questi fattori devono essere incorporati nei sistemi fin dall’inizio; gli sviluppatori hanno il compito di ridurre al minimo la disuguaglianza dei dati causata dai sistemi automatizzati e al contempo di massimizzare la sicurezza e l’efficacia dei sistemi di IA in linea con le linee guida e i principi europei.
Bibliografia
Parodi C. e Sellaroli V. (2019). SISTEMA PENALE E INTELLIGENZA ARTIFICIALE: MOLTE SPERANZE E QUALCHE EQUIVOCO. Fascicolo 06/2019 di Diritto Penale Contemporaneo. Retrieved July 11, 2023 from: https://archiviodpc.dirittopenaleuomo.org/fascicoli/44-fascicolo-6-2019
Moore, M. (1995). Public Health and Criminal Justice Approaches to Prevention. Crime and Justice, 19, 237-262. Retrieved December 28, 2021, from: https://www.jstor.org/stable/1147598
Degeling, M., & Berendt, B. (2017). What’s wrong about Robocops as Consultants? – A technology-centric critique of predictive policing. AI & Society, 33, 347-356. Retrieved December 30, 2021, from: https://link.springer.com/article/10.1007/s00146-017-0730-7
van der Hulst, R. (2008). Introduction to Social Network Analysis (SNA) as an investigative tool. Trends in Organized Crime, 12, 101-121. doi:10.1007/s12117-008-9057-6
Brayne, S. (2020). Predict and Surveil: Data, Discretion, And The Future of Policing (First ed.). New York: Oxford University Press