sicurezza e diritti

Polizia predittiva e AI Act: cosa vieta davvero l’Europa?



Indirizzo copiato

L’AI Act dell’UE impone limiti stringenti alla polizia predittiva fondata su profilazione e tratti personali, per prevenire derive discriminatorie e garantire la centralità della valutazione umana nelle decisioni di sicurezza

Pubblicato il 31 lug 2025

Luca Mattei

Researcher & Legal Consultant presso Cyberethics Lab.



privacy e AI polizia predittiva AI e lavoro tecnocontrollo Telecamere e privacy chatcontrol e democrazia

La polizia predittiva rappresenta un’evoluzione delle strategie di sicurezza pubblica, basata sull’analisi dei dati per prevedere e prevenire comportamenti criminali. Sebbene non implichi necessariamente l’uso di tecnologie avanzate, l’integrazione dell’intelligenza artificiale ha trasformato radicalmente questi sistemi, sollevando interrogativi etici e giuridici. L’Unione Europea ha affrontato tali questioni nell’AI Act, introducendo limiti stringenti sull’uso di sistemi predittivi basati unicamente sulla profilazione o sui tratti della personalità.

Introduzione alla Polizia Predittiva

La polizia predittiva è una tecnica finalizzata a prevedere comportamenti criminali, con l’obiettivo di rendere le attività delle forze dell’ordine più efficienti. Oppure, in altre parole, “le cosiddette tecniche di polizia predittiva promettono di permettere agli attori della sicurezza di individuare potenziali comportamenti criminali e prevenire i crimini prima che si verifichino” (Vogiatzoglou, 2025).

Questa tecnica non si avvale necessariamente di strumenti tecnologici particolari o avanzati. Per esempio, celebre è il caso di CompStat, un sistema di gestione delle performance introdotto dalla Polizia di New York nel 1994 per monitorare e ridurre il crimine. Tuttavia, è altrettanto vero che negli ultimi due decenni sono state sviluppate tecnologie sempre più avanzate e sofisticate che hanno fatto fare decisamente un salto di qualità alla polizia predittiva.

L’inserimento dell’AI in questi sistemi predittivi è stato particolarmente significativo. Questi nuovi sistemi utilizzano grandi set di dati storici, geografici, archivi di polizia e teorie criminologiche per generare previsioni. Successivamente, quest’ultime possono essere utilizzate per decidere dove allocare le risorse, svolgere indagini, monitorare aree ad alto rischio o valutare il rischio individuale di commettere o essere esposti a reati.

Ci sono due principali tipologie di sistemi di polizia predittiva, comunemente note come:

  • “Location-based”: sistemi che utilizzano dati storici e geolocalizzati sui crimini per identificare aree in cui è più probabile che si verifichino reati futuri, allo scopo di ottimizzare il pattugliamento e la distribuzione delle risorse delle forze dell’ordine.
  • “Profilation-based”: è un approccio che si concentra sull’analisi di caratteristiche individuali, comportamenti passati o profili socio-demografici per valutare il rischio che una persona commetta un reato in futuro.

Vi sono, però, soluzioni ibride o alternative che non rientrano pienamente in questa dicotomia, come il modello crime-linking-based sviluppato da KeyCrime. Sebbene tali sistemi possano offrire vantaggi in termini di efficienza, in particolare per forze dell’ordine con risorse limitate, il loro impiego solleva questioni critiche. Le previsioni algoritmiche rischiano infatti di trascurare le circostanze individuali delle persone e riprodurre pregiudizi sociali, minando la fiducia del pubblico nelle istituzioni di giustizia e sicurezza. Per esempio, tali sistemi sono suscettibili al “runaway feedback loop”, a causa del quale la polizia può essere rimandata negli stessi quartieri indipendentemente dal reale tasso di criminalità. Questo fattore può creare discriminazione e seri problemi di fiducia tra gli attori di sicurezza e le comunità messe sotto crescente sorveglianza. Anche per questi motivi, il legislatore europeo ha ritenuto necessario regolarle nell’ambito dell’AI Act e sono state poi oggetto di chiarimenti nelle Linee Guida sulle Pratiche AI Vietate della Commissione Europea.

L’AI Act: inquadramento generale

L’AI Act dell’Unione Europea rappresenta il primo quadro normativo completo a livello globale dedicato alla regolamentazione dell’intelligenza artificiale. Adotta un approccio basato sul rischio, suddividendo i sistemi AI in quattro categorie: rischio minimo, limitato, elevato e proibito. L’’Art. 5 dell’AI Act si occupa del livello più alto di rischio, elencando i casi in cui l’utilizzo di sistemi di IA è vietato. In questo elenco, l’art. 5(1d) si occupa specificamente di bandire alcune forme di polizia predittiva. Più precisamente stabilisce che è proibita:

“l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di un sistema di IA per effettuare valutazioni del rischio relative a persone fisiche al fine di valutare o prevedere il rischio che una persona fisica commetta un reato, unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità; tale divieto non si applica ai sistemi di IA utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un’attività criminosa, che si basa già su fatti oggettivi e verificabili direttamente connessi a un’attività criminosa”.

Le valutazioni del rischio volte a stimare o prevedere la possibilità che un individuo commetta un reato vengono talvolta definite come “crime forecasting” e rientra pienamente nella famiglia “profilation-based” della polizia predittiva. Infatti, tali valutazioni di rischio e predizioni sono proiettate al futuro e riguardano reati non ancora commessi oppure considerati come potenzialmente imminenti, compresi i casi di tentativi o attività preparatorie alla commissione di un reato. Nella prossima sezione entreremo nel dettaglio dell’analisi legale.

Analisi della disposizione dell’Art. 5(1d)

Il Considerando 42 dell’AI Act chiarisce il contesto e la ratio del divieto previsto all’Art. 5 (1d) dell’AI Act. In particolare, sottolinea che l’azione delle forze dell’ordine deve essere informata dal principio della presunzione di innocenza. Quindi, le persone fisiche devono essere giudicate sulla base del loro comportamento effettivo e non in base a comportamenti predetti da un sistema di intelligenza artificiale, qualora tali predizioni si fondino esclusivamente su attività di profilazione, tratti della personalità o caratteristiche individuali.

Riassumendo, affinché il divieto dell’Art. 5 (1d) si applichi, devono essere soddisfatte congiuntamente tutte le seguenti condizioni:

  1. Deve trattarsi della messa sul mercato, messa in servizio per lo specifico scopo, oppure utilizzo di un sistema di intelligenza artificiale;
  2. Il sistema deve essere impiegato per valutare o prevedere il rischio che una persona fisica commetta un reato;
  3. Tale valutazione o previsione deve basarsi esclusivamente su uno o entrambi i seguenti elementi:
    • (a) la profilazione della persona fisica;
    • (b) la valutazione dei suoi tratti della personalità e caratteristiche individuali.

Nei prossimi paragrafi questi requisiti e le loro eccezioni verranno illustrati più nel dettaglio.

Cosa non è vietato dall’AI Act

Il divieto di cui all’articolo 5(1)(d) non comporta una proibizione generalizzata della polizia predittiva. Si applica esclusivamente ai sistemi di IA che effettuano tali valutazioni soddisfacendo anche la terza condizione sopra richiamata, ovvero che si basino unicamente sulla profilazione o sulla valutazione dei tratti e delle caratteristiche personali. Il termine “profilazione” usato nel dispositivo normativo è riferibile alla definizione fornita all’Art. 4(4) del General Data Protection Regulation (GDPR). In tale definizione va ricompresa sia la profilazione individuale che quella di gruppo, ove schemi e pattern ricavati da un gruppo (ad esempio in base a etnia, quartiere, dati di recidiva) vengano applicati a individui. I tratti e caratteristiche della personalità costituiscono una categoria ampia. Il Considerando 42 dell’AI Act fornisce esempi quali: nazionalità, luogo di nascita, residenza, numero di figli, livello di indebitamento o tipo di automobile. Anche il termine “esclusivamente” è determinante. Se la previsione non si basa unicamente sulla profilazione o sulle caratteristiche personali il divieto non trova applicazione.

Inoltre, tecnologie con un ambito fondamentalmente diverso, come quelle “location-based” non sono incluse nell’elenco delle pratiche proibite secondo l’AI Act. Bensì, sono da includere nelle pratiche considerate “high-risk” (Allegato III, 6d). Infine, come indicato, il divieto non si applica nei casi espressamente esclusi dall’ultima parte dell’articolo 5(1d), ovvero laddove il sistema sia utilizzato a supporto della valutazione umana del coinvolgimento di una persona in un’attività criminale, purché tale valutazione sia già fondata su fatti oggettivi e verificabili direttamente connessi a un reato.

Quindi, riassumendo, l’AI Act non vieta in assoluto la polizia predittiva, ma solo l’utilizzo di sistemi che operano esclusivamente sulla base della profilazione o della valutazione dei tratti della personalità. È espressamente escluso dal divieto l’utilizzo di sistemi di IA che “supportano la valutazione umana del coinvolgimento di una persona in un’attività criminale, basata già su fatti oggettivi e verificabili direttamente collegati a tale attività.”

Questo implica che qualora vi sia un sospetto ragionevole fondato su fatti concreti, e l’IA venga utilizzata a supporto (non in sostituzione) della valutazione umana, il sistema non è vietato. Comunque, in tali casi, il sistema verrà considerato sempre “high-risk” (Allegato III, 6(d)), e soggetto agli obblighi specifici, tra cui la trasparenza, la documentazione e il controllo umano.

Esempi di utilizzi vietati:
Un sistema che prevede la probabilità che una persona commetta un atto di terrorismo sulla base esclusiva di età, nazionalità e tipo di automobile. Uno strumento che segnala come potenziali autori di reato dei minori, unicamente perché vivono in aree “a rischio” o hanno legami familiari con individui valutati ad alto rischio.
Esempi di utilizzi consentiti, ma classificati come “high-risk”:
Un sistema di IA che supporta un investigatore nel valutare il rischio di recidiva di un soggetto sulla base di comportamenti recenti, capi d’imputazione precedenti e prove forensi, combinati con il giudizio umano. Uno strumento che individua zone a elevata incidenza criminale per assegnare pattugliamenti, utilizzando dati geolocalizzati e temporalizzati relativi a crimini effettivamente denunciati.

Riflessioni conclusive sull’impatto normativo

In base alle Linee Guida della Commissione Europea, la polizia predittiva non è completamente vietata dall’AI Act, ma è soggetta a limiti rigorosi. Il divieto assoluto dell’art. 5(1d) si applica solo ai sistemi che effettuano previsioni esclusivamente sulla base della profilazione o dei tratti della personalità. Questo dispositivo è cruciale: serve a evitare che l’intelligenza artificiale sia impiegata come strumento opaco di discriminazione o sanzione arbitraria, assicurando al contempo che le forze dell’ordine possano utilizzare strumenti basati sui dati in modo responsabile, trasparente e sotto il controllo umano.

Tutti gli altri sistemi AI di polizia predittiva sono soggetti invece agli obblighi e i requisiti della categoria “high-risk” dell’AI Act. Questa collocazione, vista la sensibilità del tema, è quantomai opportuna, ma vista la veloce emersione di nuove tecnologie e metodologie, lo sviluppatore deve approfondire adeguatamente i requisiti “high-risk” previsti affinché possano dirsi efficaci e funzionali.

Questo breve approfondimento è parte di una ricerca eseguita da CyberEthicsLab. nel programma di ricerca e innovazione PRESERVE Horizon Europe dell’Unione Europea e nell’ambito dell’accordo di sovvenzione n. 101168392.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati