stato di diritto

Algoritmi predittivi: il futuro della sicurezza passa dal diritto



Indirizzo copiato

I sistemi di sicurezza predittiva come MineCrime promettono di anticipare i crimini attraverso algoritmi. Ma sollevano questioni giuridiche su legalità, privacy, discriminazioni e trasparenza. L’innovazione tecnologica deve confrontarsi con i principi dello Stato di diritto europeo

Pubblicato il 5 feb 2026

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



tecnocontrollo digitale ia e discriminazione di genere chat control Sicurezza Predittiva

Negli ultimi anni, il governo della sicurezza urbana ha conosciuto una trasformazione profonda, alimentata dalla crescente disponibilità di dati, dalla potenza di calcolo e dall’affermazione di tecniche di intelligenza artificiale applicate all’analisi predittiva.

La promessa tecnologica della prevenzione algoritmica

In questo contesto si collocano strumenti come le piattaforme di crime prediction, tra cui MineCrime, presentate come soluzioni capaci di anticipare l’insorgenza di fenomeni criminali e di orientare in modo più efficiente l’azione preventiva delle amministrazioni pubbliche e delle forze di polizia.

L’idea di fondo è seducente: sostituire, o quantomeno affiancare, l’intuizione umana e l’esperienza empirica con modelli algoritmici in grado di individuare pattern ricorrenti, aree a rischio e finestre temporali critiche, consentendo interventi mirati e una razionalizzazione dell’impiego delle risorse pubbliche.

Tuttavia, proprio questa promessa di razionalità e neutralità tecnologica impone una riflessione giuridica approfondita. L’uso di sistemi predittivi in ambito securitario incide su diritti fondamentali, ridefinisce i confini della discrezionalità amministrativa e sollecita una rilettura dei principi classici dello Stato di diritto alla luce della decisione algoritmica. Il rischio, altrimenti, è quello di una progressiva naturalizzazione della tecnologia come fatto neutro e inevitabile, sottratto al vaglio critico del diritto e del controllo democratico.

L’automazione decisionale tra legalità e discrezionalità amministrativa

L’impiego di algoritmi predittivi nella sicurezza urbana rappresenta, sotto il profilo amministrativistico, un’evoluzione delle tradizionali politiche di prevenzione, che da sempre si fondano su dati statistici, analisi criminologiche e valutazioni di contesto. La novità non risiede tanto nell’uso dei dati in sé, quanto nel grado di automazione e di opacità che caratterizza i sistemi di intelligenza artificiale, soprattutto quelli basati su tecniche di machine learning. In tali modelli, l’algoritmo non si limita ad applicare regole predeterminate, ma apprende da grandi moli di dati storici, elaborando correlazioni che spesso sfuggono alla comprensione immediata dell’operatore umano.

Questo mutamento ha implicazioni rilevanti per il principio di legalità dell’azione amministrativa, sancito dall’articolo 97 della Costituzione e tradizionalmente inteso come esigenza di predeterminazione normativa, trasparenza e controllabilità del potere pubblico. Quando l’azione preventiva si fonda su output algoritmici che orientano pattugliamenti, controlli o politiche urbane, diventa essenziale chiarire quale sia il ruolo effettivo del decisore umano.

Il rischio concreto è che l’algoritmo finisca per orientare in modo decisivo le scelte operative, trasformandosi da strumento di supporto a vero e proprio co-decisore, se non addirittura in un decisore di fatto. Anche laddove la decisione finale resti formalmente in capo all’autorità pubblica, l’affidamento sistematico alle indicazioni del modello predittivo può determinare una delega implicita, difficilmente compatibile con l’esigenza di responsabilità e imputabilità che permea l’agire amministrativo.

In questa prospettiva, l’esperienza comparata offre spunti significativi. Negli Stati Uniti, il dibattito attorno a sistemi come PredPol ha messo in luce come l’uso routinario di mappe di rischio possa influenzare profondamente le pratiche di polizia, anche in assenza di un obbligo giuridico di conformarsi alle indicazioni algoritmiche.

Il diritto europeo, pur muovendosi in un contesto valoriale differente, non è immune da dinamiche analoghe, soprattutto a livello locale, dove l’adozione di soluzioni tecnologiche è spesso trainata da esigenze di efficienza e di visibilità politica.

Il trattamento dei dati tra minimizzazione e sorveglianza diffusa

Un secondo profilo critico riguarda la protezione dei dati personali e, più in generale, il rapporto tra sicurezza e privacy. I sistemi di crime prediction si alimentano di una pluralità di fonti informative, che possono includere dati su reati denunciati, caratteristiche socio-economiche dei quartieri, flussi di mobilità, eventi urbani e, in alcuni casi, informazioni individuali.

Anche quando i dati sono formalmente anonimizzati o aggregati, la loro combinazione può generare effetti di re-identificazione o, quantomeno, di profilazione territoriale, con conseguenze non trascurabili per le comunità interessate.

Dal punto di vista del diritto europeo della protezione dei dati, l’utilizzo di tali sistemi impone il rispetto dei principi di liceità, necessità e proporzionalità sanciti dal Regolamento (UE) 2016/679. In particolare, il trattamento di dati per finalità di prevenzione dei reati da parte di autorità pubbliche deve trovare una base giuridica chiara e specifica e rispettare il principio di minimizzazione. Inoltre, l’articolo 22 del GDPR, pur non applicandosi automaticamente a ogni forma di supporto algoritmico, pone un argine significativo rispetto alle decisioni basate unicamente su trattamenti automatizzati che producono effetti giuridici o incidono in modo analogo significativamente sulla persona.

La giurisprudenza europea ha più volte sottolineato come le esigenze di sicurezza non possano giustificare forme indiscriminate di sorveglianza. Basti richiamare, in questa sede, la sentenza Digital Rights Ireland della Corte di giustizia dell’Unione europea, che ha affermato l’incompatibilità della conservazione generalizzata dei dati di traffico con i diritti fondamentali alla vita privata e alla protezione dei dati.

Analogamente, la Corte europea dei diritti dell’uomo, nel caso S. e Marper c. Regno Unito, ha chiarito che la mera utilità preventiva non è sufficiente a legittimare la conservazione estesa di dati personali. Questi principi assumono un rilievo diretto anche rispetto ai sistemi di sicurezza predittiva, che rischiano di introdurre una forma di sorveglianza preventiva diffusa, fondata non sul comportamento individuale, ma sull’appartenenza a un’area o a un profilo di rischio.

Il circolo vizioso dei bias e il rischio di discriminazioni indirette

Uno degli aspetti più delicati dell’uso dell’intelligenza artificiale in ambito securitario concerne il rischio di discriminazioni algoritmiche. I modelli predittivi apprendono dai dati del passato, che riflettono non solo la realtà criminale, ma anche le scelte pregresse delle forze dell’ordine, le priorità politiche e, talvolta, pregiudizi sociali stratificati. Se in determinate aree urbane si è storicamente concentrata una maggiore attività di controllo, è probabile che i dati registrino un numero più elevato di reati, alimentando un circolo vizioso in cui l’algoritmo segnala come “a rischio” proprio quei territori, giustificando ulteriori interventi e rafforzando le disuguaglianze esistenti.

Dal punto di vista giuridico, tale dinamica solleva interrogativi profondi sul rispetto del principio di uguaglianza sancito dall’articolo 3 della Costituzione e sul divieto di discriminazioni indirette, ormai riconosciuto anche nel diritto europeo. Anche in assenza di un’intenzione discriminatoria, l’effetto concreto dell’algoritmo può tradursi in un trattamento differenziato di specifiche comunità, spesso già vulnerabili sotto il profilo socio-economico. Emblematico, in tal senso, è il dibattito sviluppatosi attorno al sistema COMPAS negli Stati Uniti, oggetto del noto caso State v. Loomis, che ha messo in evidenza le difficoltà di contestare un punteggio di rischio quando il funzionamento del modello è coperto da segreto industriale.

Nel contesto europeo, l’attenzione a questi profili è destinata ad aumentare con l’entrata in vigore dell’AI Act, che qualifica come ad alto rischio i sistemi di intelligenza artificiale utilizzati per finalità di law enforcement e prevenzione dei reati. Tale qualificazione comporta obblighi stringenti in termini di qualità dei dati, gestione dei rischi e supervisione umana, confermando come il legislatore europeo abbia piena consapevolezza del potenziale impatto discriminatorio di questi strumenti.

Spiegabilità algoritmica e sindacato giurisdizionale

La questione della trasparenza rappresenta il punto di snodo tra tecnologia e Stato di diritto. Se l’azione amministrativa deve essere motivata e comprensibile, l’impiego di sistemi algoritmici impone di interrogarsi su cosa significhi, in concreto, spiegare una decisione basata su un modello predittivo. La trasparenza non può esaurirsi nella mera pubblicazione del codice o nella descrizione astratta del funzionamento del sistema, ma deve consentire ai cittadini e ai giudici di comprendere come e perché una determinata area sia stata classificata come a rischio e quali dati abbiano inciso in modo determinante.

In assenza di adeguati meccanismi di spiegabilità, il rischio è quello di una tecnicizzazione della decisione pubblica che sottrae scelte rilevanti al controllo democratico e giurisdizionale. La giurisprudenza amministrativa italiana ha più volte ribadito l’obbligo di motivazione degli atti amministrativi e la loro sindacabilità, principi che non possono essere elusi invocando la complessità tecnica dell’algoritmo. In questa prospettiva, l’algoritmo deve rimanere uno strumento e non un alibi, e la pubblica amministrazione deve essere in grado di rendere conto delle proprie scelte anche quando esse sono supportate da sistemi automatizzati.

Verso un equilibrio tra innovazione e tutela dei diritti fondamentali

L’adozione di sistemi di sicurezza predittiva come MineCrime non può essere letta esclusivamente in termini di progresso tecnologico o di efficientamento amministrativo. Essa impone una riflessione più ampia sul modello di sicurezza che si intende perseguire e sul ruolo che l’algoritmo è chiamato a svolgere all’interno dello Stato di diritto. La prevenzione del crimine è un obiettivo legittimo e necessario, ma non può essere perseguita a costo di una compressione silenziosa dei diritti fondamentali o di una delega opaca del potere decisionale a sistemi automatizzati.

In ultima analisi, la sfida non è quella di rifiutare l’intelligenza artificiale, ma di incardinarla in un quadro normativo e culturale che ne limiti gli eccessi e ne orienti l’uso in modo conforme ai principi costituzionali ed europei. Solo attraverso regole chiare, trasparenza effettiva, supervisione umana significativa e un controllo giurisdizionale pienamente effettivo sarà possibile coniugare l’innovazione tecnologica con la tutela della persona, evitando che la promessa di una sicurezza più efficiente si traduca, paradossalmente, in una nuova forma di vulnerabilità giuridica.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x