“Vengo dal regno dei morti”. Era solito dirlo un grande pubblico ministero, Roberto Pennisi, noto per le sue importanti inchieste sul crimine mafioso, scomparso pochi giorni fa. A indicare il rapido cambiamento, anche tecnologico, nel modo di fare indagini e svolgere queste delicate funzioni. Chi ha letto il mio romanzo autobiografico “Un’Arma nel cuore” (Gambini editore) sa bene cosa intendo. Non senza un pizzico di sapore nostalgico, rievoco sbirri old style, tra il profumo di inchiostro della vecchia Olivetti linea 98, mescolato a quello dei tanti caffè notturni passati a ragionare tra carte ed interrogatori interminabili, o al riascolto delle prime logoranti microspie faticosamente collocate nelle abitazioni dei corleonesi o di altri boss delle mafie. Ma in pochi decenni tutto è cambiato, criminalità e tecnologie.
Oggi strumenti di predictive policing, riconoscimento facciale e data mining permettono una velocità e una capacità di correlazione impensabili solo pochi anni fa. Ma quando l’investigazione si automatizza, il confine tra efficienza e abuso si assottiglia. E la domanda sorge spontanea: chi controlla gli algoritmi che indagano sugli uomini?
Come l’intelligenza artificiale nelle indagini ha cambiato il lavoro degli investigatori
Negli anni in cui le indagini si svolgevano di notte, tra caffè e intercettazioni da decifrare, l’investigatore era prima di tutto un artigiano dell’intuito. Osservava, annotava, collegava.
Applicava un metodo frutto di skills, come diremmo oggi, e di studi umanistici e giuridici che portavano ad applicare il processo logico deduttivo (premessa maggiore, premessa minore, deduzione) ereditato dai filosofi greci, associato a quello induttivo (dal particolare a regole generali), necessario per poter costruire premesse maggiori sostenibili e che diventavano patrimonio genetico dello sbirro.
Ma oggi gran parte di quel lavoro viene svolto da sistemi che scandagliano miliardi di dati in pochi secondi. E l’intelligenza artificiale è entrata nei reparti investigativi, nei software di analisi forense, nell’analisi delle tracce rilevate sulla scena del delitto e persino nei centri di comando delle forze di polizia.
Ma ogni innovazione porta con sé una domanda: chi controlla il controllore? Per carità, non che pedinamenti o intercettazioni siano superati, anzi. Ma i pedinamenti elettronici o le intercettazioni stesse si avvalgono dell’AI, per correlare in tempo reale masse di dati e informazioni provenienti anche da telecamere, telefoni, social network e registri bancari.
Strumenti di machine learning vengono impiegati per anticipare comportamenti criminali (predictive policing), riconoscere volti, tracciare flussi di denaro o individuare anomalie nei movimenti finanziari e generare operazioni sospette.
Negli Stati Uniti, sistemi come PredPol e CompStat elaborano statistiche e segnalano aree urbane “a rischio”, in cui intensificare la presenza delle forze di polizia. Lavoro questo che veniva svolto anche in passato su fenomeni di criminalità urbana diffusa, ma empiricamente, e funzionava.
In Europa, diverse polizie sperimentano strumenti analoghi per analizzare pattern di reato. Un cambiamento profondo, che rende le indagini più rapide ma anche più dipendenti da logiche algoritmiche spesso opache.
Indice degli argomenti
Intelligenza artificiale nelle indagini: opportunità e limiti delle nuove tecniche
L’intelligenza artificiale ha permesso di velocizzare attività che un tempo richiedevano settimane di lavoro umano. Nel campo del cybercrime, ad esempio, consente di individuare rapidamente connessioni tra indirizzi IP, criptovalute e account social.
Nel contrasto al terrorismo, facilita la correlazione tra viaggi, chiamate e contatti sospetti. Tuttavia, l’AI porta con sé il rischio del cosiddetto effetto oracolo: l’investigatore, soprattutto se, in quanto nativo digitale, non ha maturato la necessaria esperienza, rischia di cadere nella trappola della fiducia cieca nella macchina, riducendo l’analisi critica e il confronto con i fatti.
Un errore che può costare caro, perché l’algoritmo lavora su correlazioni, non sul rapporto logico tra causa ed effetto. E se i dati di partenza sono distorti, se la premessa maggiore di quell’insostituibile percorso logico è fallace, il risultato sarà solo la proiezione amplificata di quel bias.
E ricordiamolo: BIAS è un termine inglese che significa pregiudizio, distorsione o errore sistematico. Nel contesto dell’intelligenza artificiale, indica qualsiasi deviazione non neutrale nei dati o negli algoritmi che porta il sistema a produrre risultati falsati o discriminatori.
Le principali forme di bias nei sistemi di AI
Nella letteratura, si è soliti distinguere diverse forme di bias:
a. Data bias, ovvero quando i dati usati per addestrare l’algoritmo sono incompleti o rappresentano solo una parte della realtà (es. più volti maschili che femminili, più caucasici che africani).
b. Algorithmic bias, ossia quando il modo in cui l’algoritmo elabora i dati favorisce certi risultati rispetto ad altri.
c. Human bias, quando cioè i pregiudizi sono propri di chi progetta o interpreta l’AI e si riflettono nelle sue decisioni o valutazioni.
Errori e falsi positivi dell’intelligenza artificiale nelle indagini
E non è un rischio teorico: nel 2020, a Detroit, un uomo di nome Robert Williams venne arrestato perché un sistema di riconoscimento facciale lo aveva “riconosciuto” quale autore di un furto. Era un errore: il volto della telecamera non era il suo, ma il software lo aveva segnalato con alto livello di “confidenza statistica”.
Fu il primo caso pubblico negli Stati Uniti di un arresto causato da un algoritmo. Un caso emblematico, ma non il solo. In altri casi, i sistemi di predictive policing hanno indirizzato le pattuglie sempre negli stessi quartieri, sulla base di bias etnici e sociali che, man mano che i dati alimentavano l’algoritmo, come una spirale perversa, rafforzavano l’indirizzamento sempre più verso quelle aree.
Questo per un banale errore logico che si basa sul concetto di dark: dove ci sono più controlli, emergono più reati e vi sono più arresti — ma non perché ci siano più criminali, bensì perché l’AI ha deciso inizialmente di guardare solo lì.
È un errore tipico della statistica criminale: “i reati sono aumentati”, si sente spesso. Ma sono aumentati i reati o sono aumentate le denunce? E se sono aumentate le denunce, abbiamo forze di polizia più o meno efficienti?
In Europa, studi del Parlamento UE hanno segnalato rischi analoghi nell’uso di algoritmi per la sicurezza urbana. Questi sono i cosiddetti falsi positivi: errori di attribuzione che possono distruggere reputazioni e condizionare l’esito di procedimenti giudiziari, amplificando effetti distorsivi che certo non sono ciò di cui abbiamo bisogno.
Il metodo investigativo umano tra logica e intuito
Forse allora dovremmo affermare che l’indagine, per essere seria, anche nell’era digitale, resta un’attività umana. L’intelligenza artificiale può analizzare, suggerire, correlare — ma non capire.
Non percepisce la tensione di un interrogatorio, non valuta il linguaggio del corpo, non coglie le sfumature di una frase pronunciata in una intercettazione, non distingue l’intenzione dalla casualità, non è in grado di ragionare su causa ed effetto.
L’investigatore, invece, si muove tra logica e intuizione. Applica, lo abbiamo già sottolineato, un processo induttivo e deduttivo: osserva un fatto, formula un’ipotesi, la verifica sul campo. È un metodo che include l’errore, ma lo trasforma in conoscenza.
L’AI, al contrario, non “impara” dai propri sbagli se non attraverso nuove istruzioni umane. Molte indagini decisive si sono risolte proprio grazie a un dettaglio fuori schema, a una connessione non prevista. Quel tipo di intuizione — l’anomalia che accende una pista — è qualcosa che nessuna rete neurale può replicare.
Etica, diritto e controllo dell’intelligenza artificiale nelle indagini
La trasparenza degli algoritmi è oggi una delle questioni etiche più delicate. Molti software di analisi investigativa sono di proprietà privata e operano come black box: i risultati vengono forniti, ma i criteri di calcolo restano segreti.
Questo crea un problema di responsabilità: se un errore algoritmico porta a un arresto o a una decisione giudiziaria sbagliata, chi ne risponde? Il GDPR e l’AI Act europeo impongono che le decisioni automatizzate che incidono sui diritti delle persone siano sempre soggette a supervisione umana oltre che a una valutazione di impatto.
Nel contesto delle indagini, questo principio si traduce nel concetto di human in the loop: la tecnologia deve assistere, non sostituire l’investigatore. In Europa, la regulation etica sull’IA è certamente il fiore all’occhiello che ha sempre contraddistinto lo sviluppo tecnologico sostenibile.
In particolare, il Regolamento europeo sull’intelligenza artificiale (AI Act), approvato nel 2024, introduce una classificazione dei sistemi di AI basata sul rischio. E non vi è dubbio che i sistemi utilizzati nelle attività di polizia, sicurezza e giustizia penale rientrino tra quelli a rischio elevato (high-risk systems).
Gli obblighi per l’uso dell’AI nelle attività di polizia
Ciò implica obblighi stringenti, ovvero:
a. Trasparenza sui criteri decisionali dell’algoritmo.
b. Tracciabilità dei dati e delle fonti utilizzate.
c. Formazione del personale che utilizza l’AI.
Ma soprattutto, il principio di supervisione umana (human in the loop), che impone che ogni decisione con effetti sulla libertà individuale sia validata da un essere umano.
L’obiettivo è impedire che la tecnologia diventi una sorta di “giudice automatico” e assicurare che il controllo resti sempre nelle mani di chi è chiamato a rispondere delle proprie scelte davanti alla legge.
Anche in chiave di responsabilità di compliance, ad esempio 231, si apre un interrogativo per le imprese: un errore predittivo che porta a un danno reputazionale o a una discriminazione può costituire un rischio per l’ente, se non gestito con adeguate procedure di controllo e verifica.
Conclusione: il dubbio come baluardo dell’intelligenza umana
Ogni generazione di investigatori ha visto cambiare i propri strumenti. Ma ciò che non cambia è il cuore del mestiere: il dubbio metodico tramandatoci da Cartesio, che dovrebbe ispirare l’attuazione del principio costituzionale dell’“oltre ogni ragionevole dubbio”, e la capacità di leggere i fatti e di pensare.
L’intelligenza artificiale può essere un alleato straordinario, purché resti al servizio dell’uomo e non diventi il nuovo “investigatore o giudice invisibile”. Possiamo allora dire che il futuro dell’investigazione sarà ibrido: dati e intuito, calcolo ed esperienza, macchina e coscienza. Perché nessun algoritmo può sostituire la mente che, davanti a un indizio, si chiede ancora “perché?”.












