L’Il Trattato del Consiglio d’Europa sull’IA, adottato a settembre 2024, ha segnato un passaggio cruciale nel modo in cui le autorità pubbliche e i loro partner privati possono usare sistemi algoritmici nelle indagini e nella sicurezza: un tema centrale anche alla luce di recenti, tragici fatti di cronaca in seguito ai quali le forze dell’ordine, grazie all’IA, hanno potuto analizzare in pochi giorni quantità di dati che avrebbero richiesto mesi di lavoro umano.
Di seguito proviamo a mettere in relazione il quadro giuridico ai casi pratici e alle esigenze operative.
Indice degli argomenti
La raccolta massiva di dati nelle indagini moderne
Tragicamente, infatti, negli ultimi mesi, l’attenzione pubblica è stata scossa da grandi cacce all’uomo: dall’omicidio di Brian Thompson, CEO di UnitedHealthcare, per il quale Luigi Mangione è sotto processo a New York, fino all’assassinio di Charlie Kirk nello Utah, che ha portato all’arresto di Tyler Robinson. In entrambi i casi, le autorità hanno raccolto enormi quantità di immagini, dati digitali e video di sorveglianza per ricostruire i movimenti dei sospetti e individuare le prove.
Dalla caccia all’uomo ai big data urbani
Questo fenomeno fa parte di un trend molto più ampio, soprattutto in grandi città come Londra e New York, dove diverse organizzazioni e numerosi difensori hanno sollevato serie preoccupazioni riguardo alla vasta ampiezza dei dati raccolti, al tempo di conservazione, e al loro utilizzo futuro.
Strumenti automatizzati e limiti nelle indagini
Nessun investigatore umano sarebbe in grado di visionare migliaia di ore di filmati in pochi giorni. È qui che entra in gioco l’intelligenza artificiale: algoritmi di riconoscimento facciale, sistemi di analisi video che tracciano il colore di un veicolo o di un capo di abbigliamento, strumenti predittivi per incrociare orari, percorsi e dispositivi elettronici. Anche se nei casi più recenti il ruolo decisivo è stato giocato da testimonianze e attività tradizionali di polizia, questi strumenti sono ormai parte integrante di molte indagini di alto profilo.
Tra efficienza investigativa e diritti fondamentali
La stessa tecnologia che accelera le indagini può però generare falsi positivi, segnalando persone innocenti e mettendo a rischio la loro privacy. Non è difficile immaginare un pendolare o un turista fermato temporaneamente perché “somigliante” ad un sospetto.
Il trattato globale sull’IA: principi e campo di applicazione
È su questo confine — tra efficienza investigativa e tutela dei diritti — che interviene il nuovo Trattato quadro sull’intelligenza artificiale, i diritti umani, la democrazia e lo Stato di diritto del Consiglio d’Europa, dove ricopro il ruolo di consulente esperto per il Cybercrime Programme. Il Consiglio d’Europa è sempre stato all’avanguardia negli accordi e nella collaborazione fra gli stati membri nel mondo tecnologico, a partire dalla Convenzione sulla criminalità informatica di Budapest del 2001, che ha creato un sistema pragmatico e efficace per incoraggiare la cooperazione internazionale nella lotta contro i reati informatici.
Aperto alla firma nel settembre 2024, il trattato è il primo accordo internazionale giuridicamente vincolante sull’uso dell’IA, e rappresenta un modello globale per governi e istituzioni pubbliche. È aperto non solo ai 46 Stati membri del Consiglio d’Europa, ma anche a Paesi terzi interessati a standard comuni per l’uso responsabile dell’IA. È già stato firmato dall’Unione Europea, gli Stati Uniti, Canada, Giappone, l’Ucraina, e altri stati membri.
Il trattato è applicabile all’uso dell’IA da parte delle autorità, le forze dell’ordine e le società private che collaborano con loro, e stabilisce principi chiari per un impiego legittimo e responsabile, fra i quali:
- Dignità umana e autonomia individuale: ciascuna Parte adotta o mantiene misure volte a rispettare la dignità umana e l’autonomia individuale in relazione alle attività che rientrano nel ciclo di vita dei sistemi di intelligenza artificiale.
- Trasparenza e supervisione: misure volte a garantire che siano in vigore requisiti adeguati di trasparenza e supervisione, adeguati ai contesti e ai rischi specifici.
- Accountability: garantire la responsabilità per gli effetti negativi sui diritti umani e la democrazia derivanti dalle attività svolte nell’ambito del ciclo di vita dei sistemi di intelligenza artificiale.
- Rimedio effettivo: chi subisce una violazione dei diritti umani deve avere diritto a spiegazioni, correzioni e, se necessario, risarcimenti.
La caccia all’uomo digitale: cybercrime e garanzie
Gli stessi principi valgono nel mondo dei reati informatici. Un attacco ransomware che paralizza un ospedale, una banca o una rete elettrica genera milioni di log di rete, transazioni sospette e comunicazioni cifrate. Senza strumenti di IA, analizzare tutto ciò in maniera efficace risulterebbe molto laborioso.
Gli algoritmi di machine learning possono individuare pattern sospetti, raggruppare indirizzi IP correlati e collegare pseudonimi online a gruppi criminali noti. Tuttavia, esiste il rischio di falsi positivi: un ricercatore di sicurezza che scarica malware a fini di studio, potrebbe essere erroneamente collegato all’attacco. Il Trattato del Consiglio d’Europa richiede dunque che tali errori vengano corretti rapidamente e che la persona abbia un canale per contestare l’accusa e ripristinare la propria reputazione.
Il dialogo con l’AI Act: complementarità normativa
Per i Paesi dell’Unione Europea, il Trattato (quando ratificato) si applicherà insieme all’AI Act, che entrerà in vigore nel 2026. L’AI Act classifica i sistemi di IA in base al rischio e impone requisiti tecnici per quelli ad “alto rischio”, come il riconoscimento facciale. Il documento regola soprattutto la progettazione e l’immissione sul mercato dei sistemi, ma non il loro utilizzo concreto da parte delle autorità.
Il trattato del Consiglio d’Europa invece disciplina come gli stati debbano impiegare l’IA, ponendo limiti legali e garantendo tutela dei diritti fondamentali. I due strumenti sono quindi complementari: uno assicura la qualità tecnica, l’altro la legittimità democratica.
Perché conta: fiducia, proporzionalità, rimedi effettivi
La forza del Trattato sta nella sua capacità di “civilizzare” l’uso dell’IA, consentendo alle autorità di proteggere la collettività senza violare la legalità, la trasparenza e la dignità umana. L’adozione di linee guida per la raccolta, l’analisi e la conservazione dei dati costituisce un punto di svolta globale nella regolamentazione dell’IA.
Le notizie di oggi dimostrano quanto sia alta la posta in gioco: proteggere la società e allo stesso tempo salvaguardare i diritti di chi, per errore o sfortuna, può finire nel mirino di un algoritmo. Il nuovo trattato offre un modello globale per garantire che l’IA rimanga uno strumento al servizio della giustizia, e non una minaccia per lo Stato di diritto. Garantire trasparenza, proporzionalità e rimedio effettivo è fondamentale per costruire fiducia tra cittadini e istituzioni in un mondo sempre più digitale.











