Il procuratore “robot” debutta in Cina: così l'IA ora elabora le accuse - Agenda Digitale

intelligenza artificiale

Il procuratore “robot” debutta in Cina: così l’IA ora elabora le accuse

In Cina l’intelligenza artificiale entra direttamente nel processo decisionale dell’accusa, elaborando accuse per otto reati in maniera del tutto autonoma. Le problematiche sollevate da questo nuovo tool sono tante, dalla trasparenza dell’algoritmo alla vincolatività dei risultati. Facciamo il punto

14 Gen 2022
Massimo Borgobello

Avvocato a Udine, co-founder dello Studio Legale Associato BCBLaw, PHD e DPO Certificato 11697:2017

La Procura Popolare di Shanghai Pudong, riferisce il South China Morning Post, sta sperimentando un algoritmo in grado di “elaborare accuse” con il 97% di precisione. Per ora è solo uno strumento per velocizzare il lavoro dell’ufficio con maggior carico di lavoro del Dragone, ma il Judge Dredd cinese potrebbe non essere così lontano.

Il System 206

System 206 è il nome del tool di intelligenza artificiale già in uso dal 2016 nelle procure cinesi per velocizzare il lavoro degli inquirenti.

WHITEPAPER
Gestione documentale digitale: ecco la chiave per innovare l’impresa e ridurre i costi
Acquisti/Procurement
Amministrazione/Finanza/Controllo

Il nuovo strumento, presentato da poco dal professor Shi Yong, direttore del laboratorio di big data e gestione della conoscenza dell’Accademia cinese delle scienze e capo del progetto, ha caratteristiche molto più evolute.

In particolare, è in grado di elaborare accuse per otto reati – quelli considerati più comuni e di semplice gestione – valutando le “prove a carico” e la pericolosità sociale sulla base dei report inseriti da mano umana.

L’AI è stata testata ed “abituata” a confrontarsi con reati ritenuti semplici, come frode con carta di credito, esecuzione di un’operazione di gioco d’azzardo, guida pericolosa, lesioni intenzionali, ostruzione ai doveri ufficiali, furto, frode e “provocare/raccogliere provocazioni per litigi e fomentare problemi”.

L’ultima “fattispecie”, che nell’ordinamento italiano, probabilmente, verrebbe censurata per eccessiva indeterminatezza, è spesso impiegata per perseguire crimini politici.

Il punto è che, mentre i precedenti sistemi di AI impiegati in Cina e in altri paesi sono sostanzialmente strumenti di ricerca o analisi forense, l’ultimo modello presentato dal professor Shi entrerebbe direttamente nel processo decisionale dell’accusa.

In altri termini, sarebbe in grado di formulare autonomamente un’accusa a carico di un indagato.

Fonti giornalistiche (interestingengineering.com) riportano la preoccupazione di un procuratore cinese – rimasto anonimo – sia per il margine di errore che per il controllo governativo che potrebbe essere esercitato tramite l’intelligenza artificiale “decisionale”.

Da un lato, infatti, il ruolo del decisore umano verrebbe – in parte – messo in secondo piano; dall’altra, la programmazione dell’algoritmo in un senso o in un altro potrebbe determinare le scelte di politica criminale di una procura.

L’Intelligenza artificiale nel settore penale

Il nuovo tool cinese si caratterizza unicamente per l’autonomia del processo decisionale automatizzato.

Strumenti di intelligenza artificiale che “prevedono” il rischio di recidiva sono già stati impiegati, con polemiche rilevanti ed in parte fondate, nella giustizia penale americana nel contesto della concessione delle misure alternative al carcere e nella concessione di premi e benefici per i soggetti condannati.

La “polizia predittiva” è una realtà anche in Italia, dove è stata impiegata per anticipare il verificarsi di determinati reati o per prevenire il rischio di assembramenti per le norme anti-covid.

In Germania l’intelligenza artificiale è impiegata nel digital forensics e per il riconoscimento delle immagini.

In nessun caso, però, l’intelligenza artificiale ha un processo decisionale autonomo: diventa, piuttosto, uno strumento di convincimento del giudice.

Il problema della “trasparenza” dell’algoritmo

Nel caso in cui il risultato dell’analisi effettuata dall’intelligenza artificiale rientrino nel materiale probatorio utilizzato dal giudice per arrivare alla decisione finale, si pone il problema della “trasparenza” dell’algoritmo.

In altri termini, si pone un contrasto tra segreto industriale delle software house fornitrici del tool e diritti di chi vede la propria posizione giudicata anche attraverso l’IA.

In Italia non sono in uso strumenti simili a quelli impiegati negli Stati Uniti o in Cina, ma vengono testati strumenti di velocizzazione delle ricerche del precedente giudiziale sia nel contesto dei tribunali e delle corti d’appello che della Corte di cassazione.

La sentenza del Consiglio di Stato

Un caso di contrasto tra “segretezza” dell’algoritmo e diritti del singolo si è posto nel contesto della giustizia amministrativa; in particolare, il Consiglio di Stato ha dovuto decidere sul diritto di accesso di un candidato “scartato” dall’algoritmo a una selezione per un posto nel pubblico impiego.

Il Consiglio di Stato, con una sentenza del 4 febbraio 2020 – la numero 881, divenuta precedente importantissimo – ha stabilito la prevalenza dell’interesse del singolo a conoscere i parametri dell’algoritmo su quello di segretezza del tool, in virtù di quanto disposto dall’articolo 42 della Carta dei diritti fondamentali dell’Uomo dell’UE e dell’articolo 15 del Regolamento europeo 16/679 (GDPR).

Conclusioni

L’impiego dell’intelligenza artificiale è, ormai, all’ordine del giorno anche nel settore giustizia.

I temi più sensibili riguardano, oltre alla trasparenza dell’algoritmo, la possibilità di utilizzo nel contesto della decisione giudiziale e la vincolatività dei risultati forniti dall’algoritmo per i decisori umani.

Nel settore penale in particolare la prima problematica si pone nel contesto di formazione della prova nel dibattimento; nei contesti di indagini preliminari e riti a forma contratta (giudizio abbreviato e applicazione della pena su richiesta delle parti) la questione potrebbe assumere rilevanza minore.

In astratto, invece, non è ipotizzabile una vincolatività per decisori umani – procuratori o giudici – a strumenti di intelligenza artificiale a Costituzione invariata.

Anche le normative europee stanno “procedendo” nel senso di limitare moltissimo il valore probatorio dei risultati ottenuti mediante IA.

L’impiego dell’intelligenza artificiale per la sostituzione di compiti umani di medio livello, invece, è un trend del tutto in ascesa nel settore civile, dove tools specifici vengono utilizzati correntemente nelle operazioni di M&A anche in Italia.

WHITEPAPER
QUIZ - Dematerializzazione e collaborazione digitale: tu a che punto sei?
Dematerializzazione
@RIPRODUZIONE RISERVATA

Articolo 1 di 4