Parlare di intelligenza artificiale, algoritmi, sistemi preditti e giustizia è un tema quasi abusato, il ché fa già ben riflettere su quanto intensa sia l’attività di ricerca nel panorama della “digital law”, considerando che i concetti appena sopra richiamati sono quasi tutti ancora teorici, o comunque ben poco sviluppati dal punto di vista pratico.
Ma se le problematiche etiche e concettuali del rapporto tra IA e giustizia sono ancora lontane dall’essere risolte, è bene iniziare a interrogarsi anche su elementi di eguale importanza, pur se connotati da esigenze più pratiche.
Il digital divide nel settore giustizia
Un primo grande ostacolo all’applicazione dei sistemi algoritmici ai sistemi democratici di giustizia penale è quello del cosiddetto “divario digitale”. Il divario digitale rappresenta quella discrepanza di preparazione, mezzi, conoscenze, applicabilità o merà disposizione di strumenti complessi applicati a situazioni giuridiche delicate ed in linea di principio garantite in maniera eguale dagli ordinamenti. Nel processo penale, come noto, vige il principio cardine dell’esercizio del diritto di difesa e della garanzia della difesa nei confronti anche e soprattutto dell’imputato.
Chiaramente già nel passato la capacità economica di una parte rispetto all’altra poteva creare situazioni sperequate e quindi risultati solo formalmente “giusti”. In tal senso il giudizio penale italiano, nel quale il PM non rappresenta necessariamente l’accusa, presenta un approccio già concettualmente più moderato. Rimane il fatto che, anche se meno rispetto al civile, il processo penale potrebbe soffrire enormemente del divario digitale.
Pensiamo, per esempio, all’introduzione di sistemi algoritmici capaci di analizzare documenti, giurisprudenza o di elaborare strategie difensive, memorie, perizie ed ogni altro elemento utile all’interno dell’economia processuale. Come si potrebbe in tal senso evitare che soggetti meno abbienti riescano ad accedere a sistemi così complessi sia in termini economici che di utilizzo?
Ricordiamo tra l’altro che alla giusta opposizione di chi ricorda quanto già accennato sopra, ossia che la disponibilità economica è sempre presente nella storia di un processo, si deve rispondere che l’AI potrebbe comportare risultati e discrepanze non meramente “quantitativi”. La stessa difesa da ragionamenti algoritmici diviene estremamente complessa, se non impossibile, in assenza di analoghi strumenti di supporto al proprio ragionamento difensivo.
Il nodo della confutabilità
Corollario a questo primo dubbio applicativo è quello inerente alla confutabilità instrinseca del ragionamento frutto di analisi algoritmica, il quale rappresenta un risultato matematico ma non per questo necessariamente definitivo o rispondente in maniera perfetta alla definizione giuridica di “innocente” e “colpevole” contenuta nei rispettivi codici penali dei vari ordinamenti democratici.
Una prima soluzione, fermi alcuni punti saldi inerenti alla necessaria attività umana del “giudizio” (concetti questi già facilmente desumibili in aspetti più triviali della vita degli individui, basti pensare al divieto di utilizzo di IA nei processi decisionali automatizzati) sarebbe quella di cristallizzare lo strumento AI processuale, garantendone poi un utilizzo super partes o comunque accessibile a tutti i soggetti coinvolti.
Ancora diverso poi il discorso inerente ai mezzi di analisi predittiva dei crimini e dei soggetti già criminali, per i quali l’applicazione di sistemi automatici e di strumenti integrati con le intelligenze artificiali sembra un qualcosa molto meno lontano di quanto si pensi. A suffragio di quanto appena affermato, si può prendere in esempio il caso spagnolo inerente alle valutazioni criminali nel campo della violenza di genere. La prognosi sulla recidiva dell’aggressore viene effettuata tenendo conto, tra gli altri dati, della sua personalità, ragion per cui questa previsione viene fatta, ovviamente, in modo “tradizionale”, senza ricorrere a sistemi di intelligenza artificiale, attraverso il lavoro congiunto di professionisti della medicina, della psicologia e del lavoro sociale forense.
Il sistema Viogen
Allo stesso modo, tuttavia, nelle fasi preliminari e non squisitamente processuali, è stato introdotto a partire dal 2007 il sistema Viogen, all’interno del quale vengono comunque utilizzati programmi informatici ad hoc per formulare i giudizi di probabilità di cui sopra.
Viogen si basa su un questionario, compilato dalle vittime, il quale funge da raccolta di dati utili per un calcolo algoritmico (non propriamente AI) predittivo del rischio di recidiva del soggetto già aggressore. La serie di domande, a cui si risponde solo con “presente e non presente” sono già di per se emblematiche del problema inerente allo sviluppo di strumenti impattanti rispetto all’amministrazione della giustizia penale. Il fatto che contengano elementi non necessariamente correlati al reato ascritto ai soggetti (potenzialmente) recidivi e il fatto che il questionario sia compilato dalle vittime (che come ovvio potrebbero rispondere con una percezione diversa dalla realtà giuridicia) rappresentano due delle numerose critiche mosse al sistema creato dal Ministero della difesa spagnolo, accusato di proporre uno strumento fallato spesso da bias di partenza.
La questione è delicata, vista anche la natura odiosa dei reati che Viogen tenta nobilmente di sventare. Resta comunque fondamentale rimanere ancorati ai concetti giuridici di equità e di giustizia, soprattutto nell’ambito delle attività di prevenzione criminale. Uno strumento automatizzato come Viogen, tra l’altro non ancora implementato con l’AI, può essere tanto d’aiuto quanto d’intralcio alle attività di polizia e prevenzione e forse necessiterebbe di più calibrazione e di maggiore compenetrazione umana.
Perché servono dati di qualità
In altri termini, quale che sia l’integrazione algoritmica o AI dei sistemi di supporto alla giustizia penale, è bene innanzitutto interrogarsi sulla bontà dei dati raccolti e sulle modalità di interpretazioni degli stessi. Solo in questo modo si potrà avere un grado di approssimazione positivo abbastanza elevato da poter basare successive decisioni giuridiche.
Sulla natura invece addirittura predittiva degli strumenti di analisi AI, il tema si sposta su quei confini etici e concettuali volontariamente evitati in apertura di riflessione. Meritano comunque una chiosa finale: quanto possiamo permettere di lasciare all’elaborazione di una AI, soprattutto rispetto a fatti ed eventi non ancora accaduti? Fino a che punto si può spingere l’approccio probabilistico all’amministrazione della giustizia penale?
Probabilmente sarebbe meglio continuare sui solchi già tracciati, abbracciando questa nuova ondata di novità e ammodernamento, ma scegliendo con cura strumenti e applicazioni ben governabili dall’operatore umano.