L’intelligenza artificiale nella giustizia italiana entra in una fase concreta di sperimentazione, ma con limiti rigorosi. Il punto decisivo resta la funzione di supporto, senza alcuna sostituzione del magistrato nella valutazione dei fatti, delle prove e della decisione.
Indice degli argomenti
Cosa dice la legge
In Italia, l’art. 15 della legge n. 132/2025, c.d. sull’intelligenza artificiale, prevede ipotesi enumerate e tassative per l’impiego dei sistemi di intelligenza artificiale. Possono essere utilizzati nel rispetto di determinate cautele quali la riserva giudiziale sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti ma è vietato implicitamente l’impiego dei sistemi di IA riconducibili alla c.d. “giustizia predittiva”, su cui torneremo brevemente infra. Inoltre, il Ministero della Giustizia (“Ministero”) è tenuto a definirne gli impieghi per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie e, a tal fine, previo parere di AgID e ACN, autorizzarne la sperimentazione e l’impiego negli uffici giudiziari ordinari.
Come questo si tradurrà in pratica nell’attività quotidiana dei magistrati – per ora ordinari – aderenti e degli addetti all’ufficio del processo (UPP), il c.d. personale di supporto, è attualmente oggetto di sperimentazione e, da qualche mese, sotto la lente di osservazione del Ministero.
Intelligenza artificiale nella giustizia e sperimentazione ministeriale
Già in occasione dell’evento sulla digitalizzazione e la giustizia tenutosi a Capri lo scorso ottobre, si discuteva del ruolo dei diritti, degli algoritmi e dei nuovi equilibri nella giustizia, evidenziando il ruolo cruciale dell’intelligenza artificiale ed ammonendo sui rischi derivanti dall’impiego di quest’ultima, alla luce delle non poche allucinazioni in cui sappiamo essere incorsa l’avvocatura negli ultimi tempi.
In diversi distretti, come quello di Bari, Napoli, Catania sono in corso diverse sperimentazioni, non tutte collegate con quella istituzionale e, addirittura, basate sull’utilizzo di altri sistemi di IA, per esempio la stessa ChatGPT. Peculiare l’esempio di Cremona, dove è stato avviato il progetto denominato “Giustizia Aumentata”, ideato dal Giudice Pierpaolo Beluzzi, avente lo scopo di impiegare l’intelligenza artificiale per rafforzare i principi costituzionali di parità delle parti e contraddittorio avanzato.
Come funziona la sperimentazione
A partire dal primo gennaio 2026, non solo queste iniziative di tipo locale dovranno essere autorizzate dal Ministero della Giustizia, secondo quanto previsto dalla legge, ma concorreranno con la sperimentazione su larga scala avviata dal Ministero stesso, il quale ha assegnato mille licenze estese di Copilot 365 (“Copilot”), l’IA generativa di Microsoft, a un gruppo di magistrati togati volontari. Questi ultimi, nel ruolo di “sperimentatori”, ne faranno uso per supportare l’organizzazione degli uffici e il lavoro giudiziario.
La sperimentazione ha una finalità conoscitiva e pratica: lo scopo sarà quello di apprendere il funzionamento degli strumenti di intelligenza artificiale generativa, valutarne limiti e potenzialità, ed esercitare una scelta consapevole e informata, come precisato nella circolare pubblicata sul sito istituzionale.
Evidente che il progetto è coerente con le disposizioni di legge e, in particolare, con il richiamo che il comma 3 dell’art. 15 sopra citato fa alla giustizia ordinaria, proprio laddove circoscrive ai soli magistrati togati – e non anche a quelli onorari – l’accesso alla sperimentazione. Non solo: la circolare stigmatizza il fatto che l’iniziativa non avrebbe “incidenza sugli aspetti decisori dell’esercizio della funzione giurisdizionale, che resta integralmente rimessa alla responsabilità e all’autonomia del singolo magistrato, e si colloca nell’ambito del supporto all’attività del magistrato”.
Il fattore umano
A tutti coloro che si sono dichiarati non interessati tramite procedura di opt-out, sarà disattivata la licenza Copilot – fornita di default dal pacchetto Office messo a disposizione degli utenti del “dominio giustizia” – e ripristinata la precedente configurazione, in maniera tale da escludere ogni episodio di uso occasionale in assenza di apposita formazione, mentre per gli aderenti all’iniziativa sono previste sessioni formative.
Copilot opera “con elevati standard di sicurezza, segregazione dei dati e piena conformità alla normativa vigente in materia di protezione dei dati personali e sicurezza informatica”, consentendo il ricorso sia in c.d. “ambito giustizia”, “limitando le interazioni ai contenuti presenti nell’ecosistema ministeriale” sia, su scelta consapevole dell’utente, con funzionalità di consultazione esterna.
Anche se l’avvio della sperimentazione è estremamente recente e non si conosce il totale dei soggetti aderenti, il numero di licenze sembrerebbe, invero, esiguo, rispetto al totale dei magistrati ordinari. Se si pensa, inoltre, che il progetto è su scala nazionale, la penetrazione dell’intelligenza artificiale nei tribunali sarà verosimilmente molto in là da venire.
Ad ogni modo, il progetto va interpretato in chiave funzionale rispetto al parallelo processo di stabilizzazione del personale assunto dal Ministero della Giustizia nell’ambito dell’attuazione del PNRR, impiegato prevalentemente nell’Ufficio del processo: per tale via, si immagina che l’intelligenza artificiale possa diventare una sorta di agente automatizzato a supporto dell’Ufficio, in grado di assorbire i verosimili picchi di lavoro derivanti dal notevole turn-over che si registra negli ultimi anni all’interno della pubblica amministrazione.
Usi dell’intelligenza artificiale nella giustizia tra organizzazione e supporto
L’impiego dell’intelligenza artificiale avverrà secondo due direttrici principali, entrambe con funzione di supporto, da un lato, diretta all’organizzazione degli uffici giudiziari e, dall’altro, all’attività del giudice.
Occorre precisare che, sul punto, le raccomandazioni del Consiglio Superiore della Magistratura (“Consiglio”), di cui si dirà più diffusamente infra, individuano un’area “promiscua” in cui è incerta la distinzione fra attività propriamente giudiziarie e attività organizzative: ci si riferisce alle attività amministrative accessorie, quali, ad esempio, sintesi, relazioni, predisposizione di slides, organizzazione dei servizi (ad es. calendari di udienza), per le quali si ritiene ammissibile – purché in modalità tracciata, sicura e con revisione umana e nell’ambito degli applicativi forniti all’interno del dominio giustizia – l’impiego dell’intelligenza artificiale al fine di alleggerire l’agenda dei magistrati, che potranno così dedicare più tempo all’attività decisionale.
Strumenti organizzativi e gestione dei dati
Con riferimento ai fini organizzativi, Copilot può aiutare dirigenti e organi amministrativi nell’analisi dei dati statistici, nel monitoraggio delle buone prassi, nella predisposizione degli strumenti organizzativi, nell’elaborazione di pareri e nella gestione dei registri. Anche Cancellerie e Uffici Dati possono fruirne per individuare anomalie e migliorare la qualità dei dati.
Supporto redazionale e analisi dei provvedimenti
Per quel che riguarda l’attività del giudice, le sperimentazioni individuate riguardano la creazione e gestione di archivi di documenti, modelli e punti di motivazione (PDM), il miglioramento delle funzioni di ricerca, il supporto redazionale per gli addetti UPP e l’analisi strutturata di sentenze e motivi di appello.
Particolare attenzione è dedicata all’agente Punti di Motivazione (PDM), pensato per supportare l’attività decisoria e il lavoro dell’UPP in un ambiente protetto e conforme alla normativa su riservatezza e protezione dei dati personali, operando solo su documenti selezionati e interni al cloud giustizia.
Sono previste due configurazioni: un Agente Basico, che consente di estrarre e riordinare PDM ma richiede prompt specifici ogni volta, e un Agente Personalizzato, più avanzato, dotato di istruzioni preimpostate, capace di scomporre sentenze complesse, estrarre orientamenti giurisprudenziali e fornire risposte sintetiche corredate da tabelle, infografiche e link ai provvedimenti originali.
Ulteriori utilizzi includono l’analisi della casistica conciliativa per individuare fascicoli mediabili e un assistente per la valutazione di professionalità dei magistrati, utile al calcolo degli standard di rendimento. Le ipotesi di utilizzo sono ritenute dai magistrati sperimentatori concrete, sicure e coerenti con il quadro normativo vigente, con primi risultati positivi, in linea con le raccomandazioni del CSM sull’uso dell’intelligenza artificiale (vedi infra).
Limiti dell’intelligenza artificiale nella giustizia e divieto di giustizia predittiva
Non c’è alcuno spazio, quindi, per la famigerata “giustizia predittiva” che ha spaventato, da principio, gli addetti ai lavori ed i primi commentatori, intimoriti dall’idea di un futuro distopico in cui i cittadini sarebbero stati in balia delle macchine e delle loro decisioni.
Il Ministero è ben lungi dal consentire che il giudizio venga definito da un sistema che consente di prevedere il possibile esito di una controversia utilizzando un modello statistico basato sulle precedenti soluzioni date in casi analoghi o simili con cui il modello è stato addestrato, ma ha semplicemente deciso di sfruttare i vantaggi delle nuove tecnologie per ottimizzare e snellire l’attività para-giudiziale e giudiziale finora demandata all’uomo, nel rispetto della c.d. riserva di umanità nella fase decisoria.
Raccomandazioni sull’intelligenza artificiale nella giustizia del CSM
Le raccomandazioni, adottate dal Consiglio Superiore della Magistratura in occasione della plenaria dell’8 ottobre scorso, sono ispirate ai principi di legalità, trasparenza, proporzionalità e autonomia decisionale, al fine di garantire i diritti fondamentali dei cittadini nonché l’indipendenza e l’imparzialità dell’azione giudiziaria.
In esse il Consiglio, pur esprimendosi favorevolmente sull’utilizzo dell’intelligenza artificiale in considerazione delle sue enormi potenzialità, ha evidenziato la necessità di esercitare una vigilanza stringente su tre piani: 1) la natura e l’architettura dei sistemi utilizzati; 2) la trasparenza degli algoritmi di selezione e classificazione; 3) il ruolo attivo e critico del magistrato nel vaglio dei risultati.
È ineliminabile, quindi, il contributo dell’agente, in quanto il magistrato, titolare esclusivo della funzione giurisdizionale, deve poter verificare e contestare gli output ricevuti, discostandosene, ove lo ritenga opportuno, alla luce delle proprie conoscenze o in base alla sua sensibilità giuridica.
Il caso della Corte d’appello di Torino
Non è infatti un caso che la Corte di appello di Torino, con sentenza del 12 settembre 2024, ha citato un precedente inesistente in tema di condanna per frode fiscale – verosimilmente frutto dell’utilizzo poco diligente di un sistema di IA estraneo al dominio giustizia.it – ed è stata censurata, in fase di appello, dalla Cassazione penale (sentenza n. 25455, sez. III, 10 luglio 2025).
Un’ulteriore ammonizione ha per oggetto proprio l’utilizzo esclusivo di tool ministeriali, idonei a garantire la riservatezza dei dati e a escluderne l’utilizzo per l’addestramento di modelli di IA generativa di fornitori terzi. A tal proposito, si auspica la progettazione di un sistema interno di IA, sotto il controllo del Ministero della Giustizia, preferibilmente basato su modelli on-premises o open source e integrabile con le piattaforme ministeriali già in uso. Al momento, un simile scenario, che si ipotizzava progressivo e da avviarsi già dal 2026, non sembra essere stato preso in considerazione stante il totale silenzio da parte del Ministero stesso.
Le cautele operative indicate dal Consiglio
Il documento si chiude, infine, con un elenco di raccomandazioni/cautele operative nell’utilizzo dell’IA:
- la sovranità dei dati e delle informazioni (i dati e le informazioni generate non devono mai essere accessibili a terzi non autorizzati);
- la protezione dei dati (dati sensibili, riservati o soggetti a segreto investigativo, anche in forma indiretta non vanno inseriti nei sistemi IA. È importante, in particolare, considerare il rischio di reidentificazione dei dati, ancorché anonimizzati o pseudonimizzati, ad opera dell’IA attraverso l’incrocio di dataset. Occorre, in ogni caso, immettere nei sistemi di IA solo le informazioni necessarie; la qualità dei dati: i risultati delle applicazioni di intelligenza artificiale devono essere vagliati per garantire che soddisfino adeguati standard in termini di equità ed è, pertanto, essenziale garantire l’affidabilità e la rappresentatività dei dati di input al fine di evitare output contenenti risultati affetti da c.d. bias ovvero da discriminazioni alle persone in base a razza, religione, sesso, origine nazionale, età, disabilità, stato civile, affiliazione politica o orientamento sessuale);
- la supervisione (occorre sempre consentire all’utente di poter replicare autonomamente le conclusioni fornite dall’AI: ogni utilizzo dell’IA deve essere supervisionato per verificare il rispetto delle normative sui diritti fondamentali dell’uomo, sul trattamento dei dati, del copyright e della sicurezza, oltre che per verificare la correttezza ed affidabilità dell’output. La supervisione/sorveglianza umana dovrà correggere eventuali risultati inattendibili, reinterpretarli o modificarli);
- la responsabilità individuale (il magistrato è tenuto all’utilizzo consapevole e conforme degli strumenti di IA a partire dall’obbligo di informazione e partecipazione alla formazione).
Pertanto, nel prossimo futuro, il ruolo del Consiglio sarà incentrato a formare i magistrati e promuovere la loro consapevolezza in merito ai limiti intrinseci dei sistemi di IA, valorizzando e tutelando il tempo della decisione quale presupposto dell’autonomia critica del giudice. L’esperienza processuale resta, infatti, centrale ai fini della formazione del giudizio, contrastando ogni deriva di “despazializzazione” del giudizio che possa comprimere i valori del contraddittorio, della presenza e della responsabilità pubblica della decisione.
Principi globali sull’intelligenza artificiale nella giustizia secondo UNESCO
Le Guidelines UNESCO
In conclusione, non possono non menzionarsi le Guidelines for the Use of AI Systems in Courts and Tribunals, le prime linee guida globali dedicate all’uso dell’intelligenza artificiale nella giustizia, adottate nel dicembre 2025 dall’UNESCO.
Frutto di un’ampia consultazione internazionale che ha coinvolto esperti di oltre 160 Paesi e più di 36.000 operatori della giustizia, il documento muove da un assunto di base irrinunciabile, ovvero il principio dell’antropocentrismo, per cui l’innovazione tecnologica può migliorare l’accesso alla giustizia, l’efficienza dei tribunali e la qualità del lavoro giudiziario, ma solo se governata attraverso regole chiare e principi condivisi.
L’obiettivo, quindi, è quello di fornire una roadmap operativa che consenta l’utilizzo della tecnologia senza compromettere le garanzie costituzionali e sovranazionali (l’imparzialità del giudice, il diritto a un equo processo, la trasparenza delle decisioni e la tutela dei diritti fondamentali).
I principi etici
Il documento si fonda su quindici principi universali:
- rispetto dei diritti umani e delle libertà fondamentali,
- trasparenza e spiegabilità (explainability),
- responsabilità e accountability,
- supervisione umana,
- equità e non discriminazione,
- sicurezza e protezione,
- privacy e protezione dei dati,
- proporzionalità e principio di neminem leadere,
- governance inclusiva e multistake holder,
- sostenibilità,
- alfabetizzazione digitale (awareness),
- divieto di automazione del giudizio,
- tracciabilità ed audit,
- giustizia come bene pubblico
- rispetto della legalità (principio dello Stato di diritto).
Non potendo commentarli tutti nel dettaglio, ci sembra ad ogni modo centrale il tema della trasparenza: i sistemi di IA devono essere comprensibili e documentati, mentre la decisione finale resta sempre sotto la responsabilità del magistrato, nel rispetto della supervisione umana e del principio di proporzionalità.
Accanto ai principi etici, sono fornite indicazioni operative: rafforzare le competenze digitali degli operatori della giustizia; adottare criteri rigorosi per la selezione e l’acquisto dei sistemi di AI, basati su valutazioni di rischio e impatto sui diritti fondamentali; garantire monitoraggi continui e audit periodici per individuare bias o criticità; assicurare infine la massima trasparenza verso le parti e il pubblico sull’uso dell’AI nei procedimenti giudiziari.
C’è da auspicarsi che anche l’Italia, eventualmente anche attraverso strumenti di soft law simili alle raccomandazioni di cui sopra, si adegui a tali Guidelines che, benché non dotate di vincolatività, sembrano individuare il giusto percorso per assicurare un’applicazione armonica ed equilibrata dell’intelligenza artificiale, nel rispetto delle istanze di equità, non discriminazione ed indipendenza.














