le regole

AI in tribunale: il controllo umano è sempre necessario



Indirizzo copiato

Gli errori dell’intelligenza artificiale in ambito giudiziario riportano sempre allo stesso nodo: la mancanza di controllo umano. Casi stranieri, AI Act, legge 132/2025 e giurisprudenza italiana convergono nel ribadire che l’IA può solo assistere, mentre verifica e responsabilità restano integralmente umane

Pubblicato il 20 apr 2026

Antongiulio Lombardi

Esperto di diritto e tecnologia



software microsoft giustizia CSA2 e sovranità digitale Human-Centric Security
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Ogni caso giudiziario relativo ad errori dell’IA che siano bias o allucinazioni si riconduce ad una unica condotta omissiva: l’assenza di controllo umano. Una tale assenza può manifestarsi non solo in relazione all’input, con il rischio che l’IA operi sulla base di elementi non tanto sbagliati quanto verosimili ma non veritieri e non rappresentativi, ma anche, e soprattutto, in relazione all’output, con il rischio di decisioni fondate su precedenti inesistenti, creati dall’IA dal nulla o i cui contenuti sono totalmente diversi da quelli reali, risultando adattati, o meglio, stravolti per incontrare le esigenze dell’ideatore del prompt.

Il caso statunitense Loomis v. Wisconsin, 881 N.W.2d 749, costituisce un precedente paradigmatico in materia di utilizzo di strumenti algoritmici nel procedimento penale. La Supreme Court of Wisconsin ha confermato la decisione resa in grado d’appello in un procedimento conclusosi con la condanna dell’imputato, nel quale era stato considerato, ai fini della valutazione della recidiva, l’esito di un Presentence Investigation Report elaborato mediante l’impiego del software COMPAS, il cui funzionamento risulta coperto da segreto industriale (Loomis v. Wisconsin, 881 N.W.2d 749 Wis. 2016).

Intelligenza artificiale nell’attività giudiziaria e controllo umano

In tale pronuncia, la Corte ha ritenuto che l’utilizzo dello strumento algoritmico non integrasse una violazione del principio del giusto processo, sul presupposto che i risultati del report fossero utilizzati esclusivamente come elemento ausiliario nella determinazione del rischio di recidiva e non incidessero direttamente sulla decisione relativa alla colpevolezza dell’imputato, lasciata alla libera discrezionalità del giudice. La Corte ha, tuttavia, evidenziato la necessità di predisporre adeguate cautele, al fine di garantire che la decisione finale resti sempre il risultato di un apprezzamento umano consapevole, spettando al giudice il potere-dovere di valutare criticamente e, se del caso, disattendere gli esiti del processo algoritmico.

Nel medesimo solco si collocano le esperienze maturate nell’ordinamento francese, ove si è affermato un orientamento particolarmente restrittivo in ordine all’impiego dell’intelligenza artificiale nell’attività giurisdizionale. In particolare, il Conseil constitutionnel, con decisione n. 2018-765 DC del 12 giugno 2018, ha contribuito a delineare un quadro normativo volto a escludere l’utilizzo dell’IA quale strumento di supporto decisionale diretto per gli organi giudicanti, valorizzando le esigenze di tutela dell’indipendenza e dell’imparzialità della funzione giurisdizionale.

Trasparenza algoritmica e conoscibilità dei criteri

A tale impostazione si affianca la giurisprudenza del Conseil d’État che, con sentenza 8 aprile 2019, n. 2270, ha affrontato il tema dell’utilizzo di strumenti algoritmici nell’azione amministrativa, affermando principi di trasparenza e conoscibilità dei criteri decisionali, con riflessi indiretti anche sull’ambito giurisdizionale (Conseil d’État, 8 avril 2019, n° 2270).

Le richiamate pronunce, pur collocate in contesti ordinamentali differenti, convergono nel delineare un principio comune: l’impiego dell’intelligenza artificiale nel processo decisionale pubblico, e segnatamente in ambito giudiziario, è ammissibile esclusivamente quale strumento ausiliario, restando preclusa ogni forma di sostituzione dell’attività valutativa umana, la quale costituisce presidio imprescindibile delle garanzie del giusto processo.

Quando l’IA produce esiti erronei o precedenti inesistenti

Dunque, spesso l’IA arriva ad esiti erronei non perché gli elementi che le erano stati forniti per l’addestramento non riflettevano la realtà ma perché, per il peso eccessivo dato ad alcuni di essi, la lettura che l’IA faceva della realtà era palesemente fuorviante.

In altri casi più recenti l’IA ha creato sentenze e quindi orientamenti con riferimenti puntuali e dettagliati ma totalmente inesistenti.

La soluzione al problema destinato ad essere sempre più pervasivo è banale ma di difficile applicazione concreta alla luce dell’affidamento che l’IA crea nell’umano e della grande facilità di accesso a sistemi di IA in situazioni nelle quali l’elemento temporale, la tempestività della risposta, è centrale. L’errore è sempre quindi da attribuire all’umano che non dedica la dovuta attenzione ad una analisi critica del prodotto dell’IA che viene acquisito in modo passivo. Il controllo, la verifica del prodotto dell’IA implicano certamente uno sforzo e l’utilizzo di un certo tempo, onere che tuttavia non è mai raffrontabile a ciò che sarebbe stato necessario per la creazione del medesimo prodotto senza l’utilizzo dell’IA.

Intelligenza artificiale nell’attività giudiziaria e sistemi ad alto rischio

La previsione di un controllo obbligatorio dell’output in relazione alla attività giudiziaria sarebbe necessaria in analogia a quanto previsto per i sistemi ad alto rischio di identificazione biometrica remota in tempo reale/post dell’allegato III, punto 1, lettera a) dell’AI ACT, per i quali il deployer non deve prendere decisioni basate sull’identificazione del sistema se questa non è stata verificata e confermata separatamente da almeno due persone fisiche con competenza, formazione e autorità adeguate. Tuttavia, tale obbligo non è oggi una regola generale per tutti i sistemi di IA.

Nel AI Act (Regolamento UE 2024/1689) i “dati giudiziari” non sono una categoria autonoma definita come tale (a differenza del GDPR), ma compaiono in modo indiretto e funzionale, soprattutto in relazione ai contesti di uso dell’IA e alla classificazione dei rischi.

I dati giudiziari emergono nel regolamento soprattutto perché alcuni sistemi IA sono classificati “ad alto rischio” quando usati in ambito giudiziario o di law enforcement quali quelli previsti dall’Allegato III per sistemi per amministrazione della giustizia (supporto a giudici), sistemi per valutare prove o fatti, sistemi per profilazione o rischio di recidiva (Non sempre perché attività meramente operative soprattutto se effettuate da personale non appartenente alla magistratura dovrebbero essere escluse dalla definizione di alto rischio).

Questi casi implicano necessariamente il trattamento di precedenti penali, informazioni su procedimenti giudiziari, dati relativi a reati.

Quando un sistema di IA tratta dati collegati a procedimenti penali rientra quasi sempre tra i sistemi ad alto rischio.

In sintesi, il sistema di intelligenza artificiale, qualora implichi il trattamento di dati relativi a procedimenti penali o condanne (c.d. dati giudiziari), è qualificato come sistema ad alto rischio ai sensi dell’Allegato III del Regolamento (UE) 2024/1689 (AI Act), in particolare nei casi di utilizzo per l’amministrazione della giustizia e per attività di contrasto ai reati.

Obblighi previsti dall’AI Act

In tali ipotesi, il sistema è soggetto agli obblighi previsti per i sistemi ad alto rischio, tra cui quelli relativi alla governance dei dati e alla qualità dei dataset (art. 10), alla gestione del rischio (art. 9), alla tracciabilità e registrazione delle attività (art. 12) e alla supervisione umana (art. 14).

Resta ferma l’applicazione della normativa in materia di protezione dei dati personali, in particolare del Regolamento (UE) 2016/679 (GDPR), che disciplina espressamente il trattamento dei dati giudiziari all’art. 10, nonché, ove applicabile, della Direttiva (UE) 2016/680 relativa al trattamento dei dati personali da parte delle autorità competenti in materia penale.

La legge 132/2025 e i limiti all’uso dell’IA

In tale ambito si inseriscono le previsioni della legge 132/2025. L’introduzione della legge 23 settembre 2025, n. 132 si inserisce nel più ampio processo di regolazione dell’intelligenza artificiale a livello europeo, ponendosi in rapporto di complementarità con il Regolamento (UE) 2024/1689 (AI Act) e con la disciplina in materia di protezione dei dati personali, in particolare il Regolamento (UE) 2016/679 (GDPR). Tale intervento normativo si caratterizza per un approccio antropocentrico, esplicitato nelle disposizioni generali, ove si afferma che l’impiego dei sistemi di intelligenza artificiale deve avvenire nel rispetto dei diritti fondamentali e sotto il controllo umano (art. 1, legge n. 132/2025), nonché secondo criteri di affidabilità, sicurezza e verificabilità dei dati e dei risultati (art. 7, legge n. 132/2025).

In questo quadro, particolare rilievo assume la disciplina dell’utilizzo dell’IA nell’ambito dell’attività giudiziaria. L’art. 15 della legge n. 132/2025 stabilisce infatti un principio di netta separazione tra funzione di supporto e funzione decisionale: l’intelligenza artificiale può essere utilizzata esclusivamente per attività ausiliarie, quali l’analisi documentale, la ricerca giurisprudenziale e la gestione dei fascicoli, mentre resta preclusa ogni forma di sostituzione del giudice nell’interpretazione del diritto, nella valutazione delle prove e nella decisione del caso concreto (art. 15, legge n. 132/2025). Tale disposizione si pone in linea con il divieto di decisioni interamente automatizzate sancito dall’art. 22 del Regolamento (UE) 2016/679 (GDPR), rafforzandone la portata nel contesto giurisdizionale.

IA di supporto e responsabilità del professionista

Un analogo principio è ribadito con riferimento alle professioni legali dall’art. 13 della medesima legge, il quale consente l’impiego dell’IA unicamente per attività strumentali e di supporto, escludendo qualsiasi delega dell’attività intellettuale propria dell’avvocato (art. 13, legge n. 132/2025). La norma impone altresì obblighi di trasparenza nei confronti del cliente e conferma la piena imputabilità al professionista delle scelte difensive, anche quando supportate da strumenti algoritmici.

Intelligenza artificiale nell’attività giudiziaria e giurisprudenza italiana recente

Le implicazioni di tali previsioni emergono con chiarezza nella recente giurisprudenza italiana. In una decisione del Tribunale di Siracusa sez. II, del 20 febbraio 2026, n. 338, relativa all’utilizzo di sistemi di IA generativa nella redazione di atti processuali, il giudice ha qualificato come “colpevole negligenza” l’affidamento acritico a risultati non verificati, precisando che tali strumenti “non costituiscono banche dati giurisprudenziali” (Trib. Siracusa, 2026). La pronuncia evidenzia come l’uso dell’IA comporti un rafforzamento degli obblighi di diligenza professionale.

In particolare, il giudice ha affrontato un caso di utilizzo di IA generativa nella redazione di atti difensivi, caratterizzati dalla citazione di precedenti giurisprudenziali inesistenti. Il Tribunale ha qualificato tale condotta come gravemente colposa, affermando che l’utilizzo di sistemi di IA non esonera il difensore dall’obbligo di verifica delle fonti e che la produzione di precedenti “allucinati” integra i presupposti per la responsabilità aggravata ex art. 96 c.p.c. In particolare, la decisione valorizza il principio secondo cui la firma dell’atto processuale costituisce il punto di imputazione della responsabilità, indipendentemente dallo strumento utilizzato per la sua redazione, ribadendo che “l’IA non è una fonte del diritto, ma un mero strumento ausiliario”.

Precedenti inventati e responsabilità aggravata

In termini analoghi si è espresso il Tribunale di Torino con provvedimento del 16 settembre 2025, nel quale è stata ravvisata la responsabilità aggravata del difensore per aver depositato un atto contenente un “coacervo di citazioni giurisprudenziali in larga parte inconferenti”, riconducibili a un utilizzo meccanico di strumenti di IA (Trib. Torino, 16 settembre 2025). La decisione si inserisce in un filone interpretativo che valorizza il principio di lealtà e correttezza processuale, ritenendo che l’impiego non critico dell’intelligenza artificiale possa integrare gli estremi della malafede o della colpa grave.

Anche a livello istituzionale si registrano orientamenti in linea con quanto descritto. In particolare, sono stati espressi indirizzi interpretativi che escludono la possibilità di utilizzare sistemi di IA nella redazione delle decisioni giudiziarie, ribadendo la centralità della funzione umana e la necessità che il provvedimento giurisdizionale sia espressione diretta dell’attività intellettuale del giudice.

Nel complesso, l’analisi della legge n. 132/2025 e della giurisprudenza recente consente di individuare un paradigma regolatorio fondato sulla funzione meramente ausiliaria dell’intelligenza artificiale, sull’irrinunciabilità della decisione umana e sul rafforzamento della responsabilità degli operatori giuridici. In tale prospettiva, l’IA non si configura come sostitutiva dell’attività giurisdizionale, bensì come strumento di supporto, il cui utilizzo deve essere accompagnato da un controllo critico costante e da un rigoroso rispetto delle garanzie fondamentali dell’ordinamento.

Riserva di umanità, CSM e linee guida europee

La recente evoluzione giurisprudenziale e para-normativa in materia di utilizzo dell’intelligenza artificiale nell’attività giudiziaria evidenzia un progressivo consolidamento del principio di “riserva di umanità” nella decisione giurisdizionale, principio che trova significativa conferma tanto negli atti del Consiglio Superiore della Magistratura quanto nella giurisprudenza di merito e amministrativa, nonché nelle linee guida deontologiche europee.

In tale prospettiva si colloca la delibera del CSM dell’8 ottobre 2025, recante raccomandazioni sull’uso dei sistemi di intelligenza artificiale nell’attività giudiziaria. In essa si afferma, in termini generali, che l’impiego dell’IA da parte del magistrato deve rimanere confinato a funzioni meramente ausiliarie, escludendosi ogni possibilità di delega della funzione decisoria. Il documento sottolinea come l’utilizzo di strumenti algoritmici nella redazione di provvedimenti giurisdizionali possa porsi in tensione con i principi costituzionali di indipendenza, imparzialità e responsabilità del giudice, richiedendo pertanto un controllo umano effettivo, consapevole e non meramente formale. In tale ottica, la posizione del CSM assume rilievo sistematico anche rispetto ai casi concreti emersi nella prassi, nei quali è stato rilevato l’utilizzo di IA nella redazione di sentenze o provvedimenti, configurando possibili profili disciplinari in caso di uso acritico o sostitutivo.

Giurisprudenza amministrativa e doveri del difensore

Un analogo approccio si rinviene nella giurisprudenza amministrativa, segnatamente nella sentenza del TAR Lombardia, sez. V, 21 ottobre 2025, n. 3348. In tale decisione, il giudice amministrativo ha affermato che l’utilizzo di strumenti di intelligenza artificiale nella ricerca giurisprudenziale non ha alcuna valenza esimente rispetto agli obblighi professionali del difensore, il quale resta tenuto a verificare l’attendibilità e la pertinenza delle fonti citate. Il TAR ha sottolineato che la mancata verifica degli output algoritmici integra una violazione dei doveri di lealtà e probità processuale, evidenziando altresì che la sottoscrizione dell’atto comporta l’assunzione piena di responsabilità per il contenuto dello stesso, indipendentemente dall’eventuale utilizzo di strumenti tecnologici.

Le indicazioni del CCBE sull’uso della GenAI

Sul piano sovranazionale, tali orientamenti trovano un significativo riscontro nella guida del Consiglio degli Ordini Forensi d’Europa (CCBE) sull’uso dell’intelligenza artificiale generativa da parte degli avvocati, adottata il 2 ottobre 2025. Il documento, di natura deontologica, evidenzia come l’utilizzo della GenAI debba essere conforme ai principi fondamentali della professione forense, quali competenza, indipendenza, riservatezza e responsabilità. In particolare, la guida richiama espressamente i rischi connessi alle cd. “allucinazioni” dei sistemi generativi, alla mancanza di trasparenza e ai bias algoritmici, sottolineando la necessità che l’avvocato mantenga un controllo pieno e consapevole sugli output prodotti e ne verifichi l’accuratezza prima dell’utilizzo in ambito professionale.

Nel complesso, le fonti esaminate delineano un quadro convergente nel quale l’intelligenza artificiale è ammessa quale strumento di supporto all’attività giudiziaria e forense, ma entro limiti rigorosi. Tanto il CSM quanto la giurisprudenza nazionale e le linee guida europee concordano nel ritenere che la decisione giuridica — sia essa giudiziale o difensiva — debba rimanere integralmente riferibile a un soggetto umano, sul quale grava un obbligo rafforzato di controllo, verifica e responsabilità. Tale impostazione si pone in linea con i principi costituzionali del giusto processo e con il più ampio paradigma regolatorio europeo in materia di intelligenza artificiale.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x