L’irruzione dei sistemi di IA nell’ambiente della giustizia non rappresenta solo un’aggiunta tecnologica, ma un mutamento di paradigma che investe le fondamenta del ragionamento giuridico; se da un lato si delinea un nuovo “potere epistemico” che promette efficienza e calcolabilità, dall’altro si rischia di compromettere la dimensione umana e garantista dell’accertamento penale e civile.
Ebbene, la nuova sfida posta dall’IA nel settore della giustizia consiste in primo luogo nel bilanciamento dell’efficienza dei calcoli probabilistici con la tutela dei diritti fondamentali, in secondo luogo nella ridefinizione dei ruoli dei giuristi con evidente espansione della componente umana della giustizia.
Indice degli argomenti
Il framework normativo
L’attività giurisdizionale è regolata dalla legge e affiancare all’attività dei giudici una risorsa computazionale potente come l’IA, con la promessa di efficienza, non può assolutamente significare interferire con la loro attività cognitiva, interpretativa e decisionale.
Come spiega la Costituzione nell’art. 101, l’esercizio della giurisdizione è attività fondamentale dello stato svolta dalla magistratura, che – analizzate le prove presentate in giudizio – interpreta ed applica le norme giuridiche ai casi concreti, risolvendo controversie e garantendo il rispetto del diritto attraverso decisioni conformi con l’ordinamento nel suo complesso.
Ebbene, tale attività non può essere delegata a strumenti opachi, ancorché di tipo specialistico, pensati per soddisfare logiche di mercato in quanto si tratta di attività complessa che combina la profonda conoscenza delle norme con l’interpretazione delle stesse alla luce dell’evoluzione giurisprudenziale e sociale e con la scelta della regola più adatta alla disciplina della fattispecie controversa.
Parimenti e specularmente, la giurisdizione si concreta con l’esercizio del diritto di difesa, infatti, l’ordinamento mette a disposizione del cittadino gli strumenti del processo e della difesa tecnica, per il tramite di un avvocato, per ottenere risposte di giustizia attivando l’intervento del giudice o permettendo il ricorso a strumenti alternativi di risoluzione delle controversie.
Come cambia il sistema
Nell’ambito di tale complesso sistema si svolge l’attività dell’avvocato che offre assistenza, consulenza e rappresentanza legale a privati, imprese ed enti, sia in ambito giudiziale che stragiudiziale.
Il servizio legale quindi si sostanzia nell’offerta al cliente della garanzia di una corretta applicazione delle norme da parte dell’autorità di pubblica sicurezza ovvero da parte del giudice grazie all’alta specializzazione in materia giuridica e al potere di contraddire in giudizio o confrontarsi giuridicamente con la controparte per la risoluzione della controversia nel rispetto della legalità e della giustizia.
Quindi, sia il giudice sia l’avvocato sono figure essenziali del sistema giustizia che, pur ricorrendo all’ausilio di strumenti computazionali, devono rivedere il loro approccio alla professione integrando le risorse algoritmiche nell’ambito di un sistema predefinito che deve continuare a garantire risposte adeguate e coerenti con i principi cardine del sistema alla domanda di giustizia del cittadino.
Intelligenza artificiale nella giustizia e cornice normativa
La cornice normativa attuale, definita dall’AI Act europeo (Regolamento UE 2024/1689) e dalla Legge italiana n. 132 del 2025, classifica i sistemi di IA per l’amministrazione della giustizia come “ad alto rischio”; questo approccio antropocentrico impone rigorosi requisiti di trasparenza, spiegabilità e sorveglianza umana.
Il legislatore italiano, all’art. 15 della L. 132/2025, ribadisce che l’IA può essere utilizzata esclusivamente per finalità strumentali, vietando ogni sostituzione integrale del ragionamento del professionista; come parimenti sancito dalla Carta Etica della CEPEJ del 2018 secondo cui l’IA deve rimanere un ausilio per migliorare l’efficacia della giurisdizione senza lederne l’indipendenza.
La trasformazione dell’avvocato tra tecnica e strategia
2. L’avvocato aumentato: dovere di supervisione e responsabilità qualificata.
Come noto, l’avvocato è tenuto a eseguire la prestazione professionale nel rispetto degli obblighi di diligenza, trasparenza, perizia, prudenza, mettendo a disposizione del cliente la propria competenza ed esperienza al fine di garantire al medesimo la migliore difesa.
L’impiego di strumenti d’intelligenza artificiale all’interno degli studi legali comporta un aumento dell’efficienza e della competitività sul mercato perché l’algoritmo è in grado di svolgere compiti routinari in tempi contenuti, ma introduce altresì un nuovo livello di rischio rispetto all’adempimento esatto dell’incarico professionale.
Ebbene, il moderno avvocato, grazie all’uso di strumenti di IA, è una figura “aumentata”, capace di delegare attività ripetitive ed analisi documentali noiose a “copiloti digitali” per concentrarsi sulla strategia difensiva.
Egli non è solamente in grado di utilizzare il computer, ma è un giurista altamente specializzato che ha riprogettato l’approccio alla consulenza legale integrando le proprie competenze in materia di diritto con la conoscenza e l’uso delle tecnologie avanzate, dotandosi di competenze tecniche specifiche per una migliore comprensione dei nuovi strumenti di IA e del processo telematico, nonché di gestionali idonei a rendere lo studio legale più efficiente e competitivo sul mercato.
Intelligenza artificiale nella giustizia e dovere di supervisione
Quindi, se da un lato l’avvocato potrà trarre numerosi vantaggi dall’impiego supervisionato e procedimentalizzato dell’IA, dall’altro dovrà saper valutare criticamente i suggerimenti forniti dall’algoritmo, assumendosi la responsabilità delle scelte operate e le conseguenze delle strategie adottate.
In questo scenario, la capacità di integrare le potenzialità dell’IA con il discernimento umano rappresenta la vera sfida della professionalità forense nell’era digitale.
Nell’implementazione degli strumenti di IA l’avvocato può fare riferimento sia allo standard operativo introdotto dalla UNI 11871:2022 per la gestione dei rischi connessi all’esercizio della professione legale, sia a quanto previsto nell’ISO 42001:2023 che definisce i requisiti per implementare, mantenere e migliorare un sistema di gestione dell’IA all’interno di una organizzazione.
Ebbene, un aspetto strategico imprescindibile per la gestione della professione forense nella nuova era digitale consiste nella governance degli strumenti di IA, i quali, anche se certificati e progettati per i giuristi, rimangono strumenti opachi e soggetti a biases e allucinazioni.
Governance interna e controllo dell’output
Quindi, per implementare un modello di gestione supervisionata del sistema di IA prescelto, occorrerà operare un’analisi delle attività professionali automatizzabili, adottare linee guida e prassi operative, regole di condotta chiare e procedure semplici, ripetibili e documentabili imponendone il rispetto a tutti gli operatori all’interno dello studio, indicare il responsabile di processo, far sì che l’attività di verifica dell’output sia delegata a un esperto umano e che ci sia una doppia verifica di sicurezza del documento finale potenziato prima di depositarlo telematicamente o sottoporlo all’attenzione del cliente.
Procedimentalizzare e parcellizzare le azioni che riguardano l’uso di questi strumenti a supporto dell’attività professionale, sia in caso di semplice ricerca giurisprudenziale, che in caso di predisposizione di bozze per atti o contratti ovvero per analisi predittive degli esiti di un giudizio, è la soluzione strategica ideale, anche a fini competitivi, per contenere e gestire il rischio di errori evitando danni economici gravi ai clienti o eventuali danni alla propria reputazione professionale.
L’IA Act classifica queste tecnologie come ad “alto rischio” nell’ambito dell’amministrazione della giustizia ed impone ai legali una cautela estrema nel trattamento dei dati particolari dei clienti.
Tale attenzione è imperativa soprattutto per il legale penalista, il quale, maneggiando informazioni estremamente sensibili, relative a procedimenti penali e condanne, deve garantire che l’invio di dati a sistemi di IA avvenga nel rispetto del segreto professionale e della normativa sulla privacy, evitando che l’impiego di “scatole nere” tecnologiche comprometta la riservatezza dei dati trattati.
Responsabilità professionale e rischio algoritmico
Di conseguenza, questa trasformazione del professionista, se da un lato offre innegabili vantaggi, dall’altro comporta un aggravio della responsabilità, in quanto l’uso non supervisionato dell’IA generativa ha introdotto il rischio di “allucinazioni”, ovvero di produzione di riferimenti errati o inesistenti, esponendo l’avvocato a potenziali conseguenze pregiudizievoli.
Pertanto, la legge n. 132/2025 e i codici deontologici impongono al professionista l’onere di supervisione critica: l’errore della macchina non esonera, ma ne aggrava la responsabilità se i risultati non vengono verificati.
Sul punto si richiamano le decisioni giudiziali con cui alcuni avvocati sono stati condannati per lite temeraria, ex art. 96 c.p.c., per aver incautamente omesso di verificare e validare i risultati di ricerche giurisprudenziali compiute con l’IA che poi si sono rivelati inconferenti o completamente inventati.
Il ruolo degli avvocati
Quindi, gli avvocati che omettono una supervisione attiva dell’IA, oltre a dover rispondere civilmente per danni al cliente o per abuso del processo, sono esposti anche a sanzioni da parte del consiglio distrettuale di disciplina per violazione dei doveri di lealtà, probità e diligenza (artt. 9, 14 e 50 Codice Deontologico Forense).
Possiamo senza dubbio affermare che l’IA plasma il ruolo del difensore offrendo a quest’ultimo nuove opportunità e prospettive di difesa più efficaci, imponendo nuove cautele per un uso deontologicamente e tecnicamente corretto dello strumento, introducendo nuovi standards di diligenza della prestazione professionale, delineando nuove responsabilità a causa di un uso distorto o errato di questa tecnologia e in generale spingendo il professionista a ripensare l’attività di consulenza e difesa con uno sguardo nuovo.
Infatti, l’interazione con strumenti ideati per la professione forense permette un allenamento costante alla riflessione giuridica, stimolando la contraddizione delle tesi elaborate mediante l’interrogazione reiterata della macchina esperta al fine di rafforzare le proprie argomentazioni.
Cosa non scordare
Tuttavia, il legale non deve mai dimenticare di porsi in modo critico davanti alle risposte della macchina e verificare la bontà dell’output, per non incorrere in errori, ponendo sempre al centro della sua riflessione la necessità di costruire ragionamenti logico giuridici solidi ancorché nuovi o minoritari ma adatti a sostenere le posizioni del proprio cliente al fine di stimolare il dibattito giuridico in sede processuale.
L’avvocato moderno è un pioniere di nuove prospettive del diritto che si evolve, anche con l’ausilio della macchina, nella ricerca di argomentazioni giuridiche adatte a regolare i fatti concreti alla luce dell’evoluzione normativa e dei rinnovati valori della società che cambia.
In sintesi, ad avviso di chi scrive, sebbene gli strumenti di IA siano utili per una migliore esecuzione della prestazione, la centralità del lavoro intellettuale personale e la funzione di garanzia verso il cliente rimangono il cardine insostituibile dell’attività forense.
Intelligenza artificiale nella giustizia e riserva di umanità
Come è stato brevemente ricordato il magistrato ha la responsabilità di rendere giustizia al cittadino svolgendo un ruolo fondamentale nell’ambito dell’ordinamento giuridico; pertanto, la sua funzione non potrà mai essere svolta da strumenti di IA finalizzati ad un’analisi statistica di fonti aggregabili secondo una specifica logica per il raggiungimento dello scopo fissato nell’input.
Un sistema algoritmico opera seguendo logiche statistiche e di mercato, avulse dal ragionamento logico-giuridico e dalla riflessione che si sviluppa in seno al magistrato chiamato alla risoluzione di situazioni controverse più o meno complesse.
Giudice e magistrato
Il giudice deve valutare il fatto non solo come dato computabile, ma attraverso la sua dimensione narrativa e la comprensione del medesimo nel contesto sociale, elementi che sfuggono alla logica algebrica dell’IA; la delega di potere decisionale alla macchina, quindi, aumenta il rischio di un affidamento acritico del magistrato al software, con perdita di capacità di reinterpretazione delle norme dinanzi al mutamento del contesto sociale.
L’uso dell’IA da parte dei giudici solleva pertanto questioni costituzionali prioritarie: indipendenza del magistrato, responsabilità personale nelle decisioni, trasparenza algoritmica e garanzie del diritto di difesa.
Il magistrato non può delegare la decisione all’IA, dovrà valutare l’output e spiegare in modo puntuale i presupposti su cui fonda il suo convincimento evidenziando quale uso è stato fatto dei risultati algoritmici e il contributo che essi hanno dato alla formulazione della sentenza, nel rispetto degli obblighi di trasparenza, autonomia e motivazione.
Trasparenza, controllo e motivazione
Al fine di individuare un percorso trasparente nell’uso dell’IA, l’UNESCO ha indicato i principi cardine da seguire in ambito giuridico consistenti nella centralità della decisione umana, nella trasparenza dei sistemi impiegati, nella possibilità di controllo e contestazione delle risultanze algoritmiche e nella responsabilità giuridica degli attori coinvolti.
L’AI Act europeo classifica l’uso dell’IA nel settore giudiziario come “alto rischio”, imponendo obblighi di trasparenza, governance, qualità dei dati e controllo umano, e introduce il principio di cautela quando sono in gioco diritti fondamentali.
Inoltre, l’approccio “risk-based” guida l’integrazione tecnologica nell’attività giurisdizionale, evitando l’opacizzazione della motivazione e garantendo l’equo processo.
Infine, l’art. 15 della legge italiana sull’IA riserva al magistrato decisioni sostanziali come l’interpretazione della legge e la valutazione delle prove, imponendo obblighi di trasparenza nei provvedimenti.
L’esclusione dell’affidamento unico agli algoritmi
La norma esclude l’affidamento esclusivo agli algoritmi della decisione giudiziale e pone l’accento sulla motivazione rafforzata e la responsabilità umana.
L’IA è quindi vista come strumento complementare per analisi giurisprudenziali e gestione fascicoli, senza sostituire il controllo umano e il ruolo del magistrato è preservato dalla “riserva di umanità”, un principio che impedisce la delega del potere decisionale a sistemi automatici in ambiti che incidono sui diritti fondamentali.
A differenza dell’algoritmo, che opera per correlazioni statistiche, il giudice deve compiere valutazioni assiologiche e interpretative legate all’unicità del caso concreto.
Per evitare l’effetto “scatola nera” è fondamentale lo sviluppo di sistemi di IA spiegabile, ovvero di sistemi per i quali è possibile spiegare il criterio alla base della decisione algoritmica e che il giudice integri le stime probabilistiche contenute nell’output della macchina con altre informazioni che supportino la decisione basata su prove processuali e argomentazioni giuridiche valide elaborate dall’ingegno umano.
In sintesi, l’IA può assistere nella ricerca di precedenti, ma non può sostituire il libero convincimento e la capacità del magistrato di cogliere le sfumature morali di una vicenda e la soggezione alla legge (ex art. 101 Cost.) impedisce al giudice di essere vincolato da un “superiore gerarchico tecnico” come l’algoritmo.
La dialettica del processo tra parte e giudice
Ebbene, l’era digitale non deve alterare l’actus trium personarum del processo; se da un lato l’avvocato esercita una funzione parziale, utilizzando l’IA per potenziare la sua abilità di persuasione e di ricerca di strategie vincenti offrendo al giudice letture alternative dei fatti controversi a sostegno della tesi del suo assistito, dall’altro, il giudice deve mantenere una posizione di terzietà e imparzialità, utilizzando la tecnologia solo per ridurre il “rumore” decisionale o l’incoerenza giurisprudenziale e valutare le prove emerse nel processo e le tesi giuridiche offerte dalle parti in lite, rimanendo equidistante e secondo diritto.
Delegare alla macchina il compito di decidere significherebbe erodere l’indipendenza e l’autonomia della magistratura; pertanto, non potrà assolutamente ammettersi una decisione priva di motivazione qualificata e sottoponibile al vaglio di altro giudice.
Né può ammettersi l’idea che i giudici, utilizzando questi strumenti in funzione predittiva, sviluppino un’eccessiva fiducia nei risultati algoritmici, output standardizzati che si basano su logiche probabilistiche di dati più frequenti finendo per appiattire le decisioni su precedenti consolidati, premiando una standardizzazione dei modi di ragionare, rafforzando acriticamente le tesi maggioritarie della Suprema Corte, mortificando la dialettica e la vivacità creativa dello scontro tra tesi giuridiche alternative parimenti adeguate a risolvere il caso concreto controverso.
Mentre l’IA ragiona per correlazioni statistiche, il libero convincimento del giudice deve fondarsi su un ragionamento logico-giuridico trasparente e ricostruibile dalla lettura della motivazione.
Intelligenza artificiale nella giustizia e contraddittorio effettivo
Dall’altro lato deve essere sempre garantito il diritto di difesa e quindi il diritto delle parti di mettere in discussione il risultato algoritmico e chiedere una verifica della logica adottata dalla macchina per generare uno specifico output richiamato dalla difesa avversaria nelle proprie tesi o dal giudice a fondamento della decisione.
L’interconnessione tra le due attività, dell’avvocato e del giudice, risiede nel diritto al contraddittorio: le parti hanno il diritto di conoscere e contestare il risultato utilizzato degli strumenti algoritmici e pretendere che l’evidenza digitale sia sottoposta a un vaglio critico umano (cross-examination tecnologica).
Per quanto riguarda l’ammissione della prova, si rende necessario un filtro a maglie strette per evitare che entrino nel patrimonio probatorio informazioni non validate scientificamente.
Ebbene, le parti interessate potrebbero presentare istanza per l’analisi tecnica di risultati algoritmici posti alla base delle prove presentate dalla controparte o della decisione giudiziale in quanto oggetto di contestazione tecnico-giuridica.
L’output dell’IA può essere utilmente ricondotto nel genus della prova scientifica o digitale e, in sede di giudizio, la parte potrebbe chiedere una perizia sul funzionamento dell’algoritmo (AI spiegabile per via peritale) per saggiare l’attendibilità del risultato conoscitivo.
Prova algoritmica e verifica peritale
Inoltre, la macchina può assistere nell’individuazione di massime di esperienza basate su database smisurati, a patto che tali regole inferenziali siano sottoposte al vaglio del contraddittorio e non applicate solipsisticamente dal magistrato che deve evitare la tendenza a fidarsi ciecamente dei risultati algoritmici, non utilizzare algoritmi addestrati su dati che riflettono pregiudizi storici che potrebbero amplificare le distorsioni a danno di minoranze o gruppi vulnerabili e evitare l’uso di una tecnologia sviluppata per scopi diversi da quelli per cui è stata progettata.
Ebbene, anche nel caso in cui le decisioni siano state supportate da strumenti digitali, l’attività interpretativa richiede ai giudici competenze digitali di base, capacità di selezione dei dati, distinzione degli stessi, valutazione del contesto di riferimento e consapevolezza del funzionamento e dei limiti dello strumento usato; pertanto si potranno chiedere chiarimenti sulla logica utilizzata dall’algoritmo per giungere all’output richiamato dal giudice nella sentenza come i criteri di ponderazione, i dati di addestramento, i log decisionali.
Questo permetterebbe alle parti di esercitare pienamente il diritto di difesa (nonostante il pericolo di disparità di risorse tecnologiche tra studi legali di differenti dimensioni) e di riportare la dialettica giuridica al centro del processo, garantendo l’equidistanza tra le difese e la terzietà del giudice nella formulazione della decisione finale.
Motivazione, spiegabilità e controllo umano
La motivazione della sentenza è l’atto di responsabilità sociale che rende la decisione giudiziale controllabile e legittima; pertanto, nel caso di sentenza basata su risultati algoritmici il giudice nell’argomentare la sua pronuncia dovrà farvi specifico riferimento.
Inoltre, secondo l’IA Act, le persone interessate hanno il diritto a una spiegazione chiara del ruolo del sistema di IA nel processo decisionale; pertanto, il magistrato, quale supervisore ultimo, deve incorporare l’output algoritmico nel proprio ragionamento logico-giuridico, giustificandolo secondo legge e ragione.
La decisione giurisprudenziale deve rimanere nelle mani dell’individuo non solo per evitare il “bias di automazione” (la tendenza ad affidarsi acriticamente alla macchina), ma perché solo l’uomo può dare conto delle scelte di valore sottese al decisum.
Sul punto il CSM ha precisato che la decisione deve nascere da una relazione viva tra giudice, parti e prove, impedendo la “despazializzazione del giudizio” e preservando la sensibilità giuridica necessaria a contestualizzare ogni caso concreto.
L’integrazione di modelli di IA nel sistema giuridico richiede quindi alfabetizzazione digitale dei giudici, degli avvocati e degli operatori del diritto e una robusta etica professionale di tutte queste figure.
La sfida che pone questa tecnologia non è scegliere tra uomo e macchina, ma definire un modello d’integrazione che preservi la centralità del giudice, il corretto esercizio del diritto di difesa, la dialettica nel contraddittorio tra le parti davanti ad un giudice terzo, la trasparenza del processo e la responsabilità umana delle decisioni.
In questo senso, i principi di diritto, giustizia, equità, giusto processo devono svolgere una funzione di riequilibrio dei poteri in gioco, da un lato la semplificazione e l’efficienza offerta dalla tecnologia algoritmica, dall’altro la garanzia di giustizia nell’applicazione della regola adatta al caso concreto.
Solo se l’intelligenza artificiale sarà incardinata in un quadro di regole chiare, di principi condivisi e di consapevolezza culturale, potrà diventare uno strumento al servizio della giustizia; in caso contrario, il rischio è che la promessa di efficienza e produttività con l’automazione si risolva in un diniego o depotenziamento del diritto alla giustizia.
Lo scenario della giustizia nell’era dell’IA
In sintesi, la transizione verso una giustizia digitale non deve essere intesa come una mera adozione di strumenti tecnici, ma come la costruzione di una nuova normatività che integri l’efficienza algoritmica senza erodere i diritti fondamentali.
La sfida per l’avvocato e il magistrato non è la resistenza alla tecnologia, ma il suo governo consapevole in qualità di “guardiani della legalità algoritmica”; tuttavia, affinché questo modello collaborativo uomo-macchina funzioni, occorrerà diffondere tra gli avvocati la consapevolezza di una evoluzione della loro attività nel senso di una professionalità “aumentata” dall’uso di strumenti di IA con un onere aggiuntivo di supervisione e relativo aggravio di responsabilità e tra i magistrati il monito di mantenersi critici rispetto agli esiti dell’algoritmo.
La centralità del lavoro intellettuale deve rimanere il cardine dell’attività forense, poiché solo il professionista umano può garantire la conformità deontologica e rispondere delle “allucinazioni” o degli errori della macchina, trasformando la gestione del rischio algoritmico in un nuovo standard di diligenza professionale.
Infine, l’avvocato aumentato dall’uso di strumenti di IA è un pioniere di nuove prospettive, professionista in grado di recepire il cambiamento strutturale in atto e trasformarlo in opportunità di interpretazione delle nuove istanze di giustizia ed equità del cittadino moderno che, di fronte ai rischi di spersonalizzazione e iper-razionalizzazione di questa nuova tecnologia, si affida all’esperto del diritto per avanzare istanze di difesa dei propri diritti fondamentali contro errori, distorsioni ed ingiustizie.
La funzione del magistrato invece deve rimanere ancorata al primato della coscienza umana sul calcolo statistico.
La “riserva di umanità” non è solo un limite etico, ma una necessità giuridica: il giudice, attraverso una motivazione qualificata e razionale, può evitare l’appiattimento del diritto sulle tesi giurisprudenziali maggioritarie e garantire quella vitalità creativa necessaria per la sua evoluzione, che un algoritmo basato su logiche probabilistiche finirebbe per soffocare.
La vera innovazione
La vera innovazione processuale risiede infine nel rafforzamento del principio del contraddittorio e nella cross-examination tecnologica.
Il diritto di difesa deve potersi esercitare anche contro l’opacità degli algoritmi, permettendo alle parti di contestare in giudizio logiche, dati di addestramento e criteri di ponderazione; solo così il processo rimarrà un actus trium personarum, dove la tecnologia riduce il “rumore” decisionale senza sostituirsi alla dialettica umana.
Infine, la sentenza deve rimanere un atto di responsabilità sociale, frutto di una sensibilità giuridica che nessuna correlazione statistica potrà mai replicare integralmente.
In definitiva, come garantiremo che la giustizia algoritmica non atrofizzi le capacità del diritto di evolvere?
Solo difendendo la dialettica e lo scontro tra tesi contrapposte maggioritarie e minoritarie o innovative, difendendo l’eccezione rispetto alla regola e facendo sì che l’intelligenza artificiale si presenti come strumento al servizio della giustizia, incardinata in un solido quadro di governance interna agli studi e agli uffici giudiziari, supportata da un’adeguata alfabetizzazione digitale e da una robusta etica professionale, affinché funga da “moltiplicatore di capacità analitiche”, preservando la centralità della persona umana e la legittimazione democratica del giudicare.
Bibliografia
Calculate Criminal Law? Criticità nell’uso degli algoritmi di pericolosità sociale, saggio di Mattia Di Florio (Università di Foggia) pubblicato su La legislazione penale.
CEPEJ – Carta etica sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari, Consiglio d’Europa (2018).
Normativa Uni 11871:2022
Image/Video Forensics: casi di studio, Studio tecnico di Battiato, Farinella e Puglisi (Università di Catania).
Indagini e giudizio fra regolamento (UE) 2024/1689 (IA Act) e legge n. 132 del 2025: Articolo di Giovanni Canzio su Giustizia Insieme.
L’intelligenza artificiale nel processo penale nella fase di ammissione ed acquisizione della prova, Contributo di Pasquale Raucci su Judicium.
La trasparenza sul banco di prova dei modelli algoritmici: Articolo di Germana Lo Sapio (TAR Campania).
Prime riflessioni sull’IA: la legge 135/2025 letta in cornice eurounitaria e sovranazionale. Analisi di Fernanda Iannone su Giustizia Insieme.
Giustizia e intelligenza artificiale. Profili etici e giuridici, Contributo di Elena Siclari (Università Mediterranea di Reggio Calabria) su Democrazia e Diritti Sociali.
Intelligenza artificiale e processo civile: Saggio di Filomena Santagada pubblicato su IRIS.











