approfondimento

AI e avvocati, occhio alle allucinazioni: cosa insegna la sentenza di Siracusa



Indirizzo copiato

Nel processo civile, l’uso non verificato dell’IA generativa può produrre falsi plausibili e danni concreti. La sentenza del tribunale di Siracusa mostra che efficienza e automazione non bastano, perché la responsabilità resta interamente in capo all’avvocato

Pubblicato il 1 apr 2026

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



Piattaforme AI governance; fabbrica cognitiva; AI docente
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Una sentenza del tribunale di Siracusa, relativa a un caso di allucinazioni dell’AI in una memoria difensiva nel contesto di una controversia civile, fa riflettere sul rapporto tra AI e avvocati. Il caso emerge non come un evento isolato o una sfortunata coincidenza, ma come il simbolo di una crisi di consapevolezza tecnica che attraversa l’intera categoria professionale, costringendo magistrati e avvocati a interrogarsi su quali siano i nuovi standard di diligenza richiesti nell’era digitale.

Avvocati e AI, i rischi

L’entusiasmo che ha accompagnato l’ingresso dei Large Language Models nel settore legale sembra aver subito una battuta d’arresto traumatica, trasformando quello che molti percepivano come un assistente infallibile in un potenziale generatore di rischi professionali e reputazionali. Per lungo tempo, la narrativa dominante ha dipinto l’intelligenza artificiale come la panacea per ogni inefficienza, uno strumento capace di redigere atti, sintetizzare faldoni e rintracciare precedenti con la velocità del pensiero.

Tuttavia, la realtà dei fatti ha presentato un conto salatissimo a chi ha confuso la capacità linguistica della macchina con la competenza giuridica dell’essere umano. Il passaggio dalla teoria alla pratica forense ha rivelato che la struttura stessa di questi algoritmi, basata su calcoli probabilistici e non sulla comprensione del significato, li rende intrinsecamente proni a generare falsi plausibili.

Questo fenomeno, tecnicamente noto come allucinazione, non è un errore casuale o un bug temporaneo, ma una caratteristica strutturale del modo in cui l’IA generativa elabora le informazioni. Quando un avvocato si affida cecamente a tali strumenti senza una rigorosa verifica, non sta semplicemente accelerando il proprio lavoro, ma sta delegando la propria funzione intellettuale a un sistema che non ha alcun senso della verità o della giustizia.

Il caso Siracusa e l’intelligenza artificiale legale in tribunale

Il caso che ha scosso le fondamenta dell’avvocatura italiana trae origine da una controversia civile presso il Tribunale di Siracusa, dove la difesa di una delle parti ha depositato una memoria contenente riferimenti a quattro sentenze della Corte di Cassazione apparentemente risolutive per la tesi sostenuta. Tuttavia, a un controllo più approfondito effettuato dal giudice e dalle controparti, è emerso che quegli arresti giurisprudenziali non erano mai stati pronunciati: erano, letteralmente, invenzioni generate da un’intelligenza artificiale. Il magistrato, con un’ordinanza che rimarrà negli annali come uno dei primi e più severi moniti sull’uso dell’IA nei processi, ha rilevato come la condotta del legale fosse andata ben oltre il semplice errore materiale. Citare precedenti inesistenti significa minare alla base la lealtà e la probità che devono caratterizzare il contraddittorio.

La conseguenza è stata una condanna per responsabilità aggravata ai sensi dell’articolo 96 del codice di procedura civile, con una sanzione superiore ai 30.000 euro. Questa decisione non colpisce l’uso della tecnologia in sé, ma l’abdicazione del controllo umano sulla stessa. Il giudice ha chiarito che l’avvocato non può giustificarsi dietro il malfunzionamento di uno strumento tecnico, poiché la firma sull’atto processuale rappresenta un’assunzione di paternità intellettuale che non ammette deleghe a entità non umane. La gravità della sanzione riflette la necessità di tutelare l’integrità del processo e di scoraggiare pratiche che, se diffuse, porterebbero alla paralisi dei tribunali, costretti a verificare l’esistenza stessa di ogni singola norma o sentenza citata nelle migliaia di pagine depositate quotidianamente.

Come funzionano le allucinazioni algoritmiche

Per comprendere come sia stato possibile giungere a una simile distorsione della realtà giurisprudenziale, è necessario abbandonare l’idea che l’intelligenza artificiale sia un motore di ricerca evoluto. Mentre un database giuridico tradizionale interroga un indice di documenti reali, i modelli di linguaggio come quelli utilizzati nel caso di Siracusa funzionano prevedendo la parola successiva più probabile in un dato contesto. Se a un modello viene chiesto di trovare una sentenza che supporti una certa tesi, esso potrebbe generare un testo che “suona” perfettamente come una sentenza della Cassazione, includendo numeri di protocollo, nomi di relatori e un linguaggio tecnico impeccabile, pur essendo totalmente privo di riscontro nella realtà.

Il sistema non sta mentendo nel senso umano del termine, poiché non possiede un’intenzione; sta semplicemente seguendo la sua funzione di ottimizzazione statistica. Il problema risiede nella “plausibilità” del falso: i precedenti inventati non appaiono assurdi, ma sembrano perfettamente integrati nel tessuto giuridico esistente, rendendo l’inganno estremamente difficile da rilevare per un occhio non attento o eccessivamente fiducioso. Questo paradosso tecnologico impone al professionista una nuova forma di scetticismo metodologico. Non è più sufficiente essere esperti di diritto; occorre diventare consapevoli dei limiti intrinseci degli strumenti digitali. La competenza tecnica diventa così un prerequisito della competenza giuridica, poiché senza la prima, la seconda viene irrimediabilmente compromessa da dati fallaci che inquinano il ragionamento logico e la strategia processuale.

La responsabilità nell’intelligenza artificiale legale

Dal punto di vista strettamente giuridico, l’impiego dell’intelligenza artificiale solleva il tema della natura della diligenza richiesta al professionista. L’articolo 1176, secondo comma, del Codice civile stabilisce che, nell’adempimento delle obbligazioni inerenti all’esercizio di un’attività professionale, la diligenza deve valutarsi con riguardo alla natura dell’attività esercitata. Nel caso dell’avvocato, si parla di una diligenza qualificata che non permette di invocare l’ignoranza tecnologica come scusante. L’ordinanza di Siracusa ha evidenziato come l’introduzione di prove o riferimenti normativi falsi integri gli estremi della colpa grave, se non del dolo eventuale, poiché il professionista ha accettato il rischio di inquinare il processo utilizzando uno strumento di cui non padroneggiava i meccanismi di verifica.

La condanna ex art. 96 c.p.c. non è dunque una punizione contro il progresso, ma un richiamo al dovere di vigilanza. Il professionista “aumentato” non è colui che si sostituisce con l’algoritmo, ma colui che utilizza l’algoritmo per potenziare la propria capacità di analisi, mantenendo però ferma la responsabilità ultima su ogni parola depositata. In questo scenario, il confine tra un errore scusabile e una condotta sanzionabile si sposta decisamente verso quest’ultima quando il controllo umano è del tutto assente. La giurisprudenza che sta nascendo attorno a questi casi sottolinea che l’atto processuale è un atto di fede pubblica mediata dal difensore; se questo legame di fiducia viene spezzato da una delega cieca alla macchina, il sistema giudiziario reagisce con estrema severità per preservare la propria credibilità istituzionale.

Human-in-the-loop e controllo umano effettivo

La soluzione per evitare nuove derive come quella siciliana risiede nell’adozione rigorosa del principio “human-in-the-loop“, ovvero la presenza costante e attiva dell’intelligenza umana in ogni fase del processo decisionale automatizzato. Questo paradigma non deve essere inteso solo come una raccomandazione tecnica, ma come un vero e proprio obbligo deontologico che ridefinisce il rapporto tra uomo e macchina. In un sistema human-in-the-loop, l’IA agisce come un suggeritore di bozze o un ricercatore preliminare, ma ogni output prodotto deve subire un processo di validazione che ricalchi i criteri della ricerca scientifica.

Per un avvocato, ciò significa che ogni citazione generata dall’algoritmo deve essere verificata su fonti ufficiali o database certificati prima di essere inserita in un atto. Il professionista deve porsi come un filtro critico capace di discernere tra le intuizioni valide fornite dal sistema e le sue allucinazioni. Questo approccio richiede tempo e risorse, annullando in parte il guadagno di velocità promesso dall’IA, ma garantisce la qualità e la tenuta legale del lavoro svolto. La “presenza umana nel ciclo” assicura inoltre che vengano rispettati i valori etici e il contesto specifico del caso, elementi che sfuggono completamente a qualsiasi calcolo probabilistico. Il rischio di una “giustizia algoritmica” priva di anima e di verità può essere scongiurato solo se il professionista accetta di non essere un semplice utente di software, ma un supervisore critico dei processi tecnologici che decide di implementare nella propria attività quotidiana.

La cornice europea per l’intelligenza artificiale legale

Mentre i singoli tribunali iniziano a sanzionare gli abusi, a livello europeo si sta lavorando intensamente per fornire una cornice di riferimento chiara. Il Consiglio degli ordini forensi europei (CCBE) ha già delineato linee guida fondamentali sull’uso dell’intelligenza artificiale da parte degli avvocati. Questi documenti mettono l’accento su tre pilastri fondamentali: il dovere di riservatezza, il dovere di competenza e il dovere di lealtà verso il cliente e la corte. Il CCBE avverte che l’inserimento di dati sensibili dei clienti in piattaforme di IA aperte potrebbe violare il segreto professionale, poiché tali dati potrebbero essere utilizzati per addestrare ulteriormente il modello o essere accessibili a terzi.

Inoltre, le linee guida sottolineano come l’avvocato debba essere trasparente con il proprio cliente sull’uso di tali strumenti, garantendo che l’impiego della tecnologia non porti a un aumento ingiustificato dei costi o a una diminuzione della qualità del servizio. Il quadro normativo europeo si sta ulteriormente consolidando con l’AI Act, che classifica certi utilizzi dell’IA nel settore della giustizia come “ad alto rischio“, imponendo standard di trasparenza e sicurezza estremamente elevati. Il caso Siracusa dimostra che queste linee guida non sono astratti esercizi accademici, ma necessità pratiche per la sopravvivenza della professione forense in un mercato legale sempre più digitalizzato. L’allineamento ai criteri europei rappresenta dunque la strada maestra per trasformare l’IA da minaccia a opportunità, stabilendo regole d’ingaggio che proteggano il diritto di difesa e la parità delle armi nel processo.

Verità processuale, formazione e futuro della professione

Oltre alle implicazioni di responsabilità civile e professionale, l’uso improprio dell’IA tocca il nervo scoperto del dovere di verità e lealtà che ogni avvocato giura di rispettare all’inizio della propria carriera. Il processo non è un gioco a somma zero dove ogni mezzo è lecito per prevalere, ma un metodo regolamentato per l’accertamento di una verità giuridica. Introdurre nel circuito processuale elementi falsi, anche se derivanti da un errore tecnologico non verificato, inquina la decisione del giudice e costringe lo Stato a un dispendio di energie e risorse per rimediare a una condotta negligente.

L’integrità del sistema processuale si fonda sul presupposto che le parti agiscano in buona fede e che i documenti presentati siano genuini. L’intelligenza artificiale generativa, se usata senza filtri, agisce come un agente di entropia informativa, rendendo sempre più difficile distinguere tra ciò che è giurisprudenza reale e ciò che è mera imitazione stilistica. Questo mette a rischio la certezza del diritto, poiché se i precedenti possono essere inventati con tale facilità, viene meno la funzione nomofilattica della Cassazione e la prevedibilità delle decisioni giudiziarie. La sfida etica per il professionista moderno è quella di farsi custode della verità in un’epoca di post-verità tecnologica, garantendo che l’innovazione serva a chiarire i fatti e a supportare il diritto, anziché creare un rumore di fondo che confonda magistrati e cittadini.

Il ruolo della formazione

Per evitare che il caso Siracusa si ripeta su scala ancora più vasta, è indispensabile un radicale cambio di passo nella formazione forense. Non è più sufficiente l’aggiornamento giuridico tradizionale; occorre integrare nei percorsi di studio e di pratica forense solide basi di alfabetizzazione digitale e informatica giuridica. Gli avvocati devono imparare a dialogare con le macchine (il cosiddetto “prompt engineering“), ma soprattutto devono imparare a testarne la resistenza e l’affidabilità. La formazione deve concentrarsi sulla comprensione della logica algoritmica, spiegando chiaramente perché un’IA può produrre falsi e come questi possono essere intercettati attraverso protocolli di verifica rigorosi.

Le scuole forensi e i consigli dell’ordine hanno il compito di guidare questa transizione, non limitandosi a vietare o regolamentare, ma fornendo gli strumenti critici per un uso consapevole. L’obiettivo non deve essere quello di formare programmatori, ma professionisti capaci di valutare criticamente il rischio informatico associato alla propria attività. Solo attraverso una conoscenza profonda dello strumento è possibile esercitare quel controllo umano che i tribunali oggi giustamente esigono. La tecnologia non deve essere subita come un evento atmosferico imprevedibile, ma governata come una forza motrice che richiede piloti esperti e consapevoli per non uscire di strada.

Lo scenario

In conclusione, la vicenda del Tribunale di Siracusa non deve essere interpretata come una condanna definitiva dell’intelligenza artificiale nell’avvocatura, ma come l’indispensabile “punto di non ritorno” verso un’innovazione finalmente responsabile. Il passaggio da una fase di sperimentazione selvaggia e ingenua a una di utilizzo strutturato e consapevole è necessario per preservare il valore sociale e costituzionale della professione legale. Un framework efficace per il futuro deve poggiare sulla trasparenza, sulla validazione obbligatoria e sulla centralità della responsabilità umana.

L’avvocato del futuro non sarà meno importante a causa dell’IA; al contrario, il suo ruolo di garante della verità e di interprete critico della norma diventerà ancora più cruciale in un mondo inondato da contenuti generati automaticamente. Il valore aggiunto del professionista risiederà proprio in quella capacità di giudizio, empatia e contestualizzazione che nessuna macchina, per quanto sofisticata, potrà mai replicare. L’integrità del processo e la certezza del diritto non sono sacrificabili sull’altare dell’efficienza produttiva. La lezione di Siracusa ci insegna che la tecnologia può aumentare le nostre capacità solo se non diminuisce la nostra responsabilità. Solo mantenendo l’uomo al centro di ogni scelta processuale potremo garantire che l’intelligenza artificiale rimanga uno strumento di progresso e non diventi un’arma di distruzione della giustizia.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x