approfondimento

Dal trojan di Stato ai chatbot: cosa cambia per avvocati e giudici



Indirizzo copiato

Nel processo penale la tecnologia ha già trasformato il modo di acquisire e valutare gli elementi probatori. Con l’intelligenza artificiale generativa il controllo si sposta dal dato al ragionamento e rende ancora più decisiva la responsabilità del professionista

Pubblicato il 27 apr 2026

Matteo Montaruli

Avvocato Keller Montaruli & Associati STA S.r.l.



cyber kill chain AI data act e startup
A futuristic glowing padlock built from illuminated circuitry, placed on a dark motherboard surface. The padlock radiates vibrant electric blue light, symbolizing cybersecurity, data protection, and d
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Hash, copie forensi, analisi dei supporti digitali, captatori informatici – il cosiddetto trojan di Stato – hanno progressivamente spostato il baricentro dell’accertamento probatorio. La “verità” processuale non si forma più soltanto attraverso la parola del testimone o la valutazione diretta del giudice, ma passa attraverso strumenti tecnici, procedure di estrazione e validazione, catene di custodia complesse.

In questi anni il diritto ha dovuto rincorrere la tecnologia costruendo garanzie: integrità del dato, ripetibilità dell’accertamento, verificabilità delle operazioni tecniche. In una parola, controllabilità della prova.

Quando la tecnologia entra nel processo

Oggi, tuttavia, una seconda rivoluzione si sta affacciando negli studi legali e nelle aule di giustizia: l’intelligenza artificiale generativa.

Non si tratta più solo di acquisire e trattare dati, ma di produrre contenuti giuridici: l’analisi documentale, la sintesi di atti, le ricerche giurisprudenziali, fino alla redazione di testi complessi, come memorie e ricorsi per Cassazione, attività che, fino a ieri, appartenevano esclusivamente al professionista e che oggi iniziano a essere, almeno in parte, automatizzabili.

È qui che emerge un punto di contatto sorprendente tra le due rivoluzioni – quella della prova informatica e quella dell’IA: entrambe spostano potere verso la tecnologia, ma al tempo stesso concentrano la responsabilità sull’uomo, chiamato a governare questa rivoluzione epocale.

Intelligenza artificiale nel processo penale e limiti della delega

Nel caso del trojan di Stato, il rischio è noto: affidare a uno strumento tecnologico la raccolta della prova significa accettare una “mediazione tecnica” che può incidere sulla sua affidabilità. Per questo il sistema ha reagito imponendo regole stringenti sulla catena di custodia e sulla verificabilità delle operazioni. Con l’intelligenza artificiale generativa, la dinamica è analoga ma più sottile.

L’avvocato, il giurista, può utilizzare un sistema di IA per analizzare centinaia di pagine, individuare contraddizioni, suggerire percorsi argomentativi. Ma il risultato non è una “prova” in senso tecnico: è un prodotto linguistico probabilistico, costruito su modelli statistici. L’IA generalista è sorprendente ed evolve a ritmo vertiginoso, alimentata da miliardi di interazioni. Il rovescio della medaglia è evidente: apprende anche da fonti non qualificate.

L’IA specialistica, sviluppata per gli operatori del diritto, è più controllata e affidabile, ma cresce più lentamente.

Il risultato è un paradosso: la prima è più potente ma richiede vigilanza; la seconda è più sicura ma meno performante.

Il punto vero è che delegare integralmente a questo strumento – sia esso generalista, sia esso specialistico – la costruzione dell’atto difensivo significherebbe rinunciare al controllo sulla qualità dell’argomentazione e, in ultima analisi, sulla difesa stessa.

È una delega che, semplicemente, non è possibile.

Dal dato al ragionamento

Nella prova informatica, il problema centrale è: posso fidarmi del dato? Nell’IA generativa, la domanda diventa: posso fidarmi del ragionamento? Il passaggio è cruciale.

Non si tratta più soltanto di verificare che un file non sia stato alterato, ma di comprendere se un’argomentazione sia logicamente corretta, giuridicamente fondata, coerente con gli atti di riferimento, conforme al diritto vivente.

L’IA può suggerire una struttura persuasiva, ma non può assumersi la responsabilità della sua validità: questa responsabilità resta integralmente in capo al professionista.

In altri termini, se la prima rivoluzione ha imposto all’avvocato di diventare – almeno in parte – competente di informatica forense, la seconda gli richiede di rafforzare una competenza ancora più essenziale: il controllo critico del ragionamento giuridico.

Intelligenza artificiale nel processo penale e ricorso per Cassazione

Questa dinamica emerge con particolare evidenza nella redazione di atti complessi, come un ricorso per Cassazione.

L’utilizzo dell’intelligenza artificiale nella preparazione di un ricorso per Cassazione consente di gestire masse documentali imponenti, di individuare rapidamente passaggi rilevanti, di costruire bozze di strutture argomentative e di ripercorrere il flusso delle argomentazioni, evitando lacune nella mappatura degli atti richiamati e, quindi, rischi di inammissibilità.

Ma è proprio nel momento più delicato – quello della qualificazione giuridica e della formulazione dei motivi – che il limite della macchina diventa evidente.

Il ricorso per Cassazione non è un esercizio di scrittura, ma un’operazione di precisione: richiede l’individuazione di violazioni di legge, il rispetto del principio di autosufficienza, la capacità di evitare sconfinamenti nel merito.

Sono ambiti in cui l’errore non è semplicemente “imprecisione”, ma può tradursi in inammissibilità.

In questo contesto, l’IA si rivela uno strumento potentissimo, ma solo a condizione che sia governata rigorosamente: ogni suggerimento deve essere verificato, ogni citazione controllata, ogni passaggio rielaborato criticamente.

Questo impone al professionista di mantenere uno standard elevato, fondato su studio, aggiornamento e approfondimento tecnico di ogni singola posizione.

..*

Governare gli strumenti e assumere la responsabilità

Governare la tecnologia: la nuova competenza

Il punto, allora, non è stabilire se l’intelligenza artificiale debba essere utilizzata – lo è già, e lo sarà sempre di più – ma comprendere cosa significhi utilizzarla correttamente.

La vera competenza del giurista, oggi, non è la mera conoscenza degli strumenti, ma la capacità di:

I passaggi decisivi del controllo professionale

• comprenderne i limiti;

• verificarne i risultati;

• integrarli in un processo decisionale consapevole;

• assumerne la responsabilità.

In altre parole, non delegare, ma dirigere.

Questa esigenza non è nuova. È la stessa che ha accompagnato l’ingresso della prova informatica nel processo penale. Ma oggi si estende dal piano del dato a quello del linguaggio e del ragionamento.

Intelligenza artificiale nel processo penale e centralità del controllo umano

Le tecnologie che entrano nel processo penale promettono efficienza, velocità, potenza di analisi e mantengono queste promesse, ma producono anche un effetto meno evidente: rendono ancora più centrale il ruolo umano.

Perché più aumenta la capacità della macchina di generare risultati, più diventa necessario qualcuno che quei risultati li comprenda, li valuti, li assuma o li scarti.

Dal trojan di Stato a ChatGPT, il filo rosso è lo stesso: la tecnologia può spostare il potere, ma non può assorbire la responsabilità. E nel processo penale – dove in gioco ci sono libertà, reputazione, diritti fondamentali – questa responsabilità non può che restare, interamente, nelle mani dell’uomo: del giudice, del pubblico ministero, della polizia giudiziaria, dell’avvocato. Ed è una responsabilità che non può essere delegata, nemmeno alla macchina più intelligente.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x