vademecum

AI e avvocati, ecco le buone pratiche per gli studi legali



Indirizzo copiato

L’Ordine degli avvocati di Roma diffonde un vademecum operativo sull’uso dell’IA in studio, allineato a legge 132/2025 e AI Act. Centralità della responsabilità del professionista, scelta consapevole degli strumenti, informativa al cliente, anonimizzazione e cybersecurity. Indicazioni pratiche su procedure interne e rischi disciplinari

Pubblicato il 20 feb 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



IA avvocati

La commissione processo civile dell’Ordine degli avvocati di Roma ha pubblicato un vademecum sull’uso dell’intelligenza artificiale nella professione forense. Un documento snello ma incisivo, che traduce in indicazioni operative gli obblighi della legge 132/2025 e dell’AI Act europeo. Ecco cosa prevede, cosa cambia nella pratica quotidiana dello studio legale e come organizzarsi concretamente.

Il contesto e il perché del documento

L’intelligenza artificiale è entrata negli studi legali. Chatbot generativi, piattaforme di legal analytics, strumenti di document review automatizzata: il ventaglio di applicazioni si allarga di mese in mese, ma il quadro normativo e deontologico non sempre è chiaro a chi li utilizza quotidianamente.

In questo spazio si inserisce il “Breve vademecum per avvocati sull’utilizzo dell’intelligenza artificiale”, redatto dalla commissione processo civile dell’Ordine degli avvocati di Roma e diffuso il 17 febbraio 2026.

Il documento non nasce nel vuoto. Si colloca a valle di un impianto normativo ormai strutturato: l’AI Act europeo (Regolamento UE 2024/1689), il GDPR, la legge italiana sull’IA (legge 23 settembre 2025, n. 132, in vigore dal 10 ottobre 2025), la legge professionale forense (l. 247/2012), il Codice deontologico e le linee guida del CCBE (Council of Bars and Law Societies of Europe) sull’uso della GenAI.

Si affianca inoltre alla Carta dei Principi pubblicata nel dicembre 2024 dall’Ordine degli avvocati di Milano, che però era stata elaborata prima dell’entrata in vigore della legge 132/2025.

La peculiarità del vademecum romano sta nel taglio operativo, non enuncia solo principi, li traduce in una mini-procedura “prima/durante/dopo” che ogni avvocato può adottare immediatamente nello studio.

Intelligenza artificiale avvocati: responsabilità e ruolo ausiliario

Il punto di partenza è l’articolo 13 della legge 132/2025, che disciplina l’uso dell’IA nelle professioni intellettuali. La norma stabilisce che i sistemi di intelligenza artificiale possono essere impiegati “al solo esercizio delle attività strumentali e di supporto”, con “prevalenza del lavoro intellettuale oggetto della prestazione d’opera”.

Il pensiero critico dell’avvocato, in sostanza, deve restare il motore della prestazione. L’AI può velocizzare, analizzare, suggerire, ma non decideresostituire.

Il vademecum ribadisce questo concetto in modo netto. La responsabilità dell’atto resta integralmente in capo al professionista, anche quando l’elaborato sia stato predisposto con il supporto di un applicativo di AI. Non è ammissibile affidare integralmente la redazione di atti, contratti o pareri a sistemi automatizzati.

I pilastri del vademecum senza keyword nel titolo

Il vademecum conta i seguenti pilastri.

Scelta consapevole della piattaforma

Prima ancora di utilizzare un qualunque strumento di AI, il professionista deve verificare che la piattaforma sia conforme ai regolamenti europei, alla normativa italiana e alla deontologia forense. Il vademecum chiede di approfondire i termini di servizio e le privacy policy e soprattutto di comprendere il funzionamento e i limiti del sistema adottato.

Il tutto partendo dal rischio “allucinazioni” cioè la generazione di contenuti plausibili ma falsi, come riferimenti normativi o giurisprudenziali inesistenti.

Il documento è esplicito: non si devono caricare atti integrali o documenti sensibili su piattaforme non verificate, ed è preferibile evitare l’uso di chatbot pubblici per testi che contengono dati riservati.

Trasparenza verso il cliente

    La legge 132/2025 (art. 13, comma 2) impone un obbligo di informazione: il cliente deve sapere se e come il professionista utilizza strumenti di IA, tale comunicazione deve avvenire con “linguaggio chiaro, semplice ed esaustivo”.

    Il vademecum rafforza questo obbligo specificando che gli strumenti di AI possono svolgere soltanto un ruolo ausiliario nella prestazione.

    Per gli studi legali l’adempimento è concreto: occorre aggiornare lettere di incarico e informative, inserendo clausole che spieghino in modo comprensibile l’eventuale utilizzo di sistemi di intelligenza artificiale, rassicurando che valutazioni e decisioni strategiche restano in capo all’avvocato.

    Il Consiglio Nazionale Forense ha già messo a disposizione un facsimile di informativa a tal fine.

    Anonimizzazione e protezione dei dati

    Questo è forse il nucleo più stringente del vademecum. L’avvocato deve anonimizzare i dati che immette nei sistemi di AI, rimuovendo riferimenti e dettagli identificativi.

    Le indicazioni sono precise: utilizzare solo le informazioni strettamente necessarie, preferire sistemi “privacy by design e by default” (dove la protezione è integrata nel sistema e non aggiunta a posteriori), non condividere atti giudiziari, dati sanitari o sensibili su piattaforme esterne.

    Un punto merita attenzione particolare, perché nella pratica genera confusione: la differenza tra anonimizzazione e pseudonimizzazione.

    Anonimizzare significa rendere il dato irreversibilmente non riconducibile a una persona fisica: se il processo è davvero irreversibile, il dato cessa di essere “dato personale” ai sensi del GDPR.

    Pseudonimizzare, invece, significa sostituire un identificativo con un alias, ad esempio chiamare il cliente “Società Alfa” invece che con la ragione sociale reale, mantenendo però la possibilità, tramite una chiave o tramite il contesto stesso della vicenda, di risalire all’identità dell’interessato. Il dato pseudonimizzato resta un dato personale a tutti gli effetti.

    La distinzione non è accademica. Se un avvocato inserisce in un chatbot pubblico un atto pseudonimizzato ma con dettagli fattuali molto specifici, date, importi, dinamiche processuali peculiari, il rischio che l’algoritmo possa incrociare quelle informazioni con altri dati e ricostruire l’identità del cliente non è teorico.

    Quando il vademecum parla di anonimizzazione, dunque, non intende la semplice sostituzione dei nomi, ma un intervento più profondo che elimini ogni elemento contestuale idoneo a consentire l’identificazione.

    Ulteriori indicazioni

    Il vademecum aggiunge che è preferibile verificare la sede legale e la giurisdizione del fornitore del servizio AI, per avere certezza sul foro competente in caso di controversie.

    L’obbligo di anonimizzazione può essere temperato, ma mai eliminato, solo in presenza di condizioni cumulative rigorose: ad esempio operando in ambienti protetti, con piattaforme professionali certificate.

    A questo proposito, lo spettro delle soluzioni tecniche a disposizione degli studi è più ampio di quanto si creda. Oltre alle piattaforme cloud enterprise con clausole contrattuali di non addestramento e garanzie di data residency in UE, esiste la possibilità di eseguire modelli di AI direttamente su infrastruttura locale dello studio, server interni o workstation dedicate, utilizzando modelli open-weight oggi sufficientemente performanti per attività di ricerca, sintesi e supporto alla redazione.

    In questo scenario, i dati non escono mai dal perimetro fisico e informatico dello studio: è, a tutti gli effetti, l’ambiente protetto cui fa riferimento il vademecum come condizione per attenuare gli obblighi di anonimizzazione.

    I vantaggi in termini di tutela del segreto professionale e di conformità al GDPR sono evidenti, inoltre la possibilità di indicare nella lettera di incarico che i dati del cliente non vengono mai trasmessi a terze parti rappresenta anche un elemento reputazionale significativo.

    Va detto, però, che questa strada comporta un investimento iniziale in hardware, competenze tecniche minime per la configurazione e la manutenzione, una velocità di elaborazione leggermente inferiore rispetto alle soluzioni cloud più potenti.

    Una scelta da calibrare sulle dimensioni e sulle esigenze dello studio, ma che è bene conoscere come opzione concretamente percorribile.

    Sicurezza informatica e verifica degli output

    Il quarto pilastro riguarda la cybersecurity: protezione dei dispositivi e degli account, connessioni sicure, crittografia, attenzione a non impiegare materiale coperto da copyright senza licenza e verifica che gli output non violino diritti di terzi.

    Sulla verifica dei contenuti generati il vademecum si fa più puntuale. L’avvocato deve sempre controllare ogni indicazione normativa o giurisprudenziale sulle banche dati ufficiali, rielaborare personalmente testi e comunicazioni, conservare le fonti consultate e annotare nel fascicolo l’utilizzo dell’AI.

    In nessun caso è possibile citare fonti normative, sentenze o dottrina generate dai chatbot senza verifica preventiva, né utilizzare testi creati in automatico senza revisione umana.

    Dalla teoria alla pratica nello studio legale

    Il vademecum indica principi e obblighi, ma ogni studio deve tradurli in procedure concrete. Alcuni adempimenti si ricavano direttamente dal documento; altri sono la naturale conseguenza operativa del quadro normativo.

    Intelligenza artificiale avvocati: valutare il rischio prima dell’uso

    Non tutti i dati presentano lo stesso livello di sensibilità e non tutte le interazioni con l’AI comportano lo stesso rischio.

    Prima di sottoporre qualsiasi contenuto a un sistema di intelligenza artificiale, l’avvocato dovrebbe valutare se il testo contiene dati personali, dati particolari (ex sensibili) o giudiziari, elementi contestuali che potrebbero consentire l’identificazione indiretta del cliente, oppure informazioni coperte da segreto professionale.

    Un quesito puramente giuridico e astratto presenta un profilo di rischio diverso da una richiesta di sintesi di un fascicolo con nomi, date e importi.

    Anche un quesito apparentemente generico può rivelare la strategia processuale dello studio se è formulato in modo molto specifico, la valutazione deve essere caso per caso, senza automatismi.

    Registrazione delle attività e tracciabilità

    Il vademecum chiede esplicitamente di “annotare nel fascicolo di studio l’utilizzo effettuato dell’AI”.

    In pratica, ciò significa aggiungere nel software gestionale (o nel fascicolo cartaceo) una nota sintetica che indichi quale strumento è stato usato, quando, per quale attività e che la revisione critica e la verifica delle fonti sono state effettuate dal professionista.

    Non è un adempimento gravoso, ma può fare la differenza in caso di contestazione: dimostra che il controllo umano c’è stato, il cosiddetto principio dello human-in-the-loop.

    Aggiornare la documentazione contrattuale

    L’obbligo di informazione al cliente previsto dall’articolo 13 della legge 132/2025 si traduce operativamente nell’inserimento di una clausola nella lettera di incarico che dichiari l’eventuale utilizzo di strumenti di AI per attività di supporto, specificando che nessuna valutazione strategica è delegata alla macchina.

    Non serve una comunicazione ad hoc per ogni singolo atto: è sufficiente una previsione generale nel mandato, formulata in modo chiaro e comprensibile.

    Parallelamente è opportuno verificare che l’informativa privacy dello studio (articolo 13 GDPR) sia aggiornata per includere, ove applicabile, il riferimento ai fornitori di tecnologia AI come responsabili del trattamento.

    Definire una policy interna per collaboratori e praticanti

    Un aspetto che il vademecum tocca implicitamente ma che merita attenzione esplicita è la gestione dell’uso dell’AI da parte di tutti i componenti dello studio, non solo del titolare.

    Va adottata una policy interna, anche un documento sintetico di poche pagine, che stabilisca quali piattaforme sono autorizzate, quali categorie di dati non possono essere immesse nei sistemi di AI e che vieti espressamente l’uso di account personali su servizi consumer (come versioni gratuite di chatbot) per attività lavorative.

    La legge 132/2025 prevede peraltro, all’articolo 22, che gli Ordini professionali organizzino percorsi di alfabetizzazione e formazione all’uso dei sistemi di intelligenza artificiale: anticipare questo obbligo con una formazione interna strutturata non è solo prudente, ma pone lo studio in una posizione di conformità proattiva.

    Intelligenza artificiale avvocati: rischi disciplinari e compliance

    Il vademecum non si limita a raccomandare: delinea anche le conseguenze dell’inosservanza.

    L’uso improprio dell’AI può determinare la segnalazione al Consiglio dell’Ordine (ai sensi dell’art. 50, comma 4, della legge 247/2012) e l’avvio del procedimento disciplinare dinanzi al Consiglio distrettuale di disciplina, con sanzioni proporzionate alla gravità della violazione.

    Non si tratta quindi di semplici linee guida, ma di un documento che si inserisce nel perimetro della compliance professionale: ignorarlo espone a rischi concreti.

    Uno standard replicabile e prospettive

    Il vademecum dell’Ordine di Roma rappresenta il primo documento italiano di questo tipo emanato dopo l’entrata in vigore della legge 132/2025.

    Il suo approccio pratico e sistematico, integra fonti europee, legge nazionale e doveri deontologici in una procedura operativa, lo rende potenzialmente un modello per altri Ordini territoriali.

    Nei prossimi mesi probabilmente ci saranno iniziative analoghe che si diffonderanno su tutto il territorio nazionale, contribuendo a consolidare un quadro di regole uniformi per l’uso dell’AI nella professione forense.

    Il messaggio di fondo è chiaro: l’intelligenza artificiale è un’opportunità per la professione legale, ma il suo utilizzo richiede consapevolezza, responsabilità e un rigoroso rispetto delle regole.

    Non basta saper usare uno strumento: bisogna saper governare il rischio professionale che quello strumento introduce.

    guest

    0 Commenti
    Più recenti
    Più votati
    Inline Feedback
    Vedi tutti i commenti

    Articoli correlati

    0
    Lascia un commento, la tua opinione conta.x