approfondimento

Trasparenza sull’uso dell’IA: cosa cambia davvero per cliente e difesa



Indirizzo copiato

Le nuove regole deontologiche impongono all’avvocato di chiarire se e come usa l’IA nell’incarico. Trasparenza, tutela dei dati, controllo degli errori e responsabilità restano centrali per mantenere intatto il rapporto fiduciario con il cliente

Pubblicato il 16 dic 2025

Matteo Montaruli

Avvocato Keller Montaruli & Associati STA S.r.l.



gpt 5.2; AI legali

Negli ultimi mesi il dibattito sull’intelligenza artificiale è uscito dagli ambienti specialistici ed è entrato negli studi legali. Non per moda, ma per necessità. La riforma delle norme deontologiche ha infatti introdotto per l’avvocato un nuovo obbligo informativo: spiegare ai clienti se, come e per quali attività vengano utilizzati strumenti di intelligenza artificiale nello svolgimento dell’incarico professionale.

La scelta del legislatore non nasce da un entusiasmo tecnofilo, ma da un’esigenza molto più concreta: tutelare il rapporto fiduciario per eccellenza, quello tra avvocato e assistito, che oggi si confronta con strumenti potenti, utili, ma tutt’altro che neutri.

Dal cliente informato su Internet al cliente informato dall’IA

La prima grande sfida al rapporto fiduciario non arriva con l’IA, ma affonda le sue radici nell’uso massiccio di Internet. Da anni, infatti, i clienti arrivano nello studio dopo aver consultato articoli, forum, siti di settore, formandosi idee spesso incomplete o scorrette. Ciò costringe il professionista a un faticoso lavoro di “decontaminazione cognitiva”, necessario per ristabilire la fiducia.

Con l’avvento dell’IA si è aperto un nuovo fronte. Da un lato il cliente ha oggi accesso a strumenti che gli forniscono risposte immediate e, in apparenza, strutturate; dall’altro lato il professionista è esposto alla tentazione di delegare all’algoritmo fasi del ragionamento che dovrebbero rimanere strettamente umane.

Limitandoci al lato del cliente, il punto è semplice: chi lavora davvero sul suo caso?

La scena è ormai frequente. Il cliente chiede: «Avvocato, ma lei usa l’intelligenza artificiale per scrivere gli atti?».

È una domanda che racchiude un timore legittimo: nessuno vuole un servizio automatico, e nessuno vuole incertezza sulla titolarità — giuridica e intellettuale — delle scelte difensive.

È qui che nasce il nuovo obbligo informativo.

Perché l’obbligo di trasparenza sull’IA diventa necessario

La professione forense sta attraversando una trasformazione accelerata. Gli strumenti di IA incidono su vari aspetti sensibili:

  • la riservatezza dei dati affidati al difensore;
  • il rischio di errori generati da sistemi con logiche interne non sempre verificabili;
  • la possibile standardizzazione dei contenuti giuridici;
  • la delega impropria di parti del ragionamento critico a un algoritmo.

L’obiettivo della norma non è frenare l’innovazione, ma tracciare con chiarezza i confini della responsabilità: la tecnologia può assistere, mai sostituire.

Cosa deve comunicare l’avvocato al cliente sull’uso dell’IA

La norma non impone formule rituali: chiede chiarezza. L’informativa deve indicare:

  • se lo studio utilizza strumenti di IA in attività come ricerche, analisi documentale, elaborazione di testi o gestione del fascicolo;
  • quali garanzie di riservatezza e quali misure di sicurezza sono adottate;
  • che tutte le decisioni rimangono in capo all’avvocato, così come la responsabilità dell’atto;
  • che l’IA è un supporto, non un sostituto del giudizio professionale.

Il cliente deve sapere come lavora chi difende i suoi interessi. È l’unico modo per costruire e mantenere nel tempo un rapporto fiduciario autentico.

IA come acceleratore cognitivo, non come scorciatoia

L’intelligenza artificiale non è un gadget. È un acceleratore di capacità cognitive: permette di leggere più documenti, individuare connessioni, elaborare scenari e rispondere più rapidamente. Ma può anche generare errori difficili da intercettare, proporre citazioni inesatte, confondere interpretazioni normative: le cosiddette “allucinazioni”.

Per questo l’informativa non è un formalismo, ma un punto di equilibrio tra innovazione e responsabilità. Nessun algoritmo — almeno per molto tempo — potrà assumere il peso di un atto giudiziario o di una strategia difensiva.

Trasparenza e adozione consapevole nello studio legale

Molti temono che questa norma rallenti l’ingresso dell’IA negli studi legali. È vero il contrario: la trasparenza è la precondizione per un uso maturo della tecnologia. Il cliente non teme l’innovazione: teme l’opacità.

Quando comprende quali strumenti vengono utilizzati, con quali controlli e con quali garanzie di riservatezza, non solo accetta l’IA, ma spesso la considera un valore aggiunto.

La competenza decisiva per l’avvocato nell’era dell’IA

Nei prossimi anni le capacità dell’IA cresceranno esponenzialmente: analisi di atti, generazione di bozze, strutturazione di argomentazioni, ricerca su grandi banche dati. Questo non renderà superfluo l’avvocato: lo renderà più esposto. La competenza decisiva sarà:

  • integrare gli strumenti,
  • verificarne i risultati,
  • correggerli quando necessario,
  • trasformare la velocità dell’algoritmo in qualità del servizio.

L’IA potenzia il professionista. Non lo sostituisce.

In conclusione, tecnologia e responsabilità camminano insieme. L’obbligo di informativa non è un peso burocratico, ma un segnale culturale forte: il cliente ha diritto di sapere come vengono trattati i suoi dati, come viene costruita la sua difesa e chi assume davvero la responsabilità delle scelte.

La tecnologia corre. Il diritto prova a starle dietro.

In mezzo c’è il professionista, che ogni giorno deve integrare strumenti nuovi senza perdere autonomia, giudizio critico e fiducia del cliente. Non è un tema da informatici. È un tema da persone. È un tema da professionisti.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x