La legge 132/2025, “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, sebbene rinvii a futuri atti normativi la più completa disciplina sull’uso dell’intelligenza artificiale, reca alcune disposizioni in materia di professioni intellettuali sin da subito cogenti.
In particolare, l’art. 13 della predetta normativa, rubricato “Disposizioni in materia di professioni intellettuali”, al primo comma dispone che l’uso dell’IA nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale, dovendo rimanere prevalente il lavoro intellettuale.
Indice degli argomenti
Intelligenza artificiale professioni intellettuali: ambito e principio di prevalenza umana
Restando ai fatti di cronaca, recenti sentenze hanno sanzionato per responsabilità aggravata gli avvocati che hanno utilizzato nel corso di giudizi atti redatti con l’intelligenza artificiale, contenenti argomentazioni e richiami giurisprudenziali scorretti.
La nuova normativa, limitandosi al principio antropocentrico della prevalenza del lavoro intellettuale, non elimina i dubbi dei professionisti sulle modalità lecite di utilizzo dell’IA nell’attività professionale, pur rimanendo certo che il professionista abbia l’obbligo di controllo di quanto elaborato dall’intelligenza artificiale.
Trasparenza e mandato nelle professioni intellettuali con intelligenza artificiale
Il secondo comma dell’art. 13 è dedicato al principio di trasparenza e stabilisce che “per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo”.
La norma collega la trasparenza sulle informazioni relative ai sistemi di intelligenza artificiale utilizzati al rapporto fiduciario, ossia alla base del mandato conferito. Anche questa previsione non è scevra da dubbi: in mancanza di informazioni sull’IA, il mandato è quindi nullo o altrimenti invalido? Cosa si intende per “informazioni relative ai sistemi di intelligenza artificiale”? È sufficiente indicare di quali sistemi si dota lo studio? E se tali sistemi non vengono utilizzati nello specifico incarico?
Informativa al cliente su intelligenza artificiale e professioni intellettuali
E ancora.
Conosciamo tutti la pervasività dei sistemi di IA e il fatto che i professionisti non possono con assoluta certezza sapere se un software usato dallo studio sia implementato con l’IA. I sistemi di intelligenza artificiale sono ormai integrati in strumenti di uso quotidiano, come sistemi operativi di smartphone ed elaboratori elettronici, account e-mail e software di videoscrittura ed elaborazione dati, rendendo in concreto difficile determinare con certezza, senza oneri sproporzionati, quali strumenti incorporino funzionalità di IA e in quale misura.
La domanda è quindi: cosa deve comunicare l’avvocato? La norma non distingue tra sistemi generalisti, specialistici o integrati, lasciando ampio margine di incertezza operativa.
In molti casi non è tecnicamente possibile scindere o limitare selettivamente componenti di IA dalle attività svolte dal professionista, pur mantenendo la piena responsabilità, il controllo umano e la prevalenza dell’apporto intellettuale nella prestazione.
Il contenuto minimo dell’informativa
Alla luce di tali criticità, risulta poco chiaro quale debba essere il contenuto minimo dell’informativa sui sistemi di IA. È dubbio se sia sufficiente un riferimento generale agli strumenti in uso nello studio, o se occorra una descrizione specifica dei sistemi effettivamente impiegati nel singolo incarico.
L’assenza di indicazioni sul livello di dettaglio richiesto espone il professionista al rischio di informazioni troppo generiche o, al contrario, eccessivamente analitiche, difficili da aggiornare e non sempre comprensibili al cliente, con possibili ricadute sul rapporto fiduciario.
La difficoltà di mappare i sistemi di IA
Al tempo stesso, la pervasività dell’IA negli strumenti digitali rende complesso, per gli studi professionali, elaborare una mappatura completa dei sistemi che incorporano funzioni di intelligenza artificiale. Molti applicativi operano con funzioni di IA in modo non immediatamente visibile all’utente, con evidenti ricadute sulla possibilità di garantire un’informativa davvero esaustiva senza aggravi sproporzionati.
Questa situazione crea un potenziale divario tra lettera della norma e concreta possibilità di adempimento, aumentando l’incertezza interpretativa e il rischio di contenziosi.
Obbligo di informativa e forma della comunicazione
Continuando l’analisi normativa e, con tutti i dubbi sulla portata dell’art. 13, analizziamo il “come” deve essere resa questa informativa e il “quando”. Dal tenore normativo appare chiaro che l’obbligo in capo ai professionisti si fermi al “dare informativa” e non sussista alcun obbligo di raccogliere consenso.
Ricordiamo tuttavia che questo obbligo di trasparenza è posto dalla norma alla base del rapporto fiduciario e quindi del mandato professionale, con tutti i rischi e le ripercussioni del caso. Non vi sono al momento indicazioni operative sul testo dell’informativa, se non che dovrà essere espressa con linguaggio chiaro, semplice ed esaustivo.
Quando rendere l’informativa
È ragionevole ritenere che l’informativa debba essere resa sin dalla fase iniziale del rapporto professionale, in modo da consentire al cliente una scelta consapevole rispetto all’uso di strumenti di IA a supporto dell’attività. Resta però irrisolta la questione di come aggiornare tale informativa in caso di evoluzione degli strumenti o di modifica delle modalità d’uso nella gestione del singolo incarico.
L’assenza di una disciplina puntuale su tempi e modalità di aggiornamento rischia di tradursi in un adempimento meramente formale, disancorato dalla reale comprensione da parte del cliente.
Forma e linguaggio richiesti
A parere del Dipartimento AI, GDPR e New Tech di Movimento Forense, l’informativa può essere resa, in compliance con la norma, anche mediante comunicazioni standardizzate allegate o apposte in calce alla corrispondenza o nei documenti informativi dello studio, purché non ambigue e coerenti con i principi di trasparenza e sorveglianza umana.
Tuttavia, vi è il rischio che una comunicazione superficiale alimenti incomprensioni sui limiti d’uso dei sistemi di IA e sull’apporto determinante del professionista, con potenziali ricadute sull’immagine della categoria, rendendo opportuno integrare la comunicazione, in linguaggio chiaro, ribadendo la prevalenza del lavoro intellettuale e la sorveglianza/verifica umana.
Azioni operative per le professioni intellettuali nell’uso dell’intelligenza artificiale
In tal senso, le azioni suggerite ai legali si muovono nella direzione di una responsabilizzazione organizzativa degli studi professionali, più che di un mero adempimento documentale. L’obiettivo è quello di garantire un uso responsabile e controllato dei sistemi di IA, in linea con i principi espressi dalla legge.
Misure organizzative e tecniche
In primo luogo, gli studi sono invitati ad adottare misure organizzative e tecniche per la tutela della riservatezza e della sicurezza dei dati e per la verifica umana dei risultati, in coerenza con i principi di accuratezza, spiegabilità, proporzionalità e sorveglianza umana previsti dalla legge:
- adottare misure organizzative e tecniche per la tutela della riservatezza e della sicurezza dei dati e per la verifica umana dei risultati, in coerenza con i principi di accuratezza, spiegabilità, proporzionalità e sorveglianza umana previsti dalla legge;
Policy interna e formazione
Accanto a ciò, assume rilievo la necessità di mantenere una policy interna sull’uso responsabile dei sistemi di IA, aggiornata in relazione all’evoluzione delle piattaforme e dei rischi, con adeguata formazione del personale:
- mantenere una policy interna sull’uso responsabile dei sistemi di IA, aggiornata in relazione all’evoluzione delle piattaforme e dei rischi, con formazione progressiva del personale per garantire conformità e qualità del servizio.
Criticità dell’art. 13 e impatto sulle professioni intellettuali
Si può concludere, pertanto, che l’art. 13, che detta disposizioni in materia di professioni intellettuali, si palesa eccessivamente generico sulla portata della possibilità di uso dei sistemi di IA, sulle conseguenze per il mancato rispetto dell’uso strumentale dell’IA e sull’obbligo di comunicazione, rendendo di fatto la norma, ad oggi, di difficile attuazione.
Si aggiungano a tali considerazioni motivazioni di opportunità sull’inserimento, a carico di tutti i professionisti, di limiti e obblighi di comunicazione e, in qualche modo, di disclosure sugli strumenti utilizzati dallo studio. Di fatto, le professioni ordinistiche sono già sottoposte a stringenti obblighi deontologici che si traducono in corrispondenti diritti per gli assistiti e l’inserimento di un ulteriore obbligo di comunicazione rischia di minare proprio quel rapporto fiduciario che invece la norma vorrebbe preservare.
Il nuovo adempimento si palesa come meramente formale e rischia di svuotare il significato di quella consapevolezza che la norma in commento mira a preservare. Per tali ragioni, Movimento Forense, lo scorso 9 ottobre, ha diramato il proprio comunicato teso a evidenziare le predette aporie e chiedere alle istituzioni quantomeno di minimizzare gli obblighi previsti dalla norma, in attesa di poterla ridiscutere sin dalle basi.












