L’adozione dell’IA impone un nuovo equilibrio tra innovazione e controllo: AI Act e responsabilità 231 convergono in un’unica strategia, dove governance, supervisione e tracciabilità diventano leve decisive per prevenire rischi e difendere l’ente.
Per capire dove intervenire, serve uno sguardo al presente: l’IA domina l’agenda, ma l’adozione effettiva procede a velocità diverse.
Indice degli argomenti
Il paradosso dell’intelligenza artificiale nelle imprese europee
Da tempo, infatti, l’intelligenza artificiale ha conquistato le prime pagine dei giornali, le agende dei governi e le conversazioni quotidiane. Eppure, a ben guardare, sia in Europa che in Italia il processo è ancora in una fase iniziale rispetto agli Stati Uniti e alla Cina, che rappresentano non solo i precursori, ma anche il laboratorio da cui osservare le conseguenze concrete dei primi casi d’uso.
L’interesse delle aziende è evidentemente altissimo: secondo IDC, per ogni dollaro investito in GenAI si può generare in media un ritorno di 3,7 dollari (IDC, 2024 Business Opportunity of AI). E circa l’81% dei leader si aspetta che gli agenti di IA entrino a far parte della strategia aziendale nei prossimi 12-18 mesi (Microsoft, Work Trend Index 2024).
Ma il divario tra aspirazioni e realtà è evidente: più dei due terzi dei progetti pilota non supera la fase di test per problemi di governance, gestione dei dati e rischi connessi (Deloitte Insights, Generative AI and the Future Enterprise), mentre circa il 60% delle imprese ha dichiarato di non aver ancora quantificato l’impatto potenziale della gen AI per il proprio business e solo l’1% delle aziende considera la propria organizzazione matura nell’adozione dell’IA (McKinsey Digital, Superagency in the Workplace).
La novità, quindi, non è la nascita dell’IA – presente da decenni in applicazioni verticali – ma la sua corsa verso l’adozione generalizzata, con il paradosso che alle aspettative altissime corrisponde spesso una scarsa capacità di “messa a terra”. Ed è proprio in questo spazio di incertezza che si innestano i rischi, tecnici e giuridici, che vanno compresi e governati.
Dall’IA tradizionale ai sistemi agentici autonomi
Per comprendere meglio questi rischi, è utile partire da una distinzione di fondo tra le diverse forme di intelligenza artificiale.
Da un lato, esistono da anni sistemi di intelligenza artificiale “tradizionali”, sviluppati per attività specifiche di calcolo, analisi o ottimizzazione; dall’altro, ciò che negli ultimi due anni ha catturato l’attenzione pubblica e politica è l’IA cosiddetta generativa, e in particolare i modelli linguistici di grandi dimensioni (LLM), resi celebri da strumenti come ChatGPT o Copilot.
Ma la traiettoria non si ferma qui. Gli sviluppi attuali includono modelli non solo generativi, ma anche sistemi agentici (AI Agents), in cui l’IA viene potenziata da meccanismi che consentono non solo di rispondere a prompt, ma di raccogliere dati autonomamente, usare strumenti esterni, interagire con ambienti aziendali e svolgere attività di pianificazione multi-step e catene di elaborazione logica.
In letteratura, alcuni autori si riferiscono a questi modelli con le espressioni IA agentica o Augmented Language Models (ALMs), ossia, in senso ampio, architetture basate su LLM che integrano funzionalità aggiuntive, quali tool-calling, concatenazione di passaggi logici complessi e un certo grado di autonomia operativa.
Esempi spesso citati riguardano:
- assistenti capaci di rilevare anomalie nei parametri di un impianto e avviare procedure correttive senza input continuo;
- agenti IA in grado di proporre ribilanciamenti nei flussi finanziari predittivi;
- sistemi che automatizzano reportistica e analisi dei rischi aziendali, incidendo (almeno in parte) su decisioni organizzative;
- agenti che coordinano processi di manutenzione predittiva, ordinando in autonomia parti di ricambio e pianificando interventi tecnici; o ancora
- sistemi che ottimizzano in tempo reale le catene logistiche e di approvvigionamento, riallocando risorse in base a imprevisti o fluttuazioni di mercato.
Siamo di fronte, insomma, a macchine che non solo rispondono, ma “si muovono”. E quando si muovono da sole, le domande giuridiche iniziano a diventare più urgenti.
Se però la tecnologia evolve con rapidità, la realtà delle imprese mostra un ritmo molto più lento e frammentato.
Sperimentazioni aziendali e rischi nascosti della fase iniziale
In Italia e in Europa, infatti, l’adozione di tali sistemi nei processi aziendali, come detto, è ancora in una fase primordiale. Molte imprese si limitano a sperimentazioni per attività di supporto – traduzioni, sintesi di documenti, predisposizione di testi – utilizzando sia sistemi generalisti come ChatGPT, sia modelli addestrati su basi dati aziendali o su dataset forniti da terzi, percepiti come a basso rischio. Il confine, però, tra semplice ausilio e decisione rilevante è sottile e, in assenza di governance e competenze adeguate, anche un utilizzo apparentemente innocuo può trasformarsi, a volte, in un fattore di rischio.
È sufficiente pensare, ad esempio, a un RSPP o a un HSE Manager che si affidino a un sistema generativo per predisporre documenti di analisi dei rischi o turnazioni, in assenza di adeguate policy aziendali e senza verifiche di controllo: una scelta nata come supporto operativo rischia così di diventare un atto che incide direttamente su decisioni organizzative e che apre la strada a responsabilità aziendali inattese.
In definitiva, l’intelligenza artificiale non “decide” nulla da sola; ma se l’azienda non ha stabilito regole adeguate, verifiche e limiti, il rischio che una scorciatoia si trasformi in un infortunio – e in un’inchiesta – è tutt’altro che remoto.
La responsabilità 231 e i tre ruoli dell’intelligenza artificiale
Il D.lgs. n. 231 del 2001 ha introdotto nell’ordinamento giuridico italiano la responsabilità amministrativa degli enti derivante dalla commissione di una serie di reati convenzionalmente definiti “reati presupposto”.
Si tratta di una responsabilità derivante da una “colpa in organizzazione” nei confronti delle società che non hanno adottato un sistema di adeguata compliance (Modello di Organizzazione Gestione e Controllo) volto ad impedire la commissione di reati – da cui l’impresa trae un interesse o vantaggio – da parte del personale aziendale.
Sebbene, al momento, non siano previste modifiche legislative dirette a disciplinare l’impatto dell’IA sulla responsabilità 231, fatta eccezione per l’introduzione di un aggravamento della pena per i reati di aggiotaggio e di manipolazione del mercato se commessi mediante l’impiego di sistemi di intelligenza artificiale, l’IA irrompe nell’ordinario schema della responsabilità dell’ente “generata” dalla condotta umana penalmente rilevante.
In questa prospettiva, il ruolo dell’IA può manifestarsi in tre modalità differenti:
- come strumento per la commissione del reato, quando viene utilizzata dall’impresa per realizzare una condotta penalmente rilevante;
- come ambiente o contesto nell’ambito del quale si consuma il reato, laddove il sistema IA – per errori, progettazione difettosa o assenza di supervisione – agevoli la sua commissione eludendo il controllo della persona fisica a ciò preposta;
- come agente autonomo nella commissione del reato, nell’ipotesi in cui un sistema IA compia, in modo indipendente dalla specifica volontà umana, atti che rientrano in una fattispecie incriminatrice.
Tralasciando in questa sede l’ampio dibattito dottrinale relativo alla possibilità di configurare una responsabilità autonoma in capo all’IA – al momento non prevista dal nostro ordinamento –, l’autonomia operativa lasciata all’IA rende ancora più stringente la responsabilità ed il ruolo dell’ente. L’assenza di adeguati controlli e misure organizzative trasferisce il peso della responsabilità sull’azienda non avendo governato e vigilato correttamente l’operatività del sistema di IA.
Casistica dei reati presupposto e applicazioni concrete dell’IA
Per cercare di diradare la fitta nebbia che avvolge il rapporto tra IA e responsabilità penale, può essere utile analizzare concretamente come l’IA può inserirsi nei diversi processi aziendali; da un lato, fornendo supporto alla gestione dei rischi connessi a tali processi, e, dall’altro, come fattore stesso di rischio per la commissione dei differenti reati presupposto rilevanti ai sensi del D.lgs. 231/2001. Di seguito alcuni esempi pratici:
– Reati contro la pubblica amministrazione (artt. 24 e 25 D.lgs. 231/2001)
I sistemi di IA potrebbero essere utilizzati al fine di individuare, monitorare e prevenire possibili rischi di corruzione mediante l’impostazione di segnali di allerta volti a individuare eventuali conflitti di interesse dolosamente occultati. Dall’altro lato, se fraudolentemente manipolati da soggetti interni all’azienda, potrebbero essere utilizzati quale strumento per favorire l’aggiudicazione di un contratto di appalto da parte di un fornitore prezzolato, p. es. legato a funzionari pubblici.
– Reati informatici (art. 24-bis D.lgs. 231/2001)
I sistemi di IA potrebbero agevolare la raccolta di credenziali di accesso utilizzate per accedere abusivamente a un sistema informatico di un soggetto terzo, garantendo all’ente un vantaggio (anche indiretto) derivante dalla condotta penalmente illecita.
– Reati societari (art. 25-ter D.lgs. 231/2001)
Un sistema di IA potrebbe essere utilizzato al fine di agevolare l’inserimento e l’analisi di dati contabili utili alla predisposizione del bilancio di esercizio; tuttavia, attraverso la manipolazione dell’algoritmo la funzione aziendale competente potrebbe apportare modifiche ai dati precedentemente inseriti, o attribuire eventuali “anomalie contabili” al sistema IA quando in realtà lo stesso veniva strumentalmente utilizzato per raggiungere l’obiettivo illecito.
– Reati di abuso di mercato (art. 25-sexies D.lgs. 231/2001)
L’utilizzo di sistemi di IA potrebbe agevolare la diffusione di notizie false o il compimento di operazioni simulate idonee ad alterare sensibilmente il prezzo di strumenti finanziari, agevolando di conseguenza la realizzazione di fattispecie penalmente rilevanti come il reato di manipolazione del mercato.
– Reati in ambito salute e sicurezza sul lavoro (art. 25-septies D.lgs. 231/2001)
L’IA potrebbe essere utilizzata al fine di automatizzare o ottimizzare alcuni processi produttivi, ma anche al fine di monitorare l’utilizzo di dispositivi di protezione individuale o ancora di prevenire/monitorare il rischio di contrarre una determinata malattia professionale. Malgrado ciò, il mancato governo da parte del datore di lavoro di tali strumenti potrebbe agevolare la commissione di condotte penalmente rilevanti che, laddove venisse riscontrato un vantaggio o un risparmio di costi in capo all’ente, potrebbe comportare il rimprovero di condotte illecite e quindi di una responsabilità ex 231.
Altri reati presupposto: dal riciclaggio ai delitti ambientali
– Reati di ricettazione, riciclaggio e impiego di denaro, beni o utilità di provenienza illecita, nonché autoriciclaggio (art. 25-octies D.lgs. 231/2001)
I sistemi di IA potrebbero agevolmente mascherare l’origine illecita dei flussi finanziari mediante l’utilizzo di tecniche di anonimizzazione, movimentazione automatizzata e frammentazione delle transazioni, rendendo più complessa l’attività investigativa e ostacolando l’identificazione dei beneficiari finali e della provenienza delittuosa delle risorse economiche.
– Delitti in materia di violazione del diritto d’autore (art. 25-novies D.lgs. 231/2001)
L’impiego di sistemi automatizzati consente infatti di acquisire e rielaborare ingenti volumi di contenuti protetti da diritto d’autore, andando ad intaccare il sistema delle licenze e delle tutele patrimoniali e morali degli autori, rendendo difficile sia la tracciabilità della violazione sia l’individuazione del soggetto responsabile.
– Reati ambientali (art. 25-undecies D.lgs. 231/2001)
Un sistema di monitoraggio ambientale basato sull’IA potrebbe da un lato monitorare costantemente il superamento delle soglie relative alle condotte inquinanti, ma dall’altro potrebbe segnalare in maniera fraudolenta valori inferiori a quelli reali (ad esempio sottostimando i livelli di emissioni in atmosfera) e garantire di conseguenza un risparmio su eventuali costi di manutenzione.
– Reati tributari (art. 25-quinquiesdecies D.lgs. 231/2001)
Un sistema di IA potrebbe essere implementato al fine di pervenire alla compilazione automatica delle dichiarazioni fiscali sulla base di dati dalle funzioni aziendali competenti; dall’altro lato eventuali errori commessi dal sistema di IA, in assenza di una verifica successiva da parte dell’uomo, potrebbero agevolare la realizzazione di un vantaggio in favore dell’ente. L’analisi, per esempio, delle voci bilancistiche che presuppongono una “valutazione” potrebbero agevolare la “spersonalizzazione” della decisione, celando la volontà fraudolenta dell’apposizione illecita.
Adeguamento dei modelli organizzativi all’era dell’IA
Sebbene l’utilizzo dell’IA sia attualmente ad uno stadio ancora iniziale, è già pregnante l’esigenza per le aziende di adattare i propri sistemi di controllo rispetto a tali strumenti.
In particolare, il Modello di Organizzazione Gestione e Controllo e le procedure aziendali dovranno essere aggiornati:
- mappando i nuovi rischi reato connessi all’utilizzo di strumenti di IA
- prevedendo appositi presidi di controllo sull’uso dei sistemi di IA
- fornendo informazioni complete al personale aziendale sulle modalità di utilizzo di tali strumenti
- assicurando il coordinamento con la normativa sulla protezione dei dati personali (GDPR) per i sistemi di IA che trattano dati personali
- implementando procedure specifiche per la documentazione e la tracciabilità delle decisioni automatizzate.
Nonostante siano innegabili i benefici per le aziende derivanti dall’implementazione di sistemi di IA, è necessario ricordare i rischi che tali strumenti portano con loro. Rischi che possono essere mappati e governati solo con l’indefettibile coinvolgimento di tecnici e consulenti esterni in grado di mappare i processi aziendali e porre rimedio ad eventuali gap al fine di minimizzare quanto più possibile il rischio di commissione di reati.
AI Act e legge quadro italiana: convergenza normativa
Ad oggi il legislatore italiano non ha ancora introdotto norme che colleghino in modo diretto l’intelligenza artificiale alla responsabilità da reato degli enti prevista dal D.lgs. 231/2001. Un primo passo in questa direzione è rappresentato dal Disegno di Legge n. 1146/2024, approvato definitivamente il 17 settembre 2025 e divenuto la nuova legge quadro italiana sull’intelligenza artificiale.
La legge affida al Governo il compito di adottare, entro un anno, decreti legislativi per armonizzare la normativa nazionale con il Regolamento (UE) 2024/1689 (AI Act) e – come già anticipato – introduce, tra le varie novità, anche un aggravamento delle pene per i reati di aggiotaggio e manipolazione del mercato quando commessi attraverso l’impiego di sistemi di IA.
L’AI Act, entrato in vigore il 1° agosto 2024, prevede un’applicazione graduale fino al 2026, con regole progressivamente più stringenti per i sistemi a maggiore rischio. Il regolamento adotta infatti un approccio basato sul rischio (risk-based approach), che distingue quattro categorie di sistemi di IA: inaccettabile (vietati), ad alto rischio, a rischio limitato e a rischio minimo. Per i sistemi ad alto rischio stabilisce obblighi particolarmente rigorosi in materia di gestione dei dati, documentazione, trasparenza, supervisione umana e audit.
Un aspetto cruciale è che tali obblighi non gravano soltanto sui fornitori, ma anche sui deployer, ossia sulle imprese che integrano o utilizzano l’IA nei propri processi. In questo caso, la mancata adozione di adeguati presidi di controllo, supervisione e governance potrebbe tradursi in una responsabilità avente rilevanza anche ai sensi del D.lgs. 231/2001, rendendo il modello organizzativo uno strumento ancor più centrale di prevenzione e difesa.
La logica del rischio che ispira l’AI Act e i principi del D.lgs. 231/2001, dunque, non corrono su binari paralleli, ma si rafforzano a vicenda. La conformità agli obblighi europei non rappresenta solo un adempimento regolatorio, bensì una misura concreta di prevenzione. Integrare nella governance aziendale procedure di gestione, monitoraggio e documentazione coerenti con l’AI Act consente di rafforzare il Modello Organizzativo e di dimostrarne l’efficacia in sede giudiziaria.
In altri termini, la compliance all’AI Act e quella al D.lgs. 231/2001 convergono in una strategia comune: governare l’intelligenza artificiale significa oggi non solo rispettare la normativa europea, ma anche proteggere l’impresa dal rischio di responsabilità penale legata all’uso delle nuove tecnologie.
Roadmap operativa per le imprese
L’adozione di sistemi di IA, anche apparentemente innocui come ChatGPT o Copilot, richiede un percorso strutturato:
- formazione tecnica e giuridica del personale, per sviluppare la “alfabetizzazione all’IA” richiamata dall’AI Act (art. 4);
- valutazione delle funzionalità dichiarate e di quelle potenziali, anche in termini di rischi di abuso;
- definizione di policy interne chiare, atte a limitare usi impropri;
- costituzione di una governance multidisciplinare che coinvolga IT, legal, DPO, HR, CISO, ODV e consulenti esterni;
- regolamentazione contrattuale accurata con i fornitori;
- adeguamento dei modelli organizzativi 231, coordinandoli con policy IA e privacy;
- monitoraggio costante e documentato delle attività e delle criticità.
Governance integrata come strategia di mitigazione del rischio
La lezione è chiara: il “fai da te” non solo frena lo sviluppo di progetti di IA, ma espone le imprese a rischi giuridici spesso non percepiti. Occorre un coordinamento reale tra funzioni aziendali e competenze esterne, perché l’IA non appartiene a una sola area ma attraversa settori e discipline. Solo così l’innovazione diventa un motore di competitività sostenibile, anziché un moltiplicatore di responsabilità penale.
Bibliografia
– IDC, 2024 Business Opportunity of AI (2024).
– Microsoft, Work Trend Index 2024. AI at Work Is Here. Now Comes the Hard Part (2024).
– Deloitte Insights, Generative AI and the Future Enterprise (2024).
– McKinsey Digital, Superagency in the Workplace: Empowering People to Unlock AI’s Full Potential at Work (2024).
– Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, 13 giugno 2024, sull’intelligenza artificiale (AI Act).
– D.lgs. 8 giugno 2001, n. 231.
– Intelligenza Artificiale, Metaverso e Sistema Penale: prevenzione, repressione, opportunità, rischi di Fabio Coppola (2025).










