perimetro 231

AI in azienda: come aggiornare la mappa rischi e i controlli OdV



Indirizzo copiato

L’AI sposta la responsabilità d’impresa: decisioni opache, errori scalabili e deleghe algoritmiche cambiano il perimetro 231. Per l’OdV serve una mappa “AI-by-process”, tra tracciabilità, controlli umani, gestione dei dati, Shadow AI e audit periodici sui modelli più sensibili

Pubblicato il 30 dic 2025

Luca Sambucci

Esperto di AI Security



Gestione del rischio proattiva; G·row ai e 231

Le aziende hanno imparato a convivere con le trasformazioni digitali, ma l’intelligenza artificiale si sta dimostrando protagonista di una rottura più profonda. Non si tratta solo di sostituire l’uomo con la macchina in compiti ripetitivi, né di accelerare un processo amministrativo.

L’Organismo di Vigilanza di fronte alle sfide dell’AI

L’AI cambia la logica con cui le decisioni vengono prese, spostando il baricentro della responsabilità. Un sistema addestrato su dati passati può condizionare decisioni future senza che nessuno se ne accorga e questo, in un contesto di responsabilità d’impresa, è un cambiamento strutturale.

Per chi siede in un Organismo di Vigilanza, il terreno si sta spostando. Finora la vigilanza si concentrava su comportamenti umani, catene decisionali, verbali e procedure. Oggi, invece, si trova davanti a modelli artificiali che apprendono, generano e decidono in modo autonomo. È come se la cultura aziendale avesse acquisito un nuovo attore, silenzioso ma influente, spesso non percepito dall’organizzazione, eppure più impattante di molti ruoli apicali. E se l’azienda delega anche solo una parte delle sue scelte operative a un sistema algoritmico, l’OdV deve sapere come quella delega viene esercitata e da chi viene controllata.

Rischi 231 e intelligenza artificiale: perché cambia la responsabilità

Finché l’errore era umano, la tracciabilità bastava. Di norma era sufficiente ricostruire chi aveva firmato, chi aveva approvato, chi aveva omesso. Ora l’errore può nascere da un modello che nessuno ha compreso davvero. Può dipendere da un dataset mal costruito, da un bias nascosto o da un prompt troppo generico, o mal posto. La responsabilità migra, non scompare. È questo che molti dirigenti ancora faticano ad accettare. L’algoritmo non è una scusa, e non lo è nemmeno la sua opacità.

Dal controllo di procedure alla comprensione dei modelli

L’OdV, in questa nuova stagione, non può limitarsi a verificare l’esistenza di procedure. Deve imparare a osservare come i sistemi di AI vengono introdotti, con quali logiche di addestramento e sotto quali controlli. Serve un linguaggio comune con i tecnici e con l’IT, ma anche la capacità di leggere l’AI come parte dell’organizzazione, non come una black box esterna. Il rischio, oggi, non è solo che la macchina sbagli, ma che l’azienda non sappia spiegare perché ha sbagliato.

La vigilanza diventa quindi una funzione di traduzione, traghettando la complessità dei modelli verso termini di rischio comprensibili, verificabili e mitigabili. È un compito nuovo, ma non impossibile, se affrontato con lo stesso metodo che ha guidato la compliance finora: osservazione, tracciabilità e responsabilità.

Scala, velocità, opacità: come l’AI moltiplica il rischio

Ogni tecnologia introduce nuovi vettori di rischio, ma l’intelligenza artificiale li moltiplica in modo esponenziale. Scala, velocità e opacità sono le tre dimensioni che modificano il perimetro 231 in maniera più profonda. La scala, perché un algoritmo può replicare lo stesso comportamento scorretto su migliaia di operazioni. La velocità, perché un sistema automatizzato può diffondere un errore prima ancora che un essere umano lo noti. L’opacità, infine, perché il processo decisionale diventa così complesso da sfuggire anche a chi lo ha creato.

Un modello che elabora offerte commerciali, assegna punteggi ai fornitori o redige sintesi finanziarie non è neutrale. Raccoglie i pregiudizi presenti nei dati, nelle architetture e nelle configurazioni, e li amplifica. Un sistema addestrato su pratiche aziendali viziate continuerà a raccomandare le stesse scelte, con la stessa distorsione, ma in modo automatizzato e invisibile. Così il rischio 231 non nasce da un dolo, ma da una combinazione di leggerezza, delega e cecità.

Due scenari: disclosure e proprietà industriale

Immaginiamo un gruppo industriale che utilizza un modello generativo per produrre report ESG e comunicazioni agli investitori. Il sistema, per rendere i dati più coerenti con la strategia aziendale, tende a “levigare” alcune discrepanze, ad esempio minimizzando un temporaneo aumento delle emissioni. Nessuno lo programma per mentire, ma la sintesi automatica produce un documento incompleto, quindi fuorviante. Se viene diffuso come disclosure ufficiale, in assenza di adeguati controlli e con un interesse o vantaggio per l’ente, diventa una comunicazione societaria mendace. L’azienda non ha agito con dolo, ma ha permesso che un sistema generasse informazioni ufficiali senza supervisione, traendo un beneficio reputazionale e finanziario che la espone al rischio 231.

Oppure pensiamo a un reparto R&D che utilizza un modello generativo per accelerare la progettazione di un nuovo componente industriale. Il modello è stato addestrato anche su banche dati brevettuali e su progetti tecnici disponibili online. In assenza di regole chiare, il team inserisce nel prompt specifiche molto dettagliate e ottiene una soluzione progettuale che, senza che nessuno lo verifichi, risulta sostanzialmente sovrapponibile a un brevetto ancora valido di un concorrente. L’azienda, attratta dal risparmio di tempo e di costi di sviluppo, decide di portare rapidamente quel componente sul mercato senza una vera verifica di libertà di operare. Ne ricava un vantaggio competitivo immediato, ma espone l’ente a contestazioni per violazione di diritti di proprietà industriale potenzialmente rilevanti ai fini 231. In questo caso l’interesse o vantaggio dell’ente è evidente, e proprio per questo il rischio penale non è più semplicemente teorico.

In questi scenari, la vigilanza non può più limitarsi a controllare procedure statiche. Occorre che l’OdV chieda visibilità sui processi di addestramento dei modelli, verifichi chi ne approva l’uso, quali dati vengono impiegati e con quale frequenza i risultati vengono revisionati. Questo lavoro non può essere svolto in solitaria. L’OdV dovrà dialogare con la funzione IT, con la cybersecurity, con la data governance e, quando necessario, con il legal interno. L’obiettivo non è sovrapporre competenze, bensì ricomporle in un controllo organico.

È necessario introdurre verifiche ex ante nei processi più esposti come procurement, contabilità, finanza, comunicazione, affiancando alle ispezioni a posteriori un presidio continuo sui punti di rischio più sensibili.

Molti OdV si chiedono come tradurre questa dinamicità nella pratica. Serve un programma di vigilanza che preveda momenti ricorrenti di confronto con i responsabili dei sistemi di AI, ad esempio su base trimestrale o al verificarsi di eventi “trigger” (introduzione di nuovi modelli, cambiamento rilevante dei dataset, incidenti o anomalie significative), e che consenta di aggiornare rapidamente controlli, formazione, deleghe e contratti quando cambia il profilo di rischio.

All’interno di questo quadro, il piano di vigilanza annuale può includere anche una sessione di audit strutturata sui sistemi di AI, analoga a quelle già previste per la sicurezza informatica o per l’antiriciclaggio, che funge da momento di sintesi di un monitoraggio molto più frequente. La domanda da cui partire resta semplice: “Questa decisione è ancora spiegabile?” Quando la risposta è no, la vigilanza deve riaprire immediatamente la catena di controllo.

Frodi e corruzione con l’intelligenza artificiale: i rischi 231 che cambiano volto

Chi intende frodare, oggi non ha bisogno di inventare nuovi strumenti, perché può trovare nell’intelligenza artificiale numerosi modi per riutilizzare e ammodernare tecniche già esistenti. L’AI, sotto molti aspetti, offre un arsenale inedito. I modelli generativi sono in grado di produrre documenti credibili, falsificare immagini a prova di esperto, generare voci sintetiche, immagini o messaggi con uno stile indistinguibile da quello umano. È un cambiamento radicale per chi si occupa di controlli. Le falsificazioni non sono più rozze o sporadiche, ma estremamente sofisticate e perfettamente integrate nei flussi aziendali.

Un sistema di automazione contabile può generare fatture con intestazioni, numerazioni e descrizioni del tutto plausibili. Se l’azienda utilizza procedure automatiche di approvazione, quelle fatture possono essere pagate senza che nessuno se ne accorga. Non serve un insider né un hacker. Serve solo un modello scarsamente supervisionato e un processo senza controlli incrociati. In queste condizioni, una frode informatica diventa un evento quasi fisiologico.

La corruzione segue una logica simile. L’AI può essere usata per costruire profili di fornitori, per calcolare punteggi o per suggerire decisioni di gara. Ma se i dati storici da cui apprende sono contaminati da relazioni di favore, l’algoritmo perpetua il sistema. Dietro una formula di “affidabilità storica” si nasconde spesso la ripetizione di un bias. E più l’azienda si affida a questi modelli, più quel bias si consolida.

Anche le comunicazioni finanziarie possono subire lo stesso effetto. Un tool di analisi automatica dei trend può generare un comunicato con previsioni troppo ottimistiche o con interpretazioni distorte dei dati. Se quel comunicato viene diffuso al mercato, può configurarsi come una forma di manipolazione, anche in assenza di dolo. La linea di responsabilità, in questi casi, si sposta dal singolo dirigente al modello organizzativo che ha consentito a un sistema di produrre informazioni ufficiali senza filtro umano.

Presidi pratici: validazione, firma e monitoraggio nel tempo

Come può intervenire l’OdV in scenari così complessi? Innanzitutto, rifiutando l’idea che la tecnologia sia neutra. Deve pretendere che ogni sistema di AI con impatto operativo sia sottoposto a un processo di validazione periodica, non solo tecnica ma anche etica e procedurale. Serve un presidio congiunto tra l’area IT, la funzione compliance e, quando necessario, il risk management. È utile istituire una revisione semestrale dei modelli più sensibili, quelli che influenzano decisioni economiche o contabili, con la partecipazione di chi li utilizza e di chi li controlla.

La vigilanza dovrebbe anche promuovere un principio semplice: ogni output rilevante per la governance societaria deve essere firmato da una persona. Non basta la validazione del sistema. Serve la responsabilità di un individuo che confermi di averne compreso il contenuto. Questo gesto, apparentemente formale, ristabilisce la catena della responsabilità e impedisce che l’automazione diventi anonimato.

Infine, l’OdV deve imparare a osservare il comportamento dei modelli nel tempo. Un sistema di AI, a differenza di un software tradizionale, cambia. Si adatta ai dati che riceve, evolve con le interazioni. Quando inizia ad andare fuori dal seminato si parla di “drift”, ovvero di deriva prestazionale al variare dei dati e del contesto. Ciò che era sicuro a gennaio può non esserlo più a settembre. Per questo la vigilanza deve assumere un approccio dinamico, basato su osservazione continua e dialogo costante con chi gestisce i modelli. La domanda da tenere viva non è “l’AI funziona?”, ma “funziona ancora come pensiamo?”.

Rischi 231 intelligenza artificiale: dati, segreti e modelli

Tra tutti i rischi che l’intelligenza artificiale introduce nel perimetro di responsabilità dell’ente, e più in generale nel governo dei rischi legali, quello legato ai dati è forse il più trasversale e insidioso. Lo è perché tocca simultaneamente privacy, proprietà industriale, diritto d’autore, sicurezza informatica e reputazione. Per alcuni di questi ambiti, come privacy e sicurezza, il rischio è oggi prevalentemente extra-231. Per altri, come proprietà industriale e diritto d’autore, esistono già specifiche fattispecie potenzialmente rilevanti ai fini 231. In tutti i casi, l’errore può nascere da un gesto banale: basta un prompt sbagliato, un “copia e incolla” di troppo, una leggerezza nel testare un modello online, e informazioni riservate possono uscire dall’azienda senza passare da nessun controllo.

Molte imprese stanno scoprendo di avere riversato nei modelli più di quanto avessero previsto. Nei progetti di AI generativa, la tentazione di “nutrire” l’algoritmo con dati aziendali è forte. Se si vogliono risultati precisi, servono informazioni contestuali. Ma quei dati, una volta entrati in un modello, non si cancellano facilmente, e in certi casi non si cancellano più. Alcuni provider li conservano per l’addestramento, altri li utilizzano per migliorare le prestazioni generali. L’effetto è che la linea tra uso interno e divulgazione involontaria si dissolve.

Prompt e log: dove finiscono davvero le informazioni

Sul piano della privacy, il problema è fin troppo evidente. L’uso di dati personali in sistemi non certificati o non interni può configurare un trattamento illecito. Accade più spesso di quanto si creda. Un responsabile HR chiede a un “assistente generativo” di riscrivere una lettera di richiamo, inserendo il nome e la posizione del dipendente. In assenza di configurazioni enterprise che disabilitano logging e riuso, il modello registra la conversazione nei log. Quel dato non è più sotto il controllo dell’azienda e può finire, in forma anonimizzata ma potenzialmente reversibile, nei dataset usati dal provider. È un caso di uso improprio, non doloso ma sufficiente a configurare una violazione.

Sul fronte della proprietà industriale, il rischio è ancora più silenzioso. I tecnici e i ricercatori sono abituati a usare strumenti online per ottimizzare codice, schemi o documenti. Se nel prompt finiscono informazioni coperte da segreto industriale o brevetto, il modello ne potrebbe conservare una traccia, magari usandola per successivi addestramenti e fine-tuning. In teoria nessuno potrà recuperarla, ma in pratica nessuno potrà garantire che non riaffiori in futuro. È un rischio non solo legale, ma competitivo. Un’azienda che perde il controllo dei suoi dati proprietari perde parte del proprio vantaggio strategico.

Un caso emblematico è quello di una società farmaceutica che, durante la fase di ricerca, chiede a un modello esterno di generare alternative a una formula brevettata. L’input contiene dati chimici e parametri di laboratorio, inseriti senza una reale valutazione delle ricadute. Il modello, addestrato anche su banche dati che includono brevetti e pubblicazioni tecniche, propone una soluzione molto simile a un brevetto ancora valido di un concorrente. L’azienda, spinta dall’esigenza di ridurre tempi e costi di sviluppo, decide di industrializzare quella soluzione senza adeguate verifiche sulla libertà di operare. Ne ricava un vantaggio competitivo immediato, ma espone l’ente a contestazioni per violazione di diritti di proprietà industriale, con un interesse o vantaggio dell’ente che diventa elemento centrale anche in chiave 231.

Qualcosa di analogo può avvenire nei processi di marketing e comunicazione. Una società editoriale, o il reparto marketing di un’impresa, utilizza modelli generativi per creare immagini e testi di campagna. Il modello, addestrato anche su opere protette, produce un visual molto simile a quello di un concorrente noto, oppure un testo che riprende passaggi essenziali di un’opera coperta da diritto d’autore. La campagna viene pubblicata, genera attenzione e risultati commerciali significativi, ma integra potenzialmente reati in materia di diritto d’autore rilevanti ai fini 231. Anche in questo caso l’interesse o vantaggio dell’ente è evidente, ed è proprio questo che rende il rischio non più solo reputazionale o civilistico, ma anche penale.

Questi scenari richiedono un salto di consapevolezza nella vigilanza. L’OdV deve considerare l’AI come un’infrastruttura cognitiva in cui scorrono informazioni di valore strategico, e non come un semplice strumento di produttività. È importante verificare che le policy aziendali distinguano con chiarezza i sistemi approvati da quelli esterni, che i dipendenti siano formati sull’uso dei modelli e che esista un processo di revisione periodica dei dati che entrano nei sistemi generativi. La cultura della riservatezza deve tornare a essere un presidio quotidiano, non un capitolo dimenticato del codice etico.

Presidio che non può essere affidato solo all’IT. Occorre che la funzione legale, la compliance e le risorse umane collaborino per costruire un linguaggio comune e strumenti di sensibilizzazione. L’OdV, dal canto suo, nelle proprie verifiche periodiche sull’uso dei sistemi di AI non dovrebbe limitarsi a chiedere “quali dati usate”, ma anche “dove finiscono”.

Nel medio periodo, la vera mitigazione sarà culturale. Le aziende che riusciranno a far percepire la gestione dei dati non come burocrazia ma come difesa del proprio capitale intellettuale saranno anche quelle più resilienti. L’OdV, in questo processo, ha un ruolo che va oltre la vigilanza e deve evolvere in un generatore di consapevolezza. Non basta evitare il reato, serve evitare la leggerezza.

Deleghe algoritmiche e Shadow AI: rischi 231 intelligenza artificiale fuori controllo

Ogni organizzazione vive di deleghe. Le decisioni vengono distribuite lungo la gerarchia, accompagnate da poteri e responsabilità. Con l’arrivo dell’intelligenza artificiale, una parte di queste deleghe si è spostata verso entità non umane, spesso senza che nessuno se ne accorgesse. L’AI firma e-mail, propone contratti, genera risposte automatiche ai clienti, talvolta approva operazioni o rilascia ordini di pagamento. È un trasferimento di potere silenzioso, ma reale.

La cosiddetta Shadow AI rappresenta il volto più quotidiano di questa mutazione. Nelle aziende, e quelle italiane non fanno certo eccezione, la maggior parte dei sistemi di AI oggi in uso non è stata approvata da alcun organo tecnico. Sono strumenti adottati spontaneamente da dipendenti o team che cercano efficienza e sperimentano soluzioni generative senza pensare alle implicazioni di sicurezza o di conformità. Ogni applicazione di questo tipo è una zona grigia: non esiste nel registro dei processi, non è coperta da policy, non è gestita da nessun responsabile.

Dall’uso spontaneo al perimetro controllato

La questione non è se vietare l’uso dell’AI, ma come riportarlo dentro un perimetro controllato. Un chatbot che risponde ai clienti può migliorare l’efficienza, ma se accetta ordini o modifica termini contrattuali entra in un campo giuridico. Un assistente interno che genera preventivi può semplificare la vita ai commerciali, ma se sbaglia un calcolo o promette condizioni non autorizzate crea un rischio economico e reputazionale. Ogni automatismo che interagisce con l’esterno diventa un rappresentante implicito dell’azienda, e come tale va gestito.

Un esempio concreto aiuta a comprendere la portata. Un’azienda manifatturiera implementa un sistema di AI per gestire le richieste di offerta provenienti dall’estero. Il modello riconosce automaticamente le categorie di prodotto e risponde con un prezzo stimato. Un giorno riceve un ordine da un cliente soggetto a restrizioni commerciali internazionali. Il sistema lo elabora senza controlli e la merce viene spedita. Quando l’errore emerge, il danno è fatto. Oltre ai profili amministrativi e penali individuali, potrebbe emergere un’esposizione ex 231 qualora la condotta integri fattispecie rilevanti ai fini 231 (ad esempio dichiarazioni doganali fraudolente o riciclaggio/autoriciclaggio) e risultino interesse, vantaggio e colpa dell’organizzazione.

Un secondo scenario, ancora più vicino alla sensibilità di molti pubblici ministeri, riguarda la salute e sicurezza sul lavoro. Immaginiamo un impianto automatizzato in cui un sistema di AI regola la velocità dei nastri trasportatori e l’intervento dei robot in funzione dei carichi di produzione. Per massimizzare l’efficienza, il modello “impara” che conviene ridurre alcuni tempi di fermo e di fatto aggira le pause di sicurezza previste dalle procedure. I dispositivi di protezione non vengono formalmente disattivati, ma nella pratica perdono efficacia. Il giorno in cui si verifica un incidente grave, l’AI diventa parte della catena causale. Se emerge che l’azienda non ha valutato questo rischio, non ha formato adeguatamente il personale e non ha predisposto controlli idonei, ci si può trovare di fronte a reati colposi in materia di salute e sicurezza rilevanti ai fini 231, con un interesse o vantaggio iniziale legato all’aumento di produttività.

Questo tipo di episodi nasce sempre da una combinazione di fattori, fra i quali possiamo annoverare l’entusiasmo per la tecnologia, la scarsa comprensione del rischio e la mancanza di linee guida chiare. È qui che la vigilanza deve agire. Un OdV attento deve sollecitare la direzione a formalizzare una politica di utilizzo dell’AI, una AI Use Policy che indichi chi può usare cosa, con quali limiti e con quali strumenti di approvazione.

Ma non basta scrivere regole. Serve rendere visibile la responsabilità. Ogni volta che un processo automatizzato produce effetti economici o legali, occorre che una persona ne assuma la supervisione. C’è chi potrebbe vederlo come un rallentamento dell’innovazione, in realtà si tratta semplicemente di restituire alla catena decisionale una faccia umana. L’intelligenza artificiale non deve diventare il luogo dove la responsabilità si dissolve.

Un altro rischio è l’eccessiva dipendenza dalle soluzioni esterne. Molte aziende utilizzano modelli ospitati su piattaforme cloud, spesso senza verificare dove siano conservati i dati o chi abbia accesso alle interazioni. Questo comporta un rischio di compliance che va oltre la privacy e sfocia nell’accountability. Se un algoritmo esterno prendesse decisioni operative, l’azienda potrebbe comunque restare responsabile delle sue conseguenze. L’OdV dovrebbe pretendere che ogni contratto con fornitori di AI includa clausole di trasparenza, tracciabilità e sicurezza, e che esista un processo di audit periodico sulle soluzioni più critiche.

Infine, la Shadow AI è anche un problema di percezione. Molti dipendenti la considerano innocua, un semplice strumento di supporto. Ma la somma di tanti piccoli usi non autorizzati può produrre un effetto sistemico. L’OdV deve lavorare sulla cultura interna, spiegando che ogni interazione con un modello esterno è un atto di comunicazione aziendale, e che il confine tra “uso personale” e “uso aziendale” si è ormai dissolto.

La sfida, in fondo, non è controllare la tecnologia ma restituirle un perimetro etico. Quando l’innovazione viene ricondotta dentro la responsabilità, smette di essere un rischio e torna a essere una risorsa. L’intelligenza artificiale in azienda può diventare un alleato della compliance solo se la compliance ne diventa il linguaggio madre.

Rischi 231 intelligenza artificiale: reati societari e disclosure automatizzata

C’è un momento in cui la tecnologia smette di essere un mezzo e diventa un filtro tra l’azienda e il mondo esterno. È il momento in cui i dati, le relazioni e i numeri che definiscono la vita di impresa passano attraverso un modello di intelligenza artificiale. Questa transizione, che per molti è sinonimo di efficienza, apre una questione delicatissima quando la macchina parla per conto dell’azienda.

La redazione automatica di comunicati, report e analisi è ormai una prassi diffusa. Gli strumenti di AI generativa producono testi coerenti, articolati e formalmente impeccabili. Alcune società li usano per riassumere i risultati trimestrali, altre per generare versioni sintetiche dei bilanci o delle relazioni non finanziarie. Tutto funziona finché l’output rimane nel perimetro interno. Il problema nasce quando quel testo diventa comunicazione ufficiale. In quel momento, un sistema statistico, non una persona, assume la responsabilità di descrivere la realtà aziendale.

La linea di confine è sottile. Un algoritmo che “ottimizza” un dato per renderlo più leggibile può alterarne la precisione. Un tool di data visualization che riduce la complessità può nascondere un’informazione rilevante. E un modello che risponde automaticamente alle richieste degli investitori può, senza dolo, diffondere proiezioni non verificate. Tutto questo rientra nella categoria dei rischi che l’articolo 25-ter del D.Lgs. 231 copre da vent’anni, ma che oggi assumono forme nuove e molto più difficili da individuare.

Il rischio, per quanto rilevante, non è solo quello di diffondere informazioni inesatte. È che l’azienda perda il controllo della propria narrazione contabile. Quando una parte della disclosure viene generata automaticamente, la responsabilità editoriale si frammenta. Nessuno si sente più tenuto a controllare tutto, perché “tanto lo ha già fatto il sistema”. E in questo vuoto si annida la possibilità di omissioni, abbellimenti, semplificazioni che possono trasformarsi in false comunicazioni sociali.

Un caso fin troppo realistico è quello di una multinazionale che si trovi sotto indagine per aver pubblicato previsioni finanziarie eccessivamente ottimistiche generate da un software di analisi automatica. Il modello, tarato su dati storici, proietta un tasso di crescita irreale, poi incorporato senza verifica nel comunicato ai mercati. Nessuno mente consapevolmente, ma l’azienda beneficia di una rappresentazione più rosea della propria situazione, che può influenzare il prezzo delle azioni o l’accesso a nuove risorse finanziarie. Nessuno ha controllato, e l’interesse o vantaggio dell’ente diventa parte integrante della valutazione ai fini 231.

In Italia, con la Legge 132/2025 è entrata in vigore una aggravante generale per i reati commessi mediante AI e aggravanti specifiche in ambito di market abuse. La disclosure automatizzata, se sfocia in false comunicazioni sociali o manipolazione del mercato, può quindi comportare un’esposizione più gravosa.

Presidi operativi: controlli ex ante e tracciabilità della pubblicazione

Come affrontarlo, dunque, nel piano di vigilanza? Non basta più verificare che le relazioni siano corrette. Occorre chiedersi come vengono generate. Serve sapere se la società utilizza strumenti di AI nella redazione dei documenti ufficiali, chi li supervisiona, quali controlli di coerenza vengono applicati e con quale frequenza. È importante capire se esistono registri di log delle interazioni tra gli utenti e il modello, e se qualcuno ha la responsabilità di riesaminare gli output prima della pubblicazione.

L’OdV, per poter esercitare questo tipo di vigilanza, deve costruire un ponte stabile con la funzione di comunicazione finanziaria e con il controllo di gestione. Non per sostituirsi a loro, ma per assicurarsi che la generazione automatica di contenuti non avvenga in assenza di presidi. In molti casi, può essere utile chiedere che ogni testo prodotto con l’ausilio dell’AI venga marcato internamente, in modo che chi lo riceve sappia che si tratta di un contenuto da validare.

Nel medio periodo, l’obiettivo più ambizioso sarebbe riportare la disclosure aziendale sotto una regia consapevole, capace di distinguere l’efficienza dalla delega cieca. La vera trasparenza nasce dalla comprensione di come l’automazione modifica il linguaggio dell’impresa, restituendole la responsabilità del proprio racconto. È qui che la tecnologia smette di essere un filtro e torna a essere uno strumento di verità organizzativa.

Falsi miti della compliance AI: cosa indebolisce i presidi

Ogni trasformazione tecnologica produce una nuova costellazione di fraintendimenti. L’intelligenza artificiale non fa eccezione. Anzi, la velocità con cui è stata adottata ha favorito l’illusione che i rischi possano essere governati con strumenti tradizionali. Molti organismi di vigilanza si trovano oggi a convivere con una serie di convinzioni diffuse che riducono la capacità di prevenire i reati.

Il primo mito è quello secondo cui “se non immettiamo dati sensibili, siamo al sicuro”. È un’idea rassicurante ma falsa. I modelli di AI non imparano solo da ciò che gli si dice, ma anche da come gli si parla. Anche un prompt innocuo può rivelare informazioni strutturali, come la gerarchia interna, i flussi decisionali o le priorità commerciali. È sufficiente un numero di casi ripetuti perché un modello esterno, osservando gli schemi linguistici, possa dedurre più di quanto l’utente intenda comunicare. La sicurezza non si misura solo in base al contenuto dei dati, ma anche alla prevedibilità del contesto.

Il secondo mito è che “i fornitori garantiscono la conformità”. Molte aziende assumono che la responsabilità legale di un sistema di AI ricada interamente su chi lo ha sviluppato. È un grave errore concettuale. Nel momento in cui l’azienda lo adotta e lo integra nei propri processi, ne diventa corresponsabile. Se l’output di un sistema di AI contribuisce alla commissione di un reato-presupposto all’interno dell’ente utilizzatore, e ciò avviene nel suo interesse o vantaggio a causa di carenze organizzative, l’ente potrà rispondere ex 231. Il fornitore potrà a sua volta rispondere per reati commessi nella propria organizzazione o su altri piani di responsabilità.

Un terzo mito, forse il più pericoloso, è quello del “controllo tecnico come garanzia sufficiente”. Alcuni ritengono che basti un audit informatico per escludere rischi di natura penale. Ma l’AI non è un server da proteggere, è un sistema che interpreta, decide e influenza. Il rischio 231 può nascere non solamente da un attacco esterno, ma anche da una decisione automatizzata che supera un limite etico o normativo senza che nessuno se ne accorga. L’audit serve, anzi è imprescindibile, ma da solo non basta.

Verifica narrativa e formazione mirata

Smentire questi miti è il primo passo per costruire una vigilanza efficace. L’OdV deve favorire un cambio di mentalità. L’AI non è un ambito tecnico separato, è parte dell’organizzazione, e come tale va trattata. IT, risk management, compliance, risorse umane e comunicazione devono contribuire a una mappa comune dei rischi derivanti dall’uso dei modelli.

È anche il momento di introdurre una pratica nuova, ovvero la “verifica narrativa”. Invece di chiedere solo numeri e procedure, l’OdV dovrebbe domandare alle funzioni aziendali come l’AI viene usata, in quali decisioni entra, chi la controlla e quali scenari alternativi sono previsti se il sistema sbaglia. Questo dialogo, più qualitativo che tecnico, consente di intercettare rischi prima che diventino comportamenti consolidati.

Un altro strumento utile è la formazione mirata. Non quella generale, che sarebbe già obbligatoria con l’Art. 4 dell’AI Act per fornitori e deployer, ma percorsi specifici per le funzioni che usano l’AI in modo diretto. La formazione, per essere efficace, deve includere casi reali, incidenti aziendali, e soprattutto deve mostrare come i comportamenti individuali possano generare conseguenze collettive. Un OdV che partecipa a queste sessioni o che ne chiede la documentazione crea un legame virtuoso tra cultura, controllo e responsabilità. La compliance sull’AI non può essere lasciata ai tecnici né ai giuristi da soli. È un territorio ibrido, dove serve competenza tecnologica e sensibilità etica. L’OdV deve posizionarsi esattamente lì, nel punto d’incontro tra algoritmo e norma.

Rischi 231 intelligenza artificiale: come deve cambiare la vigilanza dell’OdV

Il primo passo per adattare la vigilanza all’era dell’intelligenza artificiale è accettare che l’AI non sia un “oggetto” da controllare, ma un soggetto che partecipa ai processi aziendali. Questo significa anche superare una logica puramente binaria, fondata solo su adeguatezza del disegno del modello 231 ed efficace attuazione nel periodo di riferimento. I metodi tradizionali di verifica, basati su procedure statiche, campionamenti o analisi ex post, non bastano più. La tecnologia oggi opera in modo continuo, genera decisioni in tempo reale e modifica il proprio comportamento sulla base dei dati che riceve. Una vigilanza efficace deve quindi aggiungere a disegno ed esecuzione anche la dinamicità, cioè la capacità di adattarsi con tempestività ai cambiamenti del rischio interno ed esterno.

La traduzione operativa è una mappa AI-by-process. Processo per processo, non per tecnologia. Identifichiamo il punto in cui l’AI entra, i dati che consuma, l’atto che orienta, la persona che firma e la prova che resta. Procurement e contabilità per primi, poi finanza e disclosure. È l’unico modo per far emergere dove la delega algoritmica si è già insediata e dove servono responsabilità visibili prima che un errore statistico diventi un problema 231.

Nelle aziende più avanzate, gli OdV stanno iniziando a spostare il proprio baricentro dal controllo documentale alla comprensione dei processi digitali. Significa chiedere non solo “cosa è stato fatto”, ma “come è stato deciso”. Significa osservare i flussi di dati, capire quali sistemi incidono sulle scelte strategiche e quali invece svolgono funzioni meramente operative. È una forma di vigilanza che non si esercita solo nei corridoi o nelle riunioni, ma anche nei log, nei modelli di apprendimento e nelle interfacce tra funzioni umane e algoritmiche.

Coinvolgimento anticipato e controllo degli aggiornamenti

Per realizzarla, serve una nuova alleanza interna. L’OdV deve chiedere di essere incluso nelle fasi di introduzione e sperimentazione dei sistemi di AI, non solo nelle revisioni finali. Questo coinvolgimento anticipato consente di intercettare i rischi quando sono ancora gestibili, prima che si cristallizzino in pratiche o in procedure difficili da modificare.

Nel dialogo con la direzione, l’OdV dovrebbe anche chiedere visibilità sui flussi di aggiornamento dei modelli. Molte soluzioni di AI, soprattutto quelle acquistate come servizio, si evolvono costantemente. Ogni aggiornamento può modificare la logica di funzionamento del sistema. Se l’azienda non lo monitora, rischia di trovarsi con uno strumento che, senza che nessuno lo sappia, decide in modo diverso da quello previsto nel modello organizzativo.

Infine, la vigilanza deve tornare a essere un presidio culturale. L’OdV non è un organo tecnico, ma un garante di senso. Deve ricordare che la trasparenza, che molti vorrebbero solo come parametro di sistema, è anzitutto un comportamento organizzativo. Ogni decisione aziendale deve essere riconducibile a qualcuno, e quel qualcuno deve poterla spiegare.

Le nuove metriche e prove difendibili per i rischi 231 e l’intelligenza artificiale

Nella logica del D.Lgs. 231, la responsabilità dell’ente si fonda sulla possibilità di dimostrare di aver adottato e applicato modelli idonei a prevenire i reati. La giurisprudenza e le linee guida del Ministero della Giustizia ricordano da tempo che il modello deve essere uno strumento “vivo”, capace di aggiornarsi al mutare dell’organizzazione e del contesto esterno. Nel mondo dell’intelligenza artificiale questa esigenza strutturale diventa ancora più marcata. I modelli sono dinamici, i dati cambiano, i processi si ibridano. Ciò che serviva a dimostrare diligenza ieri, domani può non bastare più. L’OdV deve quindi spostarsi da una vigilanza basata sulle carte a una vigilanza basata sulle evidenze digitali.

La prima evidenza da pretendere è la tracciabilità delle decisioni automatizzate. Ogni sistema di AI dovrebbe poter rispondere alla domanda “da dove viene questo output?”. Non in senso metaforico, ma tecnico: quali dati ha usato, quale modello ha elaborato, quale build del software era attiva in quel momento. Senza queste informazioni, non è possibile distinguere un errore casuale da una responsabilità organizzativa. E quando manca la distinzione, la responsabilità dell’ente diventa più difficile da difendere.

Un’azienda che integra l’AI in processi strategici deve anche poter dimostrare di aver controllato il comportamento dei modelli nel tempo. Gli OdV possono chiedere che, almeno per i sistemi più critici, vengano conservati i log delle decisioni, le versioni dei modelli e le variazioni nei dataset di addestramento. Non serve un archivio infinito, ma un meccanismo di conservazione intelligente, capace di ricostruire la catena di eventi in caso di indagine. È lo stesso principio che già vale per i controlli contabili, cioè sapere chi ha fatto cosa e quando.

Dimostrabilità dell’umano e indicatori di dinamicità

Una seconda evidenza riguarda la “dimostrabilità dell’umano”. Ogni processo automatizzato che abbia rilevanza ai fini 231 dovrebbe prevedere un punto di controllo umano documentato. Non basta dichiarare che “il sistema è supervisionato dallo human-in-the-loop”. Serve poter dimostrare che qualcuno ha effettivamente verificato, approvato o corretto l’output. Questo aspetto, che oggi molte aziende trascurano, può fare la differenza tra una condotta considerata colposa e una considerata dolosa.

Le metriche di vigilanza dovranno quindi cambiare. Accanto ai tradizionali indicatori di conformità, l’OdV dovrà introdurre parametri specifici per l’AI, come il numero di sistemi attivi, il grado di tracciabilità, la presenza di validazioni umane, la frequenza degli audit sui modelli, il numero di incidenti o anomalie registrate. A questi possono affiancarsi indicatori di dinamicità, come i tempi di reazione agli incidenti, il numero di aggiornamenti del modello 231 collegati a cambiamenti nei sistemi di AI, il volume di modifiche ai controlli derivato da nuove valutazioni di rischio o da variazioni dei modelli utilizzati. Questi indicatori servono a dimostrare che la vigilanza è effettiva e realmente adattiva, e che il sistema non si limita a fotografare il passato, ma si ricalibra in funzione dei segnali che emergono.

Infine, la prova più difficile da costruire sarà quella della consapevolezza. Le aziende dovranno dimostrare non solo di aver adottato controlli tecnici, ma di aver compreso i rischi connessi all’uso dell’AI. Per l’OdV, questo significa documentare il percorso di formazione, le comunicazioni interne, le decisioni del consiglio e gli interventi correttivi. Ogni elemento che mostri un processo di apprendimento organizzativo diventa parte della difesa. L’intelligenza artificiale è mutevole, ma la diligenza resta misurabile. E la diligenza, in un contesto 231, si misura con le tracce che si lasciano dietro.

L’OdV come presidio di accountability algoritmica

Più che una sfida tecnologica, l’intelligenza artificiale nelle organizzazioni è una prova di maturità organizzativa. Ogni azienda che la adotta senza comprenderne la logica delega potere, ma non responsabilità. E ogni OdV che non la osserva con attenzione rischia di diventare spettatore di processi che non sa più ricondurre a una volontà umana.

Il compito oggi è gestire l’innovazione dandole un confine etico e operativo. La tecnologia generativa, i modelli predittivi, i sistemi di automazione decisionale sono strumenti potenti, ma pericolosi se lasciati senza governo. L’OdV deve assicurarsi che la loro adozione avvenga dentro un quadro di controllo che tenga insieme legalità, trasparenza e tracciabilità. È un cambiamento che richiede tempo, ma che restituisce valore.

Nel prossimo decennio, la credibilità delle imprese passerà anche da qui. Non basteranno più i codici etici o le procedure di whistleblowing. Servirà la capacità di dimostrare che ogni processo automatizzato è riconducibile a una catena di responsabilità consapevoli. In questo senso, l’OdV diventa il garante non solo del rispetto della norma, ma della comprensibilità del comportamento aziendale.

Molti si chiedono se la vigilanza potrà mai stare al passo con l’evoluzione dei modelli. La risposta è sì, ma solo se cambierà ritmo e linguaggio. Servirà parlare di algoritmi come oggi si parla di deleghe, di addestramento come si parla di formazione, di bias come si parla di conflitti d’interesse. Sarà necessario inserire l’AI dentro le mappe di rischio e i modelli organizzativi, trattandola come un soggetto operativo e non più come un semplice strumento.

La responsabilità d’impresa, alla fine, non è mai stata solo questione di colpa, ma di cultura. E la cultura della responsabilità non nasce nei server né nei codici, ma nelle persone che li governano. L’OdV dovrà diventare il luogo in cui l’etica e la tecnica si parlano, perché solo da questo dialogo potrà nascere una forma nuova di fiducia, quella tra l’uomo, l’algoritmo e la legge.

L’autore desidera ringraziare Enrico Saggese, che ha incoraggiato l’elaborazione del tema, e Stefano Barlini, il cui contributo sui compiti dell’OdV è stato particolarmente prezioso.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x