L’intelligenza artificiale è diventata una grammatica della vita organizzativa. Ciò che fino a pochi anni fa era percepito come una leva di efficienza o innovazione, oggi rappresenta un linguaggio di governo: un insieme di logiche, metodi e standard che ridefiniscono il modo in cui l’impresa pensa, decide e risponde alle proprie responsabilità. La trasformazione non riguarda soltanto i processi produttivi o i modelli di business, ma tocca il nucleo della governance aziendale.
L’intelligenza artificiale, nelle sue forme predittive, spiegabili o agentiche, entra nei meccanismi della responsabilità, traducendo la diligenza dell’amministratore e la trasparenza dell’impresa in un linguaggio algoritmico: siamo di fronte a una ricomposizione dei confini tra diritto, tecnologia e gestione.
Il Codice della Crisi d’Impresa e dell’Insolvenza (CCII), il Regolamento europeo sull’intelligenza artificiale (AI Act) e gli European Sustainability Reporting Standards (ESRS) convergono verso un obiettivo comune: costruire un nuovo equilibrio tra previsione e rendicontazione, tra continuità aziendale e accountability digitale. Tre strumenti normativi, apparentemente distinti, che condividono un’unica logica: quella della responsabilità predittiva.
L’impresa non deve più solo reagire, ma prevedere, documentare e apprendere. In questo nuovo ecosistema normativo, l’AI non è soltanto uno strumento tecnico di analisi ma diventa un dispositivo cognitivo e regolatorio. Essa modifica la temporalità delle decisioni, sposta la gestione dal “dopo” al “prima”, dalla reazione alla previsione, dall’interpretazione ex post alla comprensione in tempo reale.
Il concetto stesso di “assetto adeguato”, previsto dall’articolo 2086 c.c., assume un significato inedito: non coincide più soltanto con l’organizzazione delle risorse umane e delle procedure, ma con la capacità dell’impresa di comprendere sé stessa attraverso i propri dati; l’adeguatezza si misura nella qualità delle informazioni, nella loro capacità di generare previsioni e nella rapidità con cui l’organizzazione riesce a tradurre la complessità in azione. Questa trasformazione implica un cambio di paradigma epistemologico: la governance diventa un processo cognitivo prima ancora che decisionale.
Indice degli argomenti
Come diritto e dati stanno ridisegnando l’impresa europea
Il dato può essere oggi considerato una forma di intelligenza collettiva; il bilancio non è più solo un documento contabile, ma un sistema di interpretazione del futuro. La cultura della prevenzione d’impresa, pertanto, si fonde con quella della trasparenza algoritmica, inaugurando un modello in cui diritto, economia e tecnologia concorrono a definire un’unica infrastruttura di fiducia. L’obbligo di “attivarsi senza indugio” previsto dal Codice della Crisi si traduce nella costruzione di meccanismi di allerta, apprendimento e verifica che operano in modo continuativo.
La sfida non è dunque tecnologica, ma culturale e cognitiva: imparare a governare la complessità senza rinunciare al giudizio umano, e far convivere algoritmi e discernimento in un’unica forma evoluta di governance. L’“impresa intelligente” è quella che sa pensare con la tecnologia: che integra i principi del diritto con la logica dei dati, che riconosce nel digitale non un fine, ma un linguaggio della responsabilità.
È l’impresa che comprende che la conformità non è un archivio di adempimenti, ma un ecosistema di conoscenza continua e che la sostenibilità ha, infine, anche un’istanza cognitiva del decidere.
Dall’adeguato assetto all’assetto intelligente
L’“adeguato assetto” era, fino a pochi anni fa, sinonimo di struttura organizzativa. Oggi è sinonimo di architettura algoritmica. La trasformazione è sostanziale: l’obbligo di predisporre assetti organizzativi, amministrativi e contabili idonei a garantire la continuità aziendale si traduce in un dovere di costruire sistemi di conoscenza integrata, fondati su analisi dati, intelligenza artificiale e modelli di simulazione. Nel passato, i segnali di crisi venivano percepiti a posteriori, attraverso bilanci consuntivi o indici statici; oggi, la continuità aziendale si misura nella capacità di intercettare scostamenti minimi in tempo reale, attraverso flussi digitali continui.
Le piattaforme gestionali evolute, integrate con algoritmi di machine learning, consentono di monitorare decine di variabili – dai flussi IVA alla rotazione dei crediti, dal margine operativo lordo alle variazioni dei costi finanziari – e di elaborare un quadro prospettico della solidità aziendale. Questa transizione produce una conseguenza giuridica rilevante: la diligenza dell’amministratore non si misura più soltanto nella correttezza delle decisioni, ma nella capacità di costruire e presidiare strumenti informativi adeguati. Un’impresa che non dispone di un sistema di monitoraggio digitale dei propri rischi, oggi, non solo è meno competitiva, ma potenzialmente meno conforme all’obbligo di adeguatezza imposto dal legislatore.
Il fiscal early warning come laboratorio della governance digitale
L’ambito fiscale è quello in cui questa metamorfosi appare più visibile. Le imprese operano in un ambiente normativo complesso, caratterizzato da flussi informativi costanti tra contribuente e amministrazione, e da un livello crescente di interconnessione digitale (fatturazione elettronica, interoperabilità dei registri IVA, piattaforme di compensazione). In questo contesto nasce il concetto di fiscal early warning: un sistema di analisi predittiva in grado di individuare segnali di squilibrio tributario o finanziario prima che si trasformino in insolvenze o in contenziosi.
L’AI applicata alla fiscalità consente di correlare variabili che fino a pochi anni fa erano separate: scostamenti nelle ritenute, oscillazioni nei flussi di IVA, ritardi sistematici nei pagamenti o tendenze di indebitamento progressivo verso l’erario. Questi modelli generano indicatori sentinella capaci di segnalare non solo l’anomalia, ma anche la sua causa. Un calo di liquidità può derivare da una riduzione della domanda o da una strategia di dilazione commerciale; un aumento del debito fiscale può essere il sintomo di una tensione di tesoreria, non necessariamente di un deterioramento strutturale. Il valore della tecnologia non è nel numero degli alert, ma nella qualità interpretativa degli alert. Il fiscal early warning diventa, così, una forma di “compliance predittiva”: la possibilità di dimostrare, con dati oggettivi e tracciabili, che l’impresa ha agito in modo tempestivo, informato e diligente.
AI agentica e governance proattiva
L’evoluzione più recente dell’intelligenza artificiale segna un cambio di paradigma anche nel rapporto tra decisione, tempo e azione. Mentre la Explainable AI mira a rendere trasparenti i processi di calcolo, la Agentic AI è in grado di agire autonomamente, entro i limiti della supervisione umana (human oversight), per eseguire operazioni di supporto alla governance. In un sistema aziendale complesso, un agente intelligente può infatti:
- rilevare automaticamente tensioni nei flussi di cassa;
- inviare un alert al CFO o al collegio sindacale;
- simulare diversi scenari di tesoreria;
- proporre piani di rientro compatibili con i parametri del CCI o con i covenant bancari;
- aggiornare i modelli previsionali sulla base di nuovi dati.
Si tratta di un passaggio cruciale: dall’informazione all’azione. La governance non è più un atto successivo al problema, ma un processo continuo di anticipazione. Tuttavia, questa autonomia algoritmica impone un nuovo tipo di cultura organizzativa. Il controllo umano deve essere sostanziale. L’amministratore deve conoscere il funzionamento del sistema, comprendere i criteri con cui l’AI elabora le raccomandazioni e mantenere la capacità di decisione finale. In caso contrario, l’innovazione tecnologica rischia di tradursi in deresponsabilizzazione. La vera sfida, dunque, è governare l’intelligenza stessa.
L’AI Act e la nuova alfabetizzazione cognitiva dell’impresa
Con l’entrata in vigore del Regolamento (UE) 2024/1689, l’Europa ha introdotto il primo quadro normativo organico sull’intelligenza artificiale. Oltre a disciplinare i sistemi vietati e quelli ad alto rischio, l’AI Act stabilisce, all’articolo 4, un obbligo di alfabetizzazione in materia di AI (AI literacy) per tutte le imprese e gli operatori coinvolti. Si tratta di un passo decisivo: il diritto riconosce che la responsabilità tecnologica è anche e soprattutto responsabilità cognitiva. Le imprese devono garantire che chi progetta, utilizza o supervisiona sistemi AI possieda conoscenze adeguate sui rischi, sui limiti e sulle implicazioni etiche e giuridiche della tecnologia. L’AI literacy è dunque la costruzione di un capitale cognitivo collettivo. Significa saper leggere un output algoritmico, comprendere i bias nei dati, riconoscere un errore sistemico e interpretare un risultato in chiave gestionale.
Significa, soprattutto, essere in grado di dialogare con la macchina. Per università e centri di ricerca, questo obbligo apre un nuovo orizzonte: nel Dipartimento di Management della Sapienza Università di Roma, diversi studi stanno esplorando la relazione tra intelligenza artificiale, predizione e cultura manageriale1.
L’obiettivo è colmare quello che abbiamo definito intelligence gap: la distanza tra la capacità dei dati di “parlare” e la capacità del management di “ascoltarli”. La formazione, in questa prospettiva, diventa infrastruttura della responsabilità: un’impresa senza competenza digitale non può essere considerata né adeguata né sostenibile.
Verso una cultura della sostenibilità cognitiva
Nel dibattito europeo sulla sostenibilità, si parla spesso di transizione ecologica o di trasformazione digitale, ma troppo raramente di sostenibilità cognitiva. Eppure, nel contesto della governance intelligente, essa rappresenta la dimensione più importante. La sostenibilità cognitiva è la capacità di mantenere lucidità e consapevolezza in un ecosistema informativo complesso, in cui la velocità dei dati supera la velocità del pensiero. Un’impresa è cognitivamente sostenibile quando riesce a combinare efficienza tecnologica e giudizio critico, automazione e discernimento. L’intelligenza artificiale, se progettata secondo i principi dell’AI Act – trasparenza, spiegabilità, supervisione umana e proporzionalità del rischio – può diventare una leva di sostenibilità cognitiva. I sistemi AI che documentano le decisioni, tracciano i flussi di dati e garantiscono il data lineage offrono al management la possibilità di “vedere” i propri processi decisionali e di comprendere come un’informazione si trasforma in azione. In questo senso, l’AI non è solo strumento di produttività, ma tecnologia della consapevolezza: aiuta le organizzazioni a pensarsi, a conoscersi e a migliorarsi.
Università e impresa: il ponte dell’intelligenza applicata
Perché questa rivoluzione sia effettiva, serve una nuova alleanza tra ricerca e mondo produttivo. L’università non deve limitarsi a descrivere l’innovazione, ma deve accompagnarla, sperimentarla e trasferirla. I laboratori di management e i centri di ricerca stanno già sviluppando modelli di AI governance in collaborazione con imprese e istituzioni, con l’obiettivo di tradurre la ricerca empirica in strumenti concreti di prevenzione e decisione.
Questo ponte tra ricerca e impresa è essenziale anche per colmare il vuoto normativo e operativo che separa la teoria dalla prassi: le imprese devono partecipare alla costruzione delle proprie regole, contribuendo alla definizione di standard tecnici, metriche di rischio e indicatori di trasparenza algoritmica. Il dialogo interdisciplinare tra informatici, giuristi, economisti e manager è l’unico modo per garantire che la tecnologia resti un mezzo e non un fine. Nel futuro prossimo, pertanto, la valutazione della governance non si baserà più solo sui risultati economici, ma sulla qualità cognitiva delle decisioni.
La responsabilità predittiva come paradigma europeo
L’intelligenza artificiale sta ridefinendo la struttura stessa della responsabilità.
Il diritto d’impresa europeo converge verso un unico principio: la responsabilità predittiva. Ma essere responsabili non significa più solo rispondere delle conseguenze, ma prevedere per prevenire. La governance del futuro potrà essere dunque costruita su tre pilastri:
- trasparenza algoritmica, per garantire che le decisioni siano comprensibili;
- alfabetizzazione digitale, per assicurare che chi decide comprenda ciò che usa;
- documentazione continua, per dimostrare che la prevenzione è stata esercitata.
In questo scenario, la frontiera della competitività coincide con quella dell’etica.
L’impresa intelligente governa la tecnologia, la interpreta e la integra nei propri processi di pensiero. La prevenzione della crisi, la compliance fiscale e la sostenibilità cognitiva non sono più compartimenti stagni, ma parti di un’unica architettura culturale.
Il futuro della governance sarà intelligente, nel senso più umano e profondo del termine: capace di apprendere, di scegliere e di assumersi la responsabilità del proprio sapere.
Bibliografia
1 lo Conte, D. L., Sancetta, G. & D’Amore, R. (2025). The Intelligence Gap: Merging Explainable AI with Managerial Perception for Proactive Crisis Strategy, Mention Award in Sinergie-SIMA Conference 2025, Genova, Italy. ISBN: 978-88-94-7136-7-1; DOI: 10.7433/SRECP.SP.2025.01











