responsabilità predittiva

Crisi d’impresa: così l’AI agentica anticipa gli squilibri



Indirizzo copiato

Dal reagire al prevedere: l’AI agentica cambia la gestione della crisi aziendale. Modelli trasparenti analizzano flussi in tempo reale e propongono azioni correttive sotto supervisione umana

Pubblicato il 18 nov 2025

Davide Liberato lo Conte

PhD Post-doc Research Fellow in Management Department of Management Sapienza University of Rome



) stabile organizzazione ai agentica e crisi d'impresa

L’integrazione tra intelligenza artificiale e supervisione umana sta trasformando la gestione della crisi d’impresa: dal reagire al prevedere. Nasce una governance predittiva, capace di leggere i segnali deboli prima che diventino emergenze, dove professionisti e manager tornano protagonisti della continuità aziendale. In questo nuovo equilibrio, la competenza digitale dei leader, la trasparenza dei modelli e una cultura della responsabilità algoritmica diventano le vere leve di una prevenzione etica, intelligente e davvero a misura d’uomo.

Il cambio di paradigma: dalla reazione alla prevenzione normativa

Negli ultimi anni, la crisi d’impresa ha smesso di essere un tabù e ha iniziato a essere trattata come ciò che realmente è: un rischio fisiologico dell’attività economica, che può e deve essere gestito in modo consapevole. Con l’introduzione del Codice della Crisi d’Impresa e dell’Insolvenza (D.Lgs. 14/2019), e con le successive modifiche apportate dal D.Lgs. 83/2022, il legislatore italiano ha affermato un principio rivoluzionario: l’emersione tempestiva. Non si tratta più di reagire alla crisi una volta manifestata, ma di prevenirla attraverso sistemi organizzativi intelligenti, capaci di rilevare per tempo i segnali di squilibrio e attivare azioni correttive. Questa logica è coerente con la Direttiva (UE) 2019/1023 sulla ristrutturazione preventiva, che ha introdotto a livello europeo i meccanismi di early warning, strumenti di allerta precoce per intercettare i rischi d’insolvenza prima che diventino irreversibili.

Il principio è chiaro: la crisi non è un fallimento, ma un’informazione, e chi la sa leggere in tempo diventa più resiliente. Tuttavia, la prassi mostra un ritardo strutturale. Molte imprese, soprattutto PMI, non dispongono di strumenti di analisi evoluti, né di competenze per interpretare i segnali deboli della crisi. La difficoltà, dunque, non è solo tecnologica ma cognitiva: il cognitive gap — la distanza tra la capacità dei dati di “parlare” e la capacità del management di “ascoltarli” — resta profondo. È su questo terreno che la Intelligenza Artificiale spiegabile (Explainable AI, XAI) prima, e la AI agentica (Agentic AI) oggi, possono colmare il divario tra informazione e decisione.

Explainable AI: quando l’algoritmo diventa diagnosi trasparente

Il Codice della Crisi ha imposto agli amministratori di dotarsi di assetti organizzativi, amministrativi e contabili adeguati (art. 2086 c.c.) per garantire la continuità aziendale. Ma il concetto di “adeguatezza” è oggi indissolubilmente legato alla capacità di analizzare e comprendere i dati. Gli strumenti tradizionali — indici di bilancio, soglie patrimoniali, parametri statici — non sono più sufficienti. Le crisi moderne sono ibride e sistemiche: nascono da catene di approvvigionamento interrotte, da shock tecnologici o reputazionali, da fattori geopolitici e da variazioni improvvise nei mercati.

In questo scenario, la Explainable AI (XAI) ha rappresentato il primo passo verso una prevenzione intelligente. Si tratta di modelli di machine learning progettati per essere trasparenti e interpretabili, in grado di spiegare non solo che cosa predicono, ma anche perché. Una delle metodologie più diffuse in ambito economico e finanziario è quella dei valori SHAP (Shapley Additive Explanations), che attribuisce a ciascuna variabile un “peso” nel processo decisionale del modello, rendendo visibili le relazioni causa-effetto tra i dati. In termini pratici, l’approccio SHAP consente di capire, ad esempio, se il peggioramento del margine operativo di un’impresa è dovuto alla contrazione dei ricavi, all’aumento dei costi fissi o a una scarsa rotazione dei crediti.

Questo livello di trasparenza trasforma l’AI in uno strumento di diagnosi economico-finanziaria: l’algoritmo diventa interpretabile, l’informazione diventa azione, e l’imprenditore può finalmente “vedere” ciò che i numeri nascondono. Un recente studio, condotto presso la Sapienza Università di Roma (lo Conte et al., 2025; The Intelligence Gap: Merging Explainable AI with Managerial Perception for Proactive Crisis Strategy, ISBN: 978-88-94-7136-7-1; DOI: 10.7433/SRECP.SP.2025.01) e presentato presso la Sinergie–SIMA Management Conference 2025 di Genova, su un campione di 3.000 imprese italiane ha dimostrato che l’uso combinato di modelli predittivi e analisi SHAP riduce del 40% il tempo medio di reazione ai segnali di crisi. L’accuratezza predittiva degli algoritmi supera l’80%, ma la vera innovazione è nella spiegabilità: il professionista non riceve solo un allarme, ma la motivazione dell’allarme. È la fine dell'”opacità algoritmica” e l’inizio di una collaborazione cognitiva tra uomo e macchina.

AI agentica: dalla spiegazione all’azione autonoma controllata

L’evoluzione successiva, già in corso, è rappresentata dalla Agentic AI, ovvero la forma di intelligenza artificiale dotata di autonomia contestuale. Se la XAI spiega, la AI agentica decide e agisce, pur restando sotto la supervisione umana (human oversight). È la differenza tra un sistema che “descrive un problema” e uno che “propone una soluzione”.

Gli agenti autonomi possono oggi interfacciarsi con i sistemi informativi aziendali, analizzare flussi in tempo reale, rilevare scostamenti dai target di budget e simulare scenari di intervento. Possono, ad esempio:

  • proporre una revisione automatica del piano di tesoreria in caso di flusso di cassa negativo;
  • aggiornare dinamicamente i modelli di previsione in base a nuovi dati di mercato;
  • inviare alert diretti agli amministratori o ai revisori in caso di rischio imminente di perdita della continuità aziendale.

Questa capacità di autoadattamento segna la transizione da una gestione reattiva a una governance predittiva e interattiva. La tecnologia diventa parte integrante degli “assetti adeguati”, un co-pilota digitale in grado di anticipare squilibri e supportare decisioni complesse.

Il principio della supervisione umana è però irrinunciabile. Il Regolamento Europeo sull’Intelligenza Artificiale (AI Act, 2024), all’articolo 14, stabilisce che ogni sistema ad alto rischio, come quelli applicati alla finanza, alla governance o alla gestione d’impresa, deve essere soggetto a un controllo umano effettivo e documentato. Ciò significa che l’AI può agire, ma non può sostituirsi all’uomo. La responsabilità resta in capo all’amministratore, che deve comprendere, verificare e validare ogni decisione algoritmica. L’AI diventa così una tecnologia di supporto alla responsabilità, non una scorciatoia per evitarla.

Il framework europeo: convergenza tra diritto d’impresa e regolazione AI

La convergenza tra AI Act, Codice della Crisi e Direttiva Insolvency delinea un nuovo modello europeo di governance aziendale. Da un lato, il diritto d’impresa impone la creazione di assetti adeguati; dall’altro, la normativa sull’AI definisce i principi di trasparenza, accountability e human oversight. Al centro di entrambe c’è la stessa idea: la prevenzione come responsabilità attiva.

L’impresa del futuro sarà valutata non solo per i suoi risultati economici, ma per la sua capacità di monitorare, spiegare e documentare i propri processi decisionali. I sistemi di AI agentica, se sviluppati nel rispetto delle regole di explainability, possono diventare strumenti di compliance dinamica, capaci di dimostrare l’adempimento degli obblighi normativi. In altre parole, la stessa tecnologia che segnala un rischio può costituire la prova della diligenza con cui quel rischio è stato gestito.

In questa prospettiva, il commercialista, il revisore legale e il consulente aziendale assumono un ruolo centrale. Non sono più solo “lettori di bilanci”, ma interpreti del dato predittivo, garanti della trasparenza e della correttezza dell’intelligenza che supporta la decisione. Il professionista del 2025, dunque, non deve temere l’AI: deve governarla, conoscerne i limiti, capirne i bias, verificarne la tracciabilità. È il ritorno della tecnologia al servizio della deontologia.

Competenze digitali manageriali: il fattore umano decisivo

Se il diritto fornisce le regole e la tecnologia gli strumenti, il fattore decisivo resta la competenza umana. Secondo i dati della Commissione Europea (DESI 2025), solo poco più della metà dei dirigenti italiani possiede competenze digitali sufficienti per interpretare strumenti di AI o analisi predittiva. Questo deficit di digital literacy si traduce in un ritardo operativo e culturale nella prevenzione della crisi.

La formazione manageriale deve quindi evolvere: non basta conoscere il bilancio, occorre comprendere le logiche dei modelli predittivi, i parametri statistici, la lettura degli output SHAP, e soprattutto saperne contestualizzare i risultati. La decisione economica non può essere automatizzata, ma deve essere informata da una conoscenza critica dei dati. In altre parole: la nuova competenza del manager non è calcolare, ma interpretare.

Questo richiede una sinergia tra accademia, professione e policy europea. Le università devono trasferire la ricerca empirica sul campo della consulenza; i professionisti devono tradurre l’innovazione in strumenti operativi; le istituzioni devono favorire l’adozione di modelli di AI etica e verificabile. È così che si costruisce una cultura della prevenzione intelligente, dove diritto, tecnologia e competenze convergono in un ecosistema di apprendimento continuo.

Sostenibilità cognitiva e cultura della vulnerabilità consapevole

La vera sfida del futuro non è dunque solo tecnologica, ma eminentemente culturale e cognitiva. La prevenzione della crisi non può limitarsi a un problema di strumenti, modelli o algoritmi: richiede una trasformazione del modo di pensare la gestione d’impresa. Il passaggio da una governance reattiva a una governance predittiva implica un mindset change profondo, capace di accettare la vulnerabilità come parte integrante della vita economica e di trasformarla in una risorsa di apprendimento organizzativo.

La sostenibilità aziendale, in questa prospettiva, non è più solo economica, ambientale o sociale, ma anche sostenibilità cognitiva: la capacità del management di mantenere lucidità decisionale in contesti di complessità, incertezza e pressione informativa. In altre parole, è la competenza di “pensare prima di agire”, di utilizzare l’informazione predittiva non come allarme tardivo, ma come occasione di riposizionamento strategico.

Tuttavia, questa trasformazione richiede una condizione preliminare: la volontà di prevedere. Molti manager, soprattutto nelle PMI italiane, faticano ancora a interiorizzare la logica della prevenzione. Non si tratta soltanto di mancanza di strumenti o di digital literacy, ma di resistenze psicologiche e culturali: prevedere la crisi significa, in qualche misura, riconoscere la propria fragilità e aprire un dialogo trasparente con stakeholder, creditori, dipendenti e partner. Un atto che, nella percezione di molti imprenditori, equivale a esporre la propria vulnerabilità e a rischiare la fiducia del mercato.

È questo il paradosso della prevenzione: per essere efficace, richiede un comportamento proattivo, ma tale comportamento è spesso ostacolato dal timore delle conseguenze reputazionali e relazionali. Molti amministratori preferiscono rinviare la diagnosi, evitando di formalizzare gli squilibri per non generare reazioni a catena tra banche, fornitori e dipendenti. È un meccanismo difensivo che finisce però per aggravare il problema, trasformando una crisi latente in una crisi conclamata.

Proprio per superare questa barriera culturale, il legislatore europeo, attraverso la Direttiva (UE) 2019/1023 e la sua attuazione nazionale con il D.Lgs. 83/2022, ha introdotto strumenti di gestione negoziata e non giudiziale della crisi, come la Composizione Negoziata. L’obiettivo è incoraggiare le imprese ad affrontare le difficoltà in modo tempestivo, in un contesto protetto, riservato e non punitivo. Un meccanismo che, nelle intenzioni originarie, mira a rimuovere lo stigma del fallimento e a promuovere una cultura di responsabilità condivisa tra impresa e sistema finanziario.

Ma, come ogni innovazione normativa, anche questo strumento presenta zone grigie. La possibilità di ricorrere alla Composizione Negoziata senza passare immediatamente per la via giudiziale, infatti, può favorire, in assenza di una cultura matura della prevenzione, comportamenti opportunistici: imprese che utilizzano la procedura per guadagnare tempo, sospendere azioni esecutive o negoziare condizioni più favorevoli, senza un reale progetto di risanamento. È il rischio di una “prevenzione opportunistica”, che svuota di significato il principio di emersione tempestiva e mina la fiducia nel sistema.

La risposta a questo rischio non può essere solo regolatoria, ma educativa. Serve una nuova etica della trasparenza, in cui la previsione non sia percepita come autodenuncia, ma come atto di governance responsabile. Il ruolo della AI agentica e dei sistemi predittivi va letto in questa chiave: non come strumenti di controllo esterno, ma come tecnologie di consapevolezza interna, in grado di supportare l’autovalutazione, ridurre l’asimmetria informativa e stimolare comportamenti virtuosi.

In un contesto in cui la fiducia diventa la valuta più preziosa, la sostenibilità cognitiva significa costruire un ambiente decisionale in cui la previsione è praticata non per obbligo normativo, ma per maturità gestionale. Significa che le imprese imparano a riconoscere la crisi come segnale, non come colpa; come occasione di riorientamento, non come fallimento. L’AI agentica, se guidata da principi di human oversight, può sostenere questa maturazione culturale: non è un automa che decide, ma un alleato cognitivo che amplifica la percezione del rischio, aiuta a comprendere i fenomeni e rende più tempestiva la risposta organizzativa.

Come afferma l’AI Act europeo, il valore della tecnologia non si misura nella sua capacità di sostituire l’uomo, ma nella sua capacità di potenziarlo, rendendo le sue decisioni più informate, etiche e sostenibili. La nuova frontiera della prevenzione aziendale, dunque, non passa soltanto dai codici e dai software, ma dal modo in cui le organizzazioni scelgono di interpretare la vulnerabilità: non come rottura, ma come segnale; non come errore, ma come informazione; non come fine, ma come inizio di una trasformazione consapevole.

Resilienza algoritmica a misura d’uomo: sintesi e prospettive

Il futuro della governance aziendale si gioca sull’integrazione tra diritto, dati e discernimento umano. Il Codice della Crisi, l’AI Act europeo e la Direttiva Insolvency convergono in un principio comune: la responsabilità predittiva. La prevenzione non è più un obbligo giuridico, ma una competenza strategica. L’Explainable AI e la Agentic AI, unite alla supervisione umana, rendono possibile un nuovo paradigma: la resilienza algoritmica a misura d’uomo.

In questo modello, l’AI elabora, l’uomo interpreta e decide. Le crisi non vengono più “subite”, ma “lette” in anticipo; le decisioni non sono più reazioni, ma strategie di adattamento. La vera intelligenza, oggi come domani, resta quella umana: capace di dare senso ai dati, di scegliere con consapevolezza, e di trasformare la complessità in opportunità. Perché la prevenzione della crisi, nell’era digitale, non è una funzione della macchina, ma un’estensione della coscienza manageriale.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati