intelligenza artificiale

AI nei consigli di amministrazione: come governarla senza delegare



Indirizzo copiato

L’AI sta entrando nella boardroom e cambia il modo in cui un consiglio valuta strategia e rischi. Tra benchmark indipendenti, analisi dei dati interni e scenari predittivi, il board può rafforzare il controllo. Ma crescono anche problemi di affidabilità, sicurezza e responsabilità

Pubblicato il 8 gen 2026

Nicola Cucari

Professore di Economia e Gestione delle Imprese – Dipartimento di Management, Sapienza Università di Roma



AI nel portfolio management tech fluency; DAF; atti di esecuzione eidas 2.0 Golden Quarter

Nel dibattito pubblico sull’intelligenza artificiale si parla spesso di produttività, creatività e automazione. Molto meno si discute di cosa succede nel luogo in cui si prendono le decisioni più rilevanti, il consiglio di amministrazione. Eppure è proprio lì che l’AI sta diventando un fattore di discontinuità, capace di rafforzare il governo societario ma anche di aprire un fronte inedito di rischi, asimmetrie e responsabilità.

L’AI è diffusa ma non ancora trasformativa: cosa dicono i dati

Secondo l’ultimo McKinsey Global Survey sull’AI, siamo entrati in una fase in cui l’intelligenza artificiale è ormai diffusa, ma non ancora trasformativa. L’88% delle organizzazioni dichiara di utilizzare regolarmente l’AI almeno in una funzione aziendale, contro il 78% di un anno fa, tuttavia solo circa un terzo afferma di aver iniziato davvero a scalare questi programmi a livello di impresa.

La maggioranza resta ancora in una logica di sperimentazione e progetti pilota, con benefici localizzati ma non ancora sistemici. Dentro questa traiettoria si colloca la novità degli AI agents, sistemi basati su modelli fondativi capaci di pianificare ed eseguire più passaggi in un workflow. Il 23% dei rispondenti segnala che la propria organizzazione sta già scalando soluzioni di AI agentica in almeno una funzione, mentre un ulteriore 39% dichiara di essere in fase di sperimentazione.

Nella pratica, però, l’uso degli agenti resta ancora circoscritto: in nessuna funzione più del 10% delle imprese li sta adottando in modo scalato. McKinsey sottolinea che questa adozione parziale sta già cambiando il modo di lavorare, ma in una forma ibrida e incompleta.

Dall’adozione alla scala: AI e corporate governance come tema di board

I processi iniziano a essere ripensati in funzione di ciò che persone, sistemi di AI e robot sanno fare meglio, ma nella maggior parte dei casi l’AI viene ancora “appoggiata” su workflow esistenti invece di generare veri ridisegni organizzativi. Da un lato emergono imprese più ambiziose, che investono in formazione, cultura della sperimentazione e riprogettazione dei ruoli per catturare valore futuro.

Dall’altro molte organizzazioni trattano l’AI come un progetto IT, senza un chiaro disegno strategico su tempi, finalità e impatti su competenze, misurazione della performance e redistribuzione del lavoro.

Perché la trasformazione incompiuta ricade sul governo societario

È esattamente in questa differenza tra sperimentazione diffusa e trasformazione incompiuta che entra in gioco la corporate governance. Se l’AI, soprattutto nelle sue forme agentiche, ridisegna processi, metriche e rapporti tra capitale umano e capitale tecnologico, i consigli di amministrazione non possono limitarsi a monitorare l’adozione tecnologica come una voce tra le altre.

Devono assumere l’AI come tema di supervisione strategica, verificare se l’impresa sta usando questi strumenti per creare valore di lungo periodo o solo per inseguire efficienza tattica, e chiedere conto di come vengono gestiti i rischi di bias, sicurezza, dipendenza da fornitori esterni e trasparenza nei confronti di investitori e regolatori.

Le stesse domande che McKinsey pone ai leader esecutivi diventano, in chiave di governance, domande per i board: l’azienda sta ripensando il proprio modello di business in funzione del valore futuro abilitato dall’AI o si limita a ottimizzare l’esistente? L’AI è governata come una trasformazione core del business, con un impegno esplicito del consiglio, o è delegata alla funzione IT?

Sono in atto politiche, ruoli e competenze, per esempio l’introduzione di figure come l’AI Ethics Officer o di comitati dedicati, che garantiscano che l’uso di AI e Agentic AI resti sotto un controllo effettivo e coerente con il profilo di rischio dell’impresa?

Che cosa rende efficace un consiglio nell’era dell’AI

Tutti i consigli sono diversi, per composizione, storia, cultura. Eppure quelli considerati più efficaci condividono almeno tre asset critici: dispongono di esperienze profonde e variegate che alimentano il giudizio sul business; guardano all’impresa con una prospettiva di lungo periodo, resistendo alla tentazione del solo trimestre; mantengono infine una collaborazione stretta con il management, senza confondersi con esso, preservando quel “passo di distanza” che consente visione d’insieme e domande scomode sulla strategia.

L’intelligenza artificiale entra in questa architettura in modo ambivalente. Da un lato può potenziare tutti e tre questi asset, offrendo più informazioni, migliori analisi, strumenti di scenario più raffinati. Dall’altro ridisegna il perimetro del ruolo consiliare e accentua un problema classico della corporate governance: il problema di agenzia tra board e management.

Informazione indipendente: AI e corporate governance contro il problema di agenzia

Oggi il consiglio riceve quasi tutte le informazioni dal vertice aziendale. Anche quando i flussi sono ricchi e tempestivi, raramente riescono a restituire tutte le alternative, i margini di incertezza, le ipotesi scartate lungo il percorso. Il board è chiamato a giudicare e controllare sulla base di un materiale che è prodotto da chi viene giudicato e controllato.

La teoria dell’agenzia ha costruito su questa tensione molta della riflessione moderna sulla governance. L’AI ha il potenziale di cambiare questa dinamica. Un consiglio può utilizzare strumenti di analisi automatica per confrontare le disclosure pubbliche dell’azienda con quelle dei concorrenti, interrogare dati di mercato e database settoriali, costruire benchmark indipendenti rispetto alla narrativa manageriale.

Può farlo non occasionalmente, ma in modo sistematico, lasciando che algoritmi di ricerca, classificazione e sintesi filtrino grandi moli di dati e segnalino pattern, anomalie, incoerenze.

La stessa logica può applicarsi ai dati interni. I flussi informativi forniti dai comitati, le comunicazioni del top management costituiscono un archivio prezioso che l’AI può rileggere in chiave longitudinale. Ne possono emergere traiettorie di performance, cambiamenti di tono, segnali deboli che difficilmente verrebbero colti con una lettura tradizionale.

Si apre così la possibilità di stressare le ipotesi strategiche combinando fonti pubbliche e interne, di costruire simulazioni e scenari, di richiedere dataset che in passato non si pensava nemmeno di chiedere.

Nella maggior parte dei casi l’AI resta un “attore esterno”, un supporto analitico. Ma iniziano ad affacciarsi studi e casi in cui l’algoritmo entra nel cuore dei processi di governance, fino a ipotizzare forme embrionali di “robo-director” (Cucari, 2025). È qui che il confine tra supporto informativo e “artificial corporate governance” diventa sottile.

Governance predittiva: AI e corporate governance tra scenari e risk dashboard

Sul versante delle opportunità, la traiettoria è chiara. L’AI può migliorare la qualità del giudizio consiliare, non sostituendolo ma arricchendolo. Modelli di previsione addestrati su dati macroeconomici, settoriali e aziendali permettono al board di discutere non solo sulla base di consuntivi, ma di scenari probabilistici di medio periodo.

Scenario planning e gestione dei rischi: dal consuntivo al “plausibile”

L’oggetto della deliberazione non è più soltanto “cosa è successo”, ma “cosa è plausibile che accada se adottiamo una certa strategia”. La governance diventa meno reattiva e più anticipatoria.

Gli stessi strumenti possono essere impiegati per la pianificazione di crisi e la gestione dei rischi. Gli algoritmi che monitorano in tempo reale indicatori di stress finanziario, rischi reputazionali, vulnerabilità di supply chain, possono alimentare un cruscotto periodico per il comitato rischi, dando ai consiglieri una visuale più granulare sui punti di fragilità del modello di business.

Autovalutazione del board e lavoro “amministrativo” liberato dall’AI

Anche l’autovalutazione del board può beneficiare dell’AI. L’analisi dei verbali, dei flussi e dei tempi di parola, delle interazioni all’interno del consiglio può aiutare a capire se esistono pattern di silenzi sistematici, concentrazione eccessiva della parola, chiusura rispetto a prospettive minoritarie.

Alcuni esperimenti accademici mostrano che strumenti di natural language processing sono in grado di classificare il tono e la struttura delle discussioni, individuando segnali di groupthink o di conflitto non gestito.

Non va infine sottovalutato il contributo all’efficienza. L’AI può automatizzare parti del lavoro amministrativo, dalla predisposizione delle agende alla sintesi dei materiali, liberando tempo prezioso per il confronto strategico. A patto, però, che la sintesi non sostituisca la lettura, ma ne costituisca un supporto intelligente.

Rischi in boardroom: ruolo, affidabilità, sicurezza, accountability

Ogni ampliamento di capacità porta con sé nuovi rischi. Nel caso dell’AI in boardroom, i principali riguardano quattro dimensioni: ruolo, affidabilità, sicurezza, accountability.

Confini di ruolo: quando la supervisione rischia di diventare gestione

Sul ruolo, il rischio è lo sconfinamento. Se il consiglio, forte di strumenti di analisi indipendenti, inizia a produrre proprie valutazioni operative dettagliate, può finire per invadere spazi che dovrebbero restare in capo al management.

Una supervisione troppo “operativa”, alimentata dall’illusione di sapere tutto perché si hanno a disposizione più dati, può paradossalmente indebolire la responsabilità del vertice esecutivo e generare tensioni continue sul “chi decide cosa”.

Affidabilità degli output: bias, allucinazioni e false certezze

Sull’affidabilità, la questione delle allucinazioni e dei bias è ben nota. Modelli che producono output formalmente coerenti ma sostanzialmente errati, o che incorporano pregiudizi presenti nei dati storici, possono indurre il board a sopravvalutare la solidità di un’analisi.

L’AI non è una “macchina della verità”: è un sistema statistico che approssima pattern osservati. Senza un vaglio critico umano e senza trasparenza sui dati di addestramento, il rischio di decisioni basate su false certezze è elevato.

Sicurezza e accountability: tracce, contenziosi e responsabilità retroattiva

La sicurezza apre un fronte ancora più delicato. Serve una chiara linea di demarcazione tra uso personale di strumenti di AI e uso istituzionale in ambienti tracciati e protetti.

Infine l’accountability. Ogni interrogazione a un sistema di AI, ogni scenario generato, ogni raccomandazione ricevuta lascia una traccia scritta. In contesti contenziosi o regolatori questa traccia può essere riletta in modo selettivo, a posteriori, costruendo narrazioni accusatorie su ciò che il board “avrebbe dovuto sapere” alla luce degli output disponibili.

Occorre quindi definire procedure chiare su conservazione, accesso e significato probatorio degli output generati, per evitare che l’AI diventi una macchina di responsabilità retroattiva incontrollabile.

Oltre privacy e compliance: AI e corporate governance verso l’AI Ethics Officer

L’ingresso dell’AI nei processi di governance non è solo un tema tecnologico, ma un problema di architettura istituzionale. Le imprese più esposte all’uso di sistemi di AI ad alto impatto, pensiamo a settori sanitari, finanziari, grandi piattaforme digitali, stanno iniziando a interrogarsi sulla necessità di nuovi ruoli e competenze.

L’esperienza internazionale mostra una distinzione sempre più chiara tra due figure (Deloitte, 2025). Da un lato il Data Protection Officer, principalmente centrato sul trattamento dei dati personali, che dovrà arricchire le proprie competenze su profili etici, giuridici e tecnologici connessi all’AI.

Dall’altro l’AI Ethics Officer o, in contesti più complessi, un vero e proprio AI Ethics Committee, orientato in primo luogo alle dimensioni etiche, sociali e di sicurezza dei sistemi di intelligenza artificiale, con una competenza aggiuntiva sui dati ma non limitata ad essi.

L’AI impatta aspetti che vanno oltre la privacy: dalla non discriminazione nella selezione del personale e nella concessione del credito alla trasparenza degli algoritmi che assegnano premi, turni o carichi di lavoro. Un AI Ethics Officer dovrebbe saper valutare equità, responsabilità e trasparenza dei sistemi adottati, contribuire alla definizione di linee guida interne, coordinarsi con le funzioni legale, IT e HR, promuovere formazione e consapevolezza, organizzare audit periodici sull’efficienza e sulle esternalità negative dei sistemi.

Il rischio opposto è quello dell’“ethics washing”: la creazione di comitati e figure di facciata che producono documenti programmatici senza incidere sulle scelte reali. Per evitarlo è necessario che l’AI Ethics Officer abbia un mandato chiaro, accesso alle informazioni, possibilità di interloquire direttamente con il board, capacità di coinvolgere tutti gli stakeholder rilevanti.

La sua attività dovrebbe essere intrecciata con quella del DPO, in un sistema di verifiche incrociate che tenga insieme rispetto dei dati e rispetto dei principi.

Dal prompt all’azione: agentic AI e artificial corporate governance

Dovremmo far ascoltare le nostre conversazioni all’AI, portarla nel consiglio di amministrazione ed eleggerla ad agente del futuro? È una domanda provocatoria, ma non puramente teorica. Come raccontato da recenti contributi sulla stampa internazionale, sempre più board stanno iniziando a interrogarsi su quanto spazio concedere a sistemi di AI non solo nella preparazione delle riunioni, ma all’interno stesso del processo deliberativo.

La velocità con cui l’intelligenza artificiale evolve spinge i consigli in territori ancora poco regolati, dove ogni decisione deve tenere insieme tecnologia, governance, rischio, cultura organizzativa e responsabilità.

In questo scenario arriva l’AI “agentica”. I modelli di Generative AI oggi più diffusi operano in modalità prevalentemente reattiva. Rispondono a prompt specifici, non hanno memoria persistente, non possono accedere autonomamente a basi dati o sistemi aziendali, non eseguono azioni nel mondo digitale.

Sono strumenti conversazionali, potenti ma confinati nello spazio di una richiesta e di una risposta. L’umano rimane l’unico soggetto che decide, orchestra, dà seguito operativo alle analisi.

Tabella 1: Confronto tra AI tradizionale e AI agentica

CaratteristicaGenerative AI tradizionaleAgentic AI
IniziativaReattiva (prompt-based)Proattiva (goal-based, task decomposition)
Accesso in letturaLimitato all’input fornito dall’utenteAutonomo: database, documenti, API, web
Accesso in scritturaOutput testuale, non operativoScrittura diretta su file, database, interfacce
Capacità esecutivaNessuna capacità di azioneEsecuzione di codice, comandi, invio di istruzioni
Memoria e adattamentoLimitata alla sessione correnteMemoria persistente e adattamento ai risultati

Fonte: Cucari, 2025

Che cosa cambia quando un agente mantiene “stato” e operatività

L’Agentic AI inaugura un paradigma diverso. Gli agenti integrano modelli linguistici, sistemi di retrieval, interfacce con API e database, capacità di esecuzione di codice e di gestione della memoria nel tempo. Possono ricevere un obiettivo complesso, scomporlo in sottocompiti, scegliere in autonomia quali strumenti usare, interrogare archivi interni ed esterni, aggiornare file e report, inviare comunicazioni, monitorare l’esito delle proprie azioni e adattare di conseguenza il piano.

In altre parole, non si limitano a rispondere, ma sono in grado di agire in ambienti digitali, perseguendo un fine anche in assenza di nuovi input umani.

La differenza non è solo tecnica, ma di posizione nella catena di governo. Se la Generative AI tradizionale resta un amplificatore di capacità analitica che vive “a lato” del processo di governance, l’AI agentica tende a entrare al suo interno, come attore che mantiene uno stato, esegue compiti, accumula una propria “storia” operativa.

È qui che la domanda iniziale acquista peso: quanto spazio concedere a un sistema che, pur sotto supervisione, è capace di interpretare, suggerire, intraprendere azioni?

Paradossi di accountability: peso degli alert, diligenza e comprensibilità

In un contesto di corporate governance gli agenti potrebbero, almeno in teoria, monitorare in modo continuo fonti regolatorie e di rischio, aggiornare automaticamente indicatori ESG, verificare la coerenza delle politiche retributive con i codici di autodisciplina, controllare ex ante la conformità delle delibere alle normative di settore, orchestrare più flussi di lavoro informativo per comitati diversi.

Si intravede una forma di “sorveglianza aumentata” che promette maggiore tempestività, granularità e capacità predittiva. Ma questa transizione apre anche una serie di paradossi.

Se un agente AI identifica una criticità nella composizione del board o nella concentrazione di poteri, quel suggerimento ha lo stesso peso di un alert emesso da una funzione interna di controllo? Se un agente costruisce scenari strategici autonomamente, quali elementi di quel processo devono essere tracciati e compresi dai consiglieri per poter dire di aver esercitato davvero il proprio dovere di diligenza?

Se parte delle analisi più sofisticate è generata da sistemi che apprendono continuamente, come si garantisce accountability in caso di errore?

Le domande che si aprono sono molte: come si trasformerà il processo decisionale in un ambiente in cui agenti digitali possono alimentare in tempo reale i lavori del consiglio? Quali nuove competenze dovranno acquisire i board per valutare, interrogare e, se necessario, contraddire le raccomandazioni di sistemi che appaiono sempre più autorevoli?

Come evitare che la delega tecnica si trasformi in deresponsabilizzazione, con il rischio di attribuire all’algoritmo colpe che restano invece pienamente umane? Quali implicazioni etiche e culturali derivano dall’introduzione di un “terzo attore” nelle dinamiche di fiducia tra amministratori, management e stakeholder?

La transizione dall’automazione all’agentica non è quindi un semplice upgrade tecnologico. È un passaggio di fase che tocca il cuore della corporate governance, perché ridefinisce chi fa cosa, chi controlla chi, chi risponde di cosa.

Un’agenda operativa per consigli, imprese e policy maker

Per i consigli di amministrazione, la prima mossa è simbolica ma decisiva: mettere l’uso dell’AI all’ordine del giorno. Non come semplice capitolo IT, ma come tema di governo. Significa discutere come i singoli consiglieri stanno già usando strumenti di AI per prepararsi, quali casi d’uso si ritengono opportuni, quali sono i confini da non superare.

Significa decidere se e come dotarsi di una policy specifica per l’AI del board, coerente con le politiche aziendali più ampie ma tarata sulle responsabilità consiliari.

Un secondo passo è l’alfabetizzazione. Non si tratta di trasformare gli amministratori in data scientist, ma di garantire una comprensione sufficiente dei principi di funzionamento, dei limiti e dei rischi dei modelli utilizzati. Senza questo minimo comune denominatore, qualsiasi discussione sull’AI rischia di trasformarsi in una delega cieca agli esperti interni o esterni.

Terzo, la scelta dell’infrastruttura. Qualsiasi uso dell’AI legato alla governance deve avvenire in ambienti sicuri, approvati, tracciati. È indispensabile che board pack, scenari, simulazioni non finiscano in piattaforme pubbliche o personali.

E che esistano regole sulla conservazione di prompt e output, integrate nelle policy di retention documentale.

Quarto, la gestione delle discrepanze. È prevedibile che talvolta gli insight prodotti da sistemi di AI non coincidano con le analisi del management. In questi casi serve una procedura predefinita per discuterne: chi informa chi, con quali tempi, quando il tema viene portato al presidente del consiglio o del comitato competente.

L’obiettivo non è sostituire il management, ma usare il disallineamento come occasione per migliorare dati, modelli e comprensione reciproca.

Per i policy maker, nazionali ed europei, il tema è duplice. Da un lato occorre proseguire nella definizione di quadri normativi che rendano obbligatori alcuni presidi minimi: trasparenza degli algoritmi impiegati in ambiti critici, requisiti di documentazione e auditabilità, chiara allocazione delle responsabilità lungo la filiera.

Dall’altro è necessario accompagnare le imprese nella costruzione di competenze, evitando che solo pochi grandi attori possano permettersi strutture sofisticate di AI governance, con il rischio di nuove forme di dipendenza tecnologica e “colonialismo digitale” nei confronti dei player globali.

L’AI non è solo una nuova tecnologia da aggiungere al catalogo degli strumenti manageriali. È un test di stress per le categorie fondamentali della corporate governance: informazione, giudizio, responsabilità, controllo.

Se resterà confinata a funzione accessoria, utile a fare un po’ meglio ciò che già facevamo, perderemo l’occasione di usarla come leva per interrogare e rinnovare i nostri modelli di governo societario. Se, al contrario, sapremo costruire regole, ruoli e competenze capaci di integrare l’AI in modo trasparente, responsabile e strategicamente orientato, potremo muovere un passo verso quella “artificial corporate governance” che la letteratura più recente inizia a delineare.

Un ecosistema ibrido in cui la qualità delle decisioni sarà il prodotto di un dialogo maturo tra intelligenze umane e artificiali, non di una loro contrapposizione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x