approfondimento

Decidere con l’AI, nel rispetto delle regole: i principi cardine



Indirizzo copiato

In contesti normativi complessi, l’AI non può limitarsi a ottimizzare previsioni: va progettata come infrastruttura cognitiva deliberativa, che separa inferenza e decisione, rende trasparenti i trade-off di valore, integra principi regolatori e supporta decisioni istituzionalmente legittime e sostenibili nel lungo periodo

Pubblicato il 10 feb 2026

Davide Liberato lo Conte

PhD Post-doc Research Fellow in Management Department of Management Sapienza University of Rome



Piattaforme AI governance; fabbrica cognitiva; AI docente

Nei contesti normativi complessi, il decision making supportato da sistemi di intelligenza artificiale è strutturalmente value laden: incorpora scelte assiologiche, priorità politiche, interpretazioni del rischio e nozioni di equità che non sono deducibili dai dati, né neutralizzabili tramite l’aumento della performance predittiva. Questa constatazione non è meramente filosofica, ma ha conseguenze architetturali precise.

Ogni sistema di AI che operi in un contesto normativo complesso assume implicitamente: una teoria del valore (che cosa conta e perché), una teoria dell’azione (quali decisioni sono ammissibili) e una teoria della responsabilità (chi risponde di cosa, e in base a quali criteri). Quando tali assunzioni restano implicite, come accade nella maggior parte delle implementazioni datadriven orientate all’ottimizzazione, l’AI diventa un black box normativo: apparentemente oggettiva, ma di fatto opaca rispetto ai tradeoff che impone.

L’obiettivo di questo contributo è sostenere che l’innovazione rilevante nel decision making algoritmico non risiede primariamente in nuovi modelli predittivi, bensì nella progettazione di architetture deliberative di AI, intese come infrastrutture cognitive che rendono espliciti, governabili e verificabili i tradeoff di valore sottostanti alle decisioni. In tale prospettiva, l’AI non è un decisore automatico, ma un sistema sociotecnico deliberativo che struttura lo spazio delle opzioni, supporta il confronto tra criteri in conflitto e abilita forme di accountability coerenti con contesti regolatori ad alta complessità.

Dal paradigma predittivo-ottimizzativo al paradigma deliberativo

Il paradigma dominante dell’AI applicata al decision making può essere definito predittivoottimizzativo. In esso:

  • il problema decisionale è formalizzato come una funzione obiettivo (o un insieme ristretto di obiettivi scalari);
  • l’incertezza è trattata come rumore statistico da minimizzare;
  • i vincoli normativi sono tradotti, quando possibile, in soglie o penalità;
  • la qualità del sistema è valutata prevalentemente in termini di accuratezza, precisione o utilità attesa.

Questo paradigma ha prodotto risultati significativi in domini ben strutturati (credit scoring, demand forecasting, manutenzione predittiva). Tuttavia, mostra limiti strutturali nei contesti normativi complessi, caratterizzati da:

  1. Pluralità di obiettivi non commensurabili, che non ammettono una riduzione a un unico criterio scalare.
  1. Asimmetrie di rischio e preferenze sociali non lineari (ad esempio avversione alla perdita, principio di precauzione).
  1. Vincoli giuridici interpretativi, che richiedono giudizio contestuale e non mera applicazione meccanica.
  1. Esigenze di spiegabilità orientata alla decisione, non limitate alla spiegazione del modello ma estese alla giustificazione della scelta.

Il paradigma deliberativo propone un ribaltamento concettuale: la previsione non è il fine, ma uno degli input epistemici di un processo di deliberazione strutturata. L’AI diventa un’infrastruttura che organizza conoscenza, valori e vincoli in modo esplicito, consentendo a decisori umani e istituzioni di valutare alternative informate.

L’AI come infrastruttura cognitiva

Definire l’AI come infrastruttura cognitiva significa attribuirle tre funzioni fondamentali:

Funzione epistemica

L’AI aggrega, filtra e struttura informazione rilevante proveniente da fonti eterogenee (dati storici, segnali in tempo reale, proxy di rischio, indicatori di sostenibilità). Tecniche di machine learning operano a questo livello come strumenti di inferenza probabilistica. Tuttavia, la loro validità è valutata non solo in termini statistici, ma in relazione alla loro idoneità a informare decisioni normativamente sensibili.

Funzione deliberativa

A un livello superiore, l’architettura deve supportare il confronto tra criteri in tensione. Ciò implica:

  • la rappresentazione esplicita di obiettivi multipli;
  • la modellazione dei tradeoff come oggetti di analisi, non come effetti collaterali nascosti;
  • la possibilità di esplorare scenari controfattuali e frontiere di Pareto.

In questo senso, strumenti di spiegabilità come le Shapley Additive Explanations non sono utilizzati solo per “aprire la black box” del modello, ma per rendere intelligibile il contributo delle variabili rispetto a specifici criteri decisionali.

Funzione normativa

Infine, l’AI come infrastruttura cognitiva incorpora principi regolatori direttamente nelle scelte architetturali. Ciò include:

  • separazione funzionale tra previsione e decisione;
  • tracciabilità delle assunzioni di valore;
  • auditabilità dei percorsi decisionali;
  • possibilità di intervento umano informato (meaningful human oversight).

In questo quadro, la normatività non è un vincolo esterno imposto ex post, ma una proprietà emergente dell’architettura stessa.

Decision making valueladen e tradeoff strutturali

Ogni decisione rilevante in ambito regolatorio implica tradeoff strutturali. Nel caso della previsione del fallimento d’impresa, ad esempio, la letteratura mostra tensioni sistematiche tra:

  • accuratezza complessiva e capacità di identificare eventi rari;
  • minimizzazione dei falsi negativi e contenimento dei falsi positivi;
  • robustezza del modello e sensibilità a comportamenti opportunistici (come l’earnings management).

Tali tensioni non possono essere risolte esclusivamente a livello di modello. Esse richiedono una valutazione normativa circa quale tipo di errore sia socialmente più accettabile, in quale contesto e con quali conseguenze. Un’architettura deliberativa rende questi tradeoff espliciti e discutibili, evitando che vengano cristallizzati implicitamente in scelte di tuning o metriche di performance.

Innovazione come traduzione operativa di principi regolatori

La tesi centrale di questo articolo è che l’innovazione nell’AI per contesti normativi complessi risiede nella traduzione di principi regolatori in scelte architetturali operative. Esempi di tali principi includono:

  • proporzionalità;
  • precauzione;
  • equità procedurale;
  • sostenibilità di lungo periodo;
  • responsabilità distribuita.

Tradurli operativamente significa progettare sistemi in cui:

  • le metriche di performance sono pluralistiche e contestuali;
  • i moduli predittivi sono componibili e confrontabili;
  • le decisioni sono accompagnate da giustificazioni strutturate;
  • l’impatto sistemico è monitorabile nel tempo.

Questa impostazione apre la strada a una concezione dell’AI non come sostituto del giudizio umano, ma come amplificatore riflessivo della capacità deliberativa delle istituzioni.

Framework di architetture deliberative

Il framework proposto si fonda sull’idea che un sistema di AI destinato a operare in contesti normativi complessi debba essere progettato come un’architettura multilivello, in cui funzioni epistemiche, deliberative e normative siano separate ma interconnesse. Tale separazione non è solo una buona pratica ingegneristica, ma una condizione necessaria per garantire governabilità, auditabilità e allineamento valoriale.

Principi architetturali di base

Il framework assume cinque principi di progettazione:

  1. Separazione tra inferenza e decisione: i moduli predittivi non producono decisioni operative, ma output epistemici strutturati (distribuzioni di probabilità, score, scenari).
  1. Pluralismo valutativo: nessuna metrica singola è considerata sufficiente; le performance sono valutate lungo dimensioni multiple e potenzialmente conflittuali.
  1. Esplicitazione dei trade-off: i conflitti tra obiettivi sono modellati come oggetti di prima classe nell’architettura.
  1. Tracciabilità normativa: ogni decisione è riconducibile a principi regolatori e a scelte architetturali verificabili.
  1. Riflessività sistemica: il sistema include meccanismi di monitoraggio degli effetti di lungo periodo delle decisioni.

In particolare, il framework muove dall’assunto che, nei contesti normativi complessi, la qualità di un sistema decisionale non possa essere valutata in base alla sola performance predittiva, ma debba essere ricondotta alla sua capacità di sostenere processi di valutazione informata, giustificabile e istituzionalmente legittima. Ne deriva una concezione architetturale dell’AI come sistema multilivello, in cui la separazione funzionale tra produzione di conoscenza, valutazione dei trade-off e integrazione normativa costituisce una condizione di possibilità della governance. Il primo principio fondativo del framework è la distinzione netta tra inferenza e decisione. I moduli di machine learning, indipendentemente dalla loro complessità o accuratezza, non sono concepiti come decisori automatici, ma come dispositivi epistemici incaricati di produrre rappresentazioni probabilistiche del fenomeno di interesse. Questa scelta architetturale ha una valenza eminentemente normativa: impedisce che preferenze implicite vengano cristallizzate a livello di modello e consente di mantenere aperto lo spazio deliberativo a valle dell’inferenza.

Il livello epistemico-predittivo è dunque caratterizzato da pluralità e ridondanza intenzionale. In domini quali la previsione del fallimento d’impresa, del rischio finanziario o dell’impatto ambientale, modelli differenti — ottimizzati secondo criteri diversi e talvolta in tensione — coesistono all’interno della stessa architettura. Reti neurali, algoritmi genetici, modelli sensibili agli eventi rari o robusti a comportamenti strategici producono output eterogenei che non vengono immediatamente aggregati, ma preservati nella loro diversità informativa. L’output di questo livello non è uno score unidimensionale, bensì un vettore epistemico articolato, che include previsioni multiple, stime di incertezza, indicatori di stabilità e profili di errore.

Tra il livello predittivo e quello propriamente deliberativo si colloca un livello di interpretazione strutturata, la cui funzione non è la mera trasparenza, ma la mediazione cognitiva tra inferenza statistica e giudizio normativo. Tecniche di explainable AI, come le spiegazioni additive basate su valori di Shapley, sono impiegate per rendere confrontabili modelli differenti e per esplicitare il contributo delle variabili rispetto a specifiche dimensioni decisionali. In tal senso, la spiegabilità non è un requisito accessorio, ma una componente architetturale essenziale per trasformare la previsione in informazione deliberabile.

Il cuore innovativo del framework risiede nel livello deliberativo multi-criterio. Qui gli output epistemici vengono integrati in un processo di valutazione che assume esplicitamente la pluralità degli obiettivi e la non commensurabilità dei valori in gioco. Il sistema non cerca di risolvere i conflitti attraverso una funzione di utilità aggregata, ma li rappresenta come tali, consentendo l’esplorazione di scenari alternativi e di frontiere decisionali. La ponderazione dei criteri non è incorporata rigidamente nel codice, ma resa parametrica e modificabile, in modo da riflettere priorità istituzionali mutevoli e contesti decisionali differenti. In tal modo, l’AI non sostituisce il giudizio, ma ne struttura l’esercizio.

Il livello superiore dell’architettura è quello normativo e di governance, nel quale il sistema viene allineato ai principi giuridici e regolatori rilevanti. Proporzionalità, precauzione, non discriminazione e responsabilità non sono trattati come vincoli esterni, ma tradotti in regole di funzionamento del sistema: soglie che attivano revisione umana, requisiti di documentazione delle decisioni, limiti alle configurazioni deliberative ammissibili. La governance non interviene ex post, ma è incorporata by design nell’architettura stessa.

Dall’AI predittiva alla deliberazione regolata: implicazioni operative

L’adozione di un’architettura deliberativa implica un ripensamento radicale del concetto di performance nei sistemi di AI. Nei contesti normativi complessi, la performance non può essere identificata con la massimizzazione di una metrica statistica, ma deve essere valutata in relazione alla capacità del sistema di sostenere decisioni legittime in condizioni di incertezza e conflitto valoriale. Ciò comporta l’accettazione esplicita del fatto che modelli meno accurati possano risultare preferibili se più stabili, più equi o meno suscettibili a effetti distorsivi di lungo periodo.

In questo quadro, l’errore cessa di essere un residuo tecnico da minimizzare e diventa una variabile normativa da governare. Diversi tipi di errore producono conseguenze sociali e istituzionali asimmetriche, e la loro gestione non può essere delegata implicitamente al processo di ottimizzazione. Un’architettura deliberativa consente di associare costi normativi differenziati alle diverse tipologie di errore e di adattare le decisioni al contesto specifico in cui esse vengono assunte, rendendo esplicite le priorità sottostanti. Particolarmente rilevante è l’allineamento tra decision making algoritmico e sostenibilità sistemica. Nei domini in cui le decisioni hanno effetti cumulativi e di lungo periodo, l’ottimizzazione miopica può erodere valore complessivo e compromettere obiettivi strategici. Il framework proposto consente di integrare indicatori di sostenibilità come criteri deliberativi a pieno titolo e di monitorare nel tempo gli effetti sistemici delle decisioni, trasformando l’AI in uno strumento di governo della complessità piuttosto che di semplice efficienza operativa.

Dal punto di vista regolatorio, questa impostazione suggerisce un cambio di paradigma. La regolazione dell’AI non dovrebbe limitarsi a imporre requisiti di trasparenza o accuratezza, ma dovrebbe incentivare esplicitamente architetture capaci di rendere visibili e governabili i trade-off di valore. In tal senso, la regolazione non si configura come un vincolo all’innovazione, ma come una condizione abilitante per lo sviluppo di sistemi di intelligenza artificiale istituzionalmente robusti e socialmente sostenibili.

Riconsiderare il concetto di performance

In un’architettura deliberativa, la performance di un sistema di AI non coincide con l’ottimizzazione di una metrica statistica. Essa va ridefinita come capacità del sistema di supportare decisioni legittime in contesti di conflitto valoriale. Ciò implica accettare che:

  • modelli meno accurati possano essere preferibili se più stabili o equi;
  • l’aumento di precisione possa comportare costi normativi non accettabili;
  • l’errore non sia solo un fatto tecnico, ma una scelta politica implicita.

Gestione esplicita dell’errore come scelta normativa

Nei contesti regolatori, il tipo di errore conta più della sua frequenza. Un’architettura deliberativa consente di:

  • distinguere errori critici da errori tollerabili;
  • associare diversi costi normativi a diverse tipologie di errore;
  • adattare le decisioni al contesto (macroprudenziale vs microprudenziale, prevenzione vs sanzione).

Questo approccio supera la neutralità apparente delle metriche standard e rende l’errore una variabile deliberata.

Allineamento con sostenibilità e impatto sistemico

Nei domini in cui le decisioni hanno effetti di lungo periodo, come finanza sostenibile, transizione ecologica, politiche industriali, l’architettura deve includere feedback sistemici. Il framework proposto consente di:

  • integrare indicatori di sostenibilità come criteri deliberativi;
  • monitorare effetti cumulativi delle decisioni;
  • evitare ottimizzazioni miopi che erodono valore nel lungo periodo.

Implicazioni per policy e regolazione dell’AI

Infine, il framework suggerisce un cambio di paradigma anche per il regolatore. Piuttosto che focalizzarsi esclusivamente su requisiti di trasparenza o accuratezza, la regolazione dovrebbe:

  • incentivare architetture deliberative;
  • richiedere esplicitazione dei trade-off;
  • valutare i sistemi in base alla loro capacità di supportare decisioni responsabili.

In questa prospettiva, la regolazione dell’AI non è un freno all’innovazione, ma un dispositivo abilitante per forme più mature di intelligenza artificiale istituzionale.

L’AI come tecnologia costituzionale del decision making

L’argomentazione sviluppata in questo contributo converge verso una tesi chiara: nei contesti normativi complessi, l’intelligenza artificiale non può essere compresa né governata come una tecnologia di mera ottimizzazione, ma deve essere progettata come un’infrastruttura cognitiva deliberativa, capace di rendere visibili, discutibili e istituzionalmente controllabili i trade-off di valore che strutturano ogni decisione rilevante.

La neutralità algoritmica, intesa come assenza di scelte normative, non è solo irraggiungibile, ma concettualmente fuorviante. Ogni sistema di AI incorpora una visione del mondo, una gerarchia di priorità e una teoria implicita della responsabilità; la differenza cruciale non è tra sistemi value-free e value-laden, ma tra sistemi che occultano tali assunzioni e sistemi che le rendono esplicite. L’innovazione più significativa non risiede nell’aumento incrementale della capacità predittiva, né nell’adozione di modelli sempre più complessi, bensì nella traduzione operativa dei principi regolatori in scelte architetturali. Separare inferenza e decisione, preservare il pluralismo epistemico, strutturare la deliberazione multi-criterio e incorporare la governance nel design del sistema sono tutte scelte che definiscono un diverso paradigma di AI: non un decisore automatico, ma un dispositivo istituzionale di supporto al giudizio.

Il framework di architetture deliberative proposto consente di ricollocare le tecniche di machine learning, incluse quelle più avanzate e performanti, all’interno di un disegno complessivo orientato alla legittimità, alla responsabilità e alla sostenibilità sistemica. In tale disegno, la spiegabilità è una condizione cognitiva della deliberazione; l’errore non è un residuo tecnico, ma una variabile normativa.

Gli impatti

Le implicazioni di questo approccio sono rilevanti tanto per i progettisti di sistemi di AI quanto per i regolatori e i decisori pubblici. Per i primi, esso richiede un cambio di prospettiva: progettare non solo modelli, ma architetture deliberative capaci di sostenere il confronto tra criteri in conflitto. Per i secondi, implica superare una regolazione focalizzata su requisiti puntuali di trasparenza o accuratezza, a favore di una valutazione più sostanziale della capacità dei sistemi di supportare decisioni responsabili in condizioni di incertezza.

In ultima analisi, concepire l’AI come infrastruttura cognitiva deliberativa significa riconoscerne il ruolo emergente di tecnologia costituzionale del decision making contemporaneo. Non una tecnologia che decide al posto delle istituzioni, ma una tecnologia che contribuisce a ridefinire le condizioni entro cui le decisioni vengono assunte, giustificate e contestate.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x