la costituzione dell’AI

L’AI cambia il potere: perché la legalità democratica è sotto stress



Indirizzo copiato

L’Intelligenza Artificiale non è solo una novità tecnologica: sta cambiando il modo in cui si esercita il potere e mette alla prova regole, responsabilità e controlli della democrazia. Quando si passa dalla decisione presa da persone e istituzioni a quella prodotta da sistemi informatici, spesso diventa più difficile capire chi decide davvero, su quali basi e chi ne risponde

Pubblicato il 28 gen 2026

Oreste Pollicino

professore ordinario di diritto costituzionale, Università Bocconi e founder Oreste Pollicino Advisory



pollicino digital omnibus
ORESTE POLLICINO – PROFESSORE DI DIRITTO COSTITUZIONALE ALLA BOCCONI

L’Intelligenza Artificiale rappresenta oggi uno dei più potenti fattori di stress per le categorie fondamentali del diritto costituzionale. Non perché introduca semplicemente nuove tecnologie, ma perché modifica le condizioni materiali entro cui si forma, si esercita e si giustifica il potere.

IA e legalità costituzionale: perché è uno stress test del potere

Il dibattito pubblico tende ancora a leggere l’IA prevalentemente come una questione di efficienza, innovazione o competitività economica. Anche quando emergono preoccupazioni giuridiche, queste si concentrano spesso su profili settoriali: protezione dei dati personali, discriminazioni algoritmiche, sicurezza informatica. Tutti temi rilevanti, ma parziali.

Ciò che rischia di rimanere sullo sfondo è una questione più profonda: l’IA incide direttamente sulla struttura della decisione pubblica, e quindi sulla forma della legalità democratica. In altre parole, non siamo di fronte soltanto a un problema di “uso” della tecnologia, ma a un problema di costituzionalizzazione (o de-costituzionalizzazione) del potere.

Il costituzionalismo moderno si è sviluppato attorno a una premessa chiave: il potere è legittimo solo se esercitato secondo forme predeterminate, visibili e controllabili. L’IA, al contrario, tende a operare attraverso architetture decisionali opache, distribuite, spesso transnazionali, che sfuggono ai tradizionali meccanismi di imputazione giuridica.

La vera sfida dell’IA, dunque, non è (solo) la tutela dei diritti fondamentali ex post, ma la tenuta della legalità costituzionale ex ante: la capacità dell’ordinamento di governare le condizioni strutturali della decisione automatizzata.

Decisione computazionale e crisi dell’imputazione giuridica

Il diritto costituzionale classico è costruito attorno a una nozione ben precisa di decisione: una scelta imputabile a un soggetto identificabile, fondata su una procedura, motivabile e sindacabile.

Questa idea attraversa l’intero edificio costituzionale:

  • la legge è decisione del Parlamento;
  • l’atto amministrativo è decisione dell’autorità pubblica;
  • la sentenza è decisione del giudice.

In tutti questi casi, la decisione è personalizzata, anche quando è il risultato di un processo collettivo. C’è sempre un centro di imputazione della responsabilità.

L’IA incrina questo schema.

I sistemi algoritmici avanzati – in particolare quelli basati su machine learning – non si limitano a eseguire istruzioni predeterminate, ma producono output decisionali attraverso processi statistici e probabilistici difficilmente ricostruibili in termini causali tradizionali. La decisione non è più il risultato lineare di una volontà giuridica, ma l’esito di una catena complessa di addestramento, selezione dei dati, ottimizzazione delle funzioni obiettivo.

Questo spostamento ha conseguenze costituzionali rilevanti:

  • la decisione diventa depersonalizzata;
  • la motivazione si trasforma in una spiegazione tecnica, spesso incompleta;
  • la responsabilità si frammenta tra sviluppatori, fornitori, utilizzatori, autorità pubbliche.

Il rischio non è l’errore algoritmico in sé, ma la normalizzazione di decisioni giuridicamente rilevanti senza un vero soggetto responsabile.

IA e legalità costituzionale tra forma e sostanza

Il principio di legalità è uno dei pilastri dello Stato costituzionale. Tradizionalmente, esso assolve a tre funzioni:

  • vincolare il potere alla legge;
  • garantire prevedibilità e certezza;
  • rendere il potere controllabile.

Nel contesto dell’IA, tutte e tre queste funzioni entrano in tensione.

Da un lato, l’uso di sistemi algoritmici può essere formalmente autorizzato dalla legge. Dall’altro, la legge spesso non governa realmente il funzionamento concreto dell’algoritmo, limitandosi a legittimarne l’impiego.

Si crea così una frattura tra:

  • legalità formale (l’uso dell’IA è previsto o consentito);
  • legalità sostanziale (le modalità effettive della decisione restano opache).

Questa frattura è particolarmente problematica in ambiti ad alta intensità costituzionale: welfare, sicurezza, giustizia, lavoro, istruzione. In questi settori, l’automazione decisionale rischia di trasformare la legalità in una cornice simbolica, incapace di incidere sull’architettura reale del potere.

Sovranità decisionale e spostamento del potere fuori dallo spazio pubblico

Uno degli effetti meno discussi dell’IA è la sua incidenza sulla sovranità, intesa non come semplice supremazia statale, ma come capacità di determinare le regole fondamentali della convivenza.

Quando decisioni cruciali vengono delegate a sistemi algoritmici:
la sovranità non scompare; si ricolloca.

Spesso, questa ricollocazione avviene fuori dallo spazio pubblico tradizionale, verso attori privati che progettano, addestrano e controllano le infrastrutture digitali. Il risultato è una forma di potere tecnicamente efficiente ma costituzionalmente debole.

Non si tratta di una “sovranità algoritmica” in senso proprio, ma di una sovranità senza costituzione: un potere che incide sulle vite delle persone senza essere pienamente sottoposto ai principi di responsabilità, proporzionalità, eguaglianza.

Il lavoro come laboratorio della crisi costituzionale

Il mondo del lavoro è uno dei principali campi di sperimentazione dell’IA. Sistemi di valutazione automatizzata, gestione algoritmica delle performance, selezione del personale basata su modelli predittivi stanno trasformando profondamente il rapporto tra individuo e organizzazione.

Dal punto di vista costituzionale, questo fenomeno è cruciale. Il lavoro non è solo un fattore economico, ma uno spazio di integrazione sociale e politica. Quando il lavoratore è governato da un algoritmo opaco, la sua posizione giuridica cambia radicalmente:

  • diminuisce la possibilità di contestare le decisioni;
  • si riduce la comprensione dei criteri valutativi;
  • si attenua la capacità di partecipazione.

In questo senso, l’IA applicata al lavoro non solleva solo questioni di tutela individuale, ma incide sulla qualità democratica dell’ordinamento.

Dal controllo dell’atto al controllo dell’architettura algoritmica

Il diritto amministrativo e costituzionale sono storicamente orientati al controllo dell’atto: si sindaca la decisione finale, non il processo tecnico che l’ha prodotta.

Con l’IA, questo approccio diventa insufficiente. Il vero potere non risiede più nell’atto isolato, ma nell’architettura algoritmica che rende possibili certe decisioni e ne esclude altre.

Governare l’IA significa quindi spostare l’attenzione:

  • dall’output al design;
  • dalla singola decisione alla struttura del sistema;
  • dalla responsabilità individuale alla responsabilità organizzativa.

Questo cambio di paradigma richiede un ripensamento profondo degli strumenti del costituzionalismo, inclusi quelli di matrice europea, come l’AI Act, che introduce per la prima volta una regolazione orientata al rischio sistemico.

Trasparenza e spiegabilità: oltre l’accesso tecnico

Uno dei mantra del dibattito sull’IA è la trasparenza. Tuttavia, la trasparenza algoritmica rischia di diventare un concetto illusorio se intesa come mera accessibilità tecnica al codice o ai dati.

Dal punto di vista costituzionale, la trasparenza rilevante non è quella per gli ingegneri, ma quella per il cittadino. Una spiegazione che non consente di comprendere, contestare o influenzare la decisione non soddisfa le esigenze della democrazia costituzionale.

Occorre quindi superare il modello puramente informativo e sviluppare un modello relazionale e procedurale della trasparenza, in cui la spiegabilità è funzionale all’esercizio dei diritti e non solo alla compliance formale.

FRIA: una funzione costituzionale, non solo regolatoria

In questo contesto, le valutazioni d’impatto sui diritti fondamentali (FRIA) assumono una rilevanza che va oltre la tecnica regolatoria. Esse rappresentano un possibile ponte tra tecnologia e costituzione.

Se correttamente progettate, le FRIA possono:

  • rendere visibili i rischi sistemici;
  • anticipare i conflitti costituzionali;
  • reinserire la decisione algoritmica in uno spazio di responsabilità pubblica.

Il rischio, tuttavia, è che le FRIA diventino esercizi burocratici, privi di reale incidenza. Per evitarlo, occorre riconoscerne esplicitamente la funzione costituzionale, integrandole nei processi decisionali pubblici in modo vincolante.

La riserva costituzionale della decisione umana

Alla luce di quanto detto, emerge una questione centrale: esistono ambiti in cui la decisione deve restare umana per ragioni costituzionali?

La risposta non può essere ideologica. Non si tratta di opporsi all’IA in quanto tale, ma di riconoscere che alcune decisioni:

  • incidono direttamente sulla dignità;
  • richiedono un giudizio di valore;
  • presuppongono responsabilità politica.

In questi casi, è legittimo parlare di una riserva costituzionale di decisione umana, non come rifiuto della tecnologia, ma come condizione di compatibilità democratica.

Conclusioni: costituzionalizzare l’IA o accettare una legalità ridotta

L’Intelligenza Artificiale non è un destino inevitabile, ma una scelta politica e giuridica. Il modo in cui la integriamo nei processi decisionali dirà molto sul futuro del costituzionalismo.

La vera alternativa non è tra innovazione e regolazione, ma tra:

  • una tecnologia costituzionalizzata, inserita in un quadro di responsabilità democratica;
  • e una tecnologia che erode silenziosamente le fondamenta della legalità costituzionale.

In questo senso, l’IA non chiede solo nuove regole.

Chiede una nuova consapevolezza costituzionale.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x