l’analisi

AI Act e sovranità normativa: la strategia europea sull’intelligenza artificiale



Indirizzo copiato

Con l’AI Act l’Europa prova a trasformare il diritto in uno strumento di sovranità normativa, per governare l’intelligenza artificiale secondo i propri principi costituzionali. Una strategia che punta a incidere sugli equilibri globali tra tecnologia, potere e regolazione

Pubblicato il 25 mar 2026

Oreste Pollicino

professore ordinario di diritto costituzionale, Università Bocconi e founder Oreste Pollicino Advisory



pollicino digital omnibus
ORESTE POLLICINO – PROFESSORE DI DIRITTO COSTITUZIONALE ALLA BOCCONI
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Negli ultimi mesi il dibattito sull’intelligenza artificiale ha assunto sempre più chiaramente i tratti di una questione di sovranità. Non soltanto sovranità tecnologica o industriale, ma sovranità normativa. E quindi, in ultima analisi, sovranità costituzionale.

Perché l’AI Act segna la svolta della sovranità europea

L’Europa sta tentando di emanciparsi da una dipendenza tecnologica strutturale dagli Stati Uniti, ma questa emancipazione non passa soltanto attraverso investimenti, cloud sovrani o politiche industriali. Passa soprattutto attraverso il diritto. Il progetto europeo continua infatti a muoversi lungo una traiettoria peculiare: governare la tecnologia attraverso la regolazione.

Il punto di arrivo più evidente di questa strategia è l’AI Act, il primo tentativo sistematico di costruire un regime giuridico per l’intelligenza artificiale su scala continentale. Un modello regolatorio che non si limita a disciplinare i rischi dell’AI, ma che ambisce a definire i confini costituzionali entro cui l’innovazione può svilupparsi.

La tensione tra AI Act e ordinamenti transatlantici

Tuttavia, proprio mentre l’Europa consolida questo approccio regolatorio, si apre una nuova fase di tensione tra ordinamenti. Una tensione che non riguarda soltanto la tradizionale frizione transatlantica emersa negli anni scorsi con il GDPR e con il tema del trasferimento dei dati personali, ma che oggi si ripropone su un terreno ancora più delicato: quello dei modelli di intelligenza artificiale generativa.

Il caso recentemente emerso intorno alla società Anthropic rappresenta, da questo punto di vista, un segnale particolarmente interessante. Non tanto per i dettagli specifici della controversia, quanto per ciò che essa rivela sul mutamento degli equilibri tra potere tecnologico e potere normativo.

Dalle piattaforme globali ai vincoli dei regimi normativi

Per anni la narrazione dominante ha suggerito che le grandi piattaforme digitali fossero in grado di muoversi in uno spazio quasi extraterritoriale, capace di aggirare o neutralizzare la sovranità degli Stati. Oggi questo schema appare sempre meno convincente. Le piattaforme restano attori globali potentissimi, ma si trovano sempre più spesso intrappolate dentro una pluralità di regimi normativi divergenti. L’AI rende questo fenomeno ancora più evidente.

I grandi modelli linguistici sono infrastrutture tecnologiche globali per definizione: vengono sviluppati su scala planetaria, addestrati su dataset transnazionali e distribuiti attraverso architetture cloud globali. Tuttavia il loro funzionamento si scontra con ordinamenti giuridici che restano territoriali, frammentati e profondamente differenziati.

Come l’AI Act si confronta con la logica globale dell’innovazione

Qui emerge una tensione strutturale tra due logiche. Da un lato la logica dell’innovazione tecnologica, che tende naturalmente all’unificazione degli spazi digitali. Dall’altro la logica del costituzionalismo, che continua a esprimersi attraverso comunità politiche e ordinamenti giuridici distinti.

L’Europa ha scelto di affrontare questa tensione attraverso la costruzione di quello che potremmo definire un vero e proprio costituzionalismo digitale. Un tentativo di tradurre i principi fondamentali dell’ordinamento europeo – dignità, libertà, uguaglianza, pluralismo – dentro l’architettura della regolazione tecnologica. L’AI Act è l’esempio più evidente di questa ambizione.

La piramide del rischio nell’AI Act europeo

La struttura piramidale del rischio che caratterizza il regolamento europeo non rappresenta semplicemente una tecnica regolatoria. È anche un modo per incorporare dentro il diritto positivo una visione costituzionale dell’innovazione tecnologica.

Divieti e limiti per tutelare i diritti fondamentali

Alcuni usi dell’intelligenza artificiale vengono vietati perché incompatibili con i diritti fondamentali. Altri vengono sottoposti a obblighi stringenti di trasparenza, accountability e controllo umano.

L’espansione dello spazio regolatorio europeo

Questa architettura normativa si inserisce in una tradizione europea che negli ultimi anni ha progressivamente ampliato il proprio raggio d’azione: dal GDPR al Digital Services Act, dal Digital Markets Act al Data Governance Act. Tutti strumenti che condividono una stessa ambizione di fondo: trasformare il diritto europeo in uno spazio regolatorio capace di incidere sugli equilibri globali del potere digitale.

Oltre il Brussels effect: l’AI Act come strategia geopolitica

Il fenomeno è stato spesso descritto con l’espressione Brussels effect. Ma oggi appare sempre più evidente che non si tratta soltanto di un effetto regolatorio. Si tratta di una vera e propria strategia geopolitica del diritto.

In questo scenario il rapporto con gli Stati Uniti diventa inevitabilmente più complesso. Negli Stati Uniti l’approccio alla regolazione dell’AI resta per molti aspetti più frammentato e pragmatico. L’attenzione si concentra soprattutto sugli aspetti di sicurezza nazionale, di competitività economica e di responsabilità delle imprese, mentre il riferimento ai diritti fondamentali svolge un ruolo meno sistematico rispetto all’impianto europeo.

Quando l’AI Act incontra modelli regolatori incompatibili

Questa divergenza non è necessariamente un problema. Può anzi rappresentare una forma di pluralismo regolatorio utile a sperimentare modelli diversi di governance tecnologica. Ma diventa problematica quando i sistemi normativi iniziano a produrre obblighi incompatibili tra loro. È qui che emergono le nuove geometrie del potere digitale.

Le grandi imprese tecnologiche si trovano oggi a navigare tra ordinamenti che non solo regolano in modo diverso la stessa tecnologia, ma che spesso lo fanno perseguendo obiettivi politici e costituzionali differenti. In alcuni casi questo può generare veri e propri conflitti normativi.

L’AI Act e il controllo giuridico sull’architettura tecnica

Il punto decisivo è che questi conflitti non riguardano più soltanto la protezione dei dati o la moderazione dei contenuti, ma l’infrastruttura stessa dell’intelligenza artificiale. Quando un modello generativo viene addestrato, distribuito o utilizzato all’interno dell’Unione europea, esso entra in uno spazio giuridico che pretende di condizionarne l’architettura tecnica.

La conformità al diritto europeo non riguarda soltanto l’uso dell’AI, ma sempre più spesso la sua progettazione. In altre parole, la regolazione europea non si limita a intervenire ex post sugli effetti delle tecnologie. Cerca di incidere ex ante sul design dei sistemi. Questo passaggio segna un cambiamento di paradigma.

Diritto, tecnologia e sovranità nell’era dell’intelligenza artificiale

Per molto tempo il diritto ha inseguito l’innovazione tecnologica, cercando di adattare categorie giuridiche esistenti a fenomeni nuovi. Oggi, almeno in Europa, si tenta un’operazione diversa: utilizzare il diritto per orientare lo sviluppo della tecnologia stessa.

La domanda che si apre è allora inevitabilmente costituzionale. Fino a che punto un ordinamento giuridico può pretendere di modellare l’architettura tecnica delle infrastrutture digitali globali? E cosa accade quando più ordinamenti avanzano pretese normative concorrenti su quelle stesse infrastrutture?

Le controversie emergenti intorno ai sistemi di AI generativa suggeriscono che stiamo entrando in una fase in cui queste domande non sono più soltanto teoriche. La sovranità nel mondo digitale non si esercita più soltanto attraverso il controllo territoriale o militare. Si esercita sempre più attraverso il controllo delle infrastrutture normative che definiscono le condizioni di funzionamento delle tecnologie.

L’Europa ha scelto di giocare questa partita attraverso il diritto. Se questa strategia riuscirà davvero a ridisegnare gli equilibri globali del potere digitale resta una questione aperta. Ma una cosa appare sempre più chiara: nell’era dell’intelligenza artificiale la regolazione non è soltanto uno strumento tecnico di governance. È uno degli spazi in cui si ridefiniscono i confini della sovranità.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x