Non è più il tempo dell’annuncio normativo, ma quello – molto più esigente – della sua messa a terra. È dentro questa transizione che va letto il passaggio parlamentare sull’AI Omnibus: non una riscrittura dell’AI Act, ma un tentativo, più sottile e per molti versi più rivelatore, di verificare se l’architettura regolatoria costruita negli ultimi anni sia davvero in grado di funzionare nel contesto reale in cui è destinata a operare.
Indice degli argomenti
Dall’ambizione costituente all’effettività: la sfida dell’AI Act
Dopo una stagione segnata da una forte ambizione costituente – quella di definire un modello europeo di governance dell’intelligenza artificiale capace di coniugare innovazione, mercato e diritti fondamentali – il baricentro si sposta inevitabilmente su un terreno diverso: quello dell’effettività. Questo passaggio non è neutro. Perché implica, in filigrana, una domanda che finora è rimasta sullo sfondo del dibattito: non se l’AI debba essere regolata, ma se la regolazione così costruita sia effettivamente applicabile senza produrre effetti controintuitivi.
L’AI Act, nella sua formulazione originaria, è il risultato di una tensione esplicita tra esigenze diverse: armonizzare il mercato interno, garantire elevati livelli di protezione dei diritti, favorire l’innovazione. Ma proprio questa ambizione sistemica ha prodotto un impianto normativo inevitabilmente complesso, che ora deve confrontarsi con la prova più difficile: l’implementazione in contesti organizzativi, tecnologici e settoriali profondamente eterogenei.
La “regolazione riflessiva”: quando il diritto si interroga su se stesso
È qui che l’Omnibus acquista il suo significato più profondo. Non è un semplice intervento di semplificazione, né un cedimento rispetto all’impianto originario. È piuttosto il luogo in cui la regolazione europea prende atto dei propri limiti operativi e tenta di correggerli senza rinunciare alla propria ambizione.
In questo senso, si può dire che l’Unione europea entra in una fase di “regolazione riflessiva”: una regolazione che non si limita a disciplinare il fenomeno tecnologico, ma che inizia a interrogarsi sulla propria capacità di governarlo in modo efficace.
Un ecosistema normativo già stratificato: il rischio di over-regulation
Questo spostamento emerge con particolare chiarezza se si considera il contesto normativo in cui l’AI Act si inserisce. L’intelligenza artificiale non è regolata in un vuoto giuridico, ma all’interno di un ecosistema già densamente stratificato: GDPR per la protezione dei dati personali, DSA e DMA per le piattaforme, normativa sulla sicurezza dei prodotti, discipline settoriali nei servizi finanziari, nella sanità, nell’energia. L’AI Act si sovrappone a questo tessuto, introducendo un livello ulteriore di obblighi, spesso trasversali. Il risultato, almeno nella percezione degli operatori, è il rischio di duplicazioni, incoerenze e incertezza applicativa.
L’Omnibus interviene esattamente su questo punto di frizione. Non per smantellare il sistema, ma per riallinearlo. Per evitare che la sovrapposizione di strumenti normativi produca un effetto di “over-regulation” che, paradossalmente, finirebbe per indebolire proprio quegli obiettivi di tutela e innovazione che l’AI Act intende perseguire. In questo senso, la semplificazione non è sinonimo di deregolazione, ma di selettività: ridurre dove necessario, chiarire dove possibile, coordinare dove indispensabile.
Il diritto insegue la tecnologia: verso una regolazione dialogica
Questo comporta anche una trasformazione del modo in cui il diritto si rapporta alla tecnologia. Nella fase costituente, il diritto tende a precedere la tecnologia, a definirne i confini e a orientarne lo sviluppo. Nella fase attuale, invece, il diritto è costretto a inseguire – o meglio, a riadattarsi – a pratiche tecnologiche già in atto, a modelli di business consolidati, a infrastrutture tecniche difficilmente modificabili nel breve periodo. La regolazione diventa così meno prescrittiva e più dialogica, meno fondata su categorie astratte e più attenta alle condizioni concrete di applicazione.
Il doppio binario del Parlamento europeo: incisività e selettività
È in questa chiave che va letta anche la posizione del Parlamento europeo. Il Parlamento non interviene per mettere in discussione i pilastri dell’AI Act, ma per correggerne alcuni aspetti che rischiano di comprometterne l’efficacia. E lo fa attraverso scelte che, prese singolarmente, possono apparire tecniche, ma che nel loro insieme delineano un vero e proprio riposizionamento della regolazione. Da un lato, vi è la volontà di mantenere alta l’attenzione su usi dell’AI che incidono direttamente sulla dignità e sui diritti fondamentali delle persone, come dimostra il divieto relativo ai sistemi di “nudification”. Qui la regolazione si fa concreta, riconoscendo che alcune applicazioni tecnologiche non possono essere lasciate alla sola logica del mercato o dell’autoregolazione.
La tensione tra universalismo e contestualizzazione
Dall’altro lato, però, emerge con forza l’esigenza di ridurre l’estensione di categorie regolatorie troppo ampie, come quella dei sistemi ad alto rischio, e di evitare sovrapposizioni con il diritto settoriale. Questa doppia direzione – maggiore incisività su alcuni usi, maggiore selettività nell’ambito di applicazione – è il tratto distintivo dell’Omnibus. E riflette una tensione più ampia che attraversa oggi la regolazione dell’AI: quella tra universalismo e contestualizzazione. L’AI Act nasce con una vocazione universalistica, nel tentativo di costruire un quadro unitario per una tecnologia trasversale. L’Omnibus introduce elementi di contestualizzazione, riconoscendo che non tutte le applicazioni dell’AI pongono gli stessi problemi e che non tutte richiedono lo stesso livello di intervento.
Tempistiche, trasparenza e AI literacy: tre nodi aperti
Anche la scelta sulle tempistiche si inserisce in questa dinamica. Optando per date fisse, il Parlamento privilegia la certezza giuridica rispetto alla flessibilità. Ma questa scelta, se da un lato offre prevedibilità agli operatori, dall’altro rischia di non tenere conto delle differenze nei livelli di maturità tecnologica e organizzativa. Ancora una volta, emerge la tensione tra una regolazione pensata in termini uniformi e la realtà di un ecosistema profondamente eterogeneo. Lo stesso vale per gli obblighi di trasparenza e per la AI literacy. Nel primo caso, si accelera l’implementazione di strumenti tecnici – come il watermarking – che rendono visibile l’intervento dell’AI, trasformando la trasparenza in una condizione operativa del mercato. Nel secondo, si attenua l’obbligo formale, riconoscendo che la diffusione delle competenze non può essere imposta solo per via normativa, ma richiede un investimento organizzativo e culturale più ampio.
Verso una regolazione centrata sulle condizioni di funzionamento
Nel complesso, l’AI Omnibus appare come un tentativo di passare da una regolazione dell’AI centrata sulle categorie a una regolazione centrata sulle condizioni di funzionamento. Non si tratta più soltanto di classificare i sistemi in base al rischio, ma di assicurare che il sistema normativo nel suo insieme sia in grado di operare senza generare contraddizioni o inefficienze. È un passaggio meno visibile, ma forse decisivo.
La partita si gioca nei triloghi: credibilità della governance europea in bilico
La partita, tuttavia, è ancora aperta e si giocherà nei triloghi. Ed è lì che si vedrà se questo tentativo di riallineamento riuscirà a tradursi in un equilibrio stabile tra ambizione normativa e sostenibilità operativa. Perché è in questo spazio – tra ciò che il diritto prescrive e ciò che gli attori sono concretamente in grado di fare – che si decide oggi la credibilità della governance europea dell’intelligenza artificiale.










