digital omnibus

Accordo su Digital Omnibus, così l’Europa rinvia gli obblighi AI Act



Indirizzo copiato

L’accordo provvisorio sul Digital Omnibus rinvia obblighi chiave dell’AI Act, alleggerisce responsabilità dirette e rafforza la logica della semplificazione. Per sistemi ad alto rischio, AI literacy e dati sensibili, Bruxelles conserva il lessico dei diritti ma ne ritarda la tutela, mentre riduce l’attrito con Big Tech e Washington

Pubblicato il 8 mag 2026

Alessandro Longo

Direttore agendadigitale.eu

Francesca Niola

Research Fellow Legal manager @ Aisma srl



ai act rinvio
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

L’Europa aveva promesso una costituzione dell’intelligenza artificiale. Con il Digital Omnibus, rischia di consegnare alle imprese una proroga, alle piattaforme una tregua, ai cittadini una tutela rinviata.

La conferma di un timore a lungo ventilato dagli esperti (anche su questo giornale) è arrivata ieri: la presidenza del Consiglio Ue e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio su una proposta di semplificazione di alcune norme sul cosiddetto Digital Omnibus on AI cd “Omnibus VII”. Ora manca solo accordo formale tra le due istituzioni.

Digital Omnibus e AI Act: la semplificazione come arretramento

La semplificazione voluta incide sul calendario di applicazione dell’AI Act e sposta in avanti – dal 2026 al 2027 o anche in alcuni casi al 2028, vedi tabella sotto – gli obblighi sui sistemi ad alto rischio: attenua responsabilità dirette, trasforma alcuni doveri in formule di incoraggiamento pubblico. Il testo conserva il lessico dei diritti fondamentali, ma ne diluisce la forza operativa proprio nel momento decisivo della loro attuazione.

Gli obblighi rinviati dall’EU

Ambito / obbligoData prevista nell’AI Act vigenteNuova data prevista dall’accordoNote operative
Sistemi di IA ad alto rischio per casi d’uso specifici, come biometria, infrastrutture critiche, istruzione, occupazione, law enforcement, frontiere2 agosto 20262 dicembre 2027Slittano le regole per i sistemi high-risk “stand-alone”
Sistemi di IA ad alto rischio integrati in prodotti regolati o usati come componenti di sicurezza2 agosto 20272 agosto 2028Riguarda i sistemi incorporati in prodotti soggetti a normativa settoriale UE su sicurezza e vigilanza del mercato
Obblighi di watermarking / trasparenza sui contenuti generati dall’IA2 agosto 20262 dicembre 2026L’accordo anticipa anche rispetto alla proposta iniziale della Commissione, che parlava di 2 febbraio 2027
AI regulatory sandboxes nazionali2 agosto 20262 agosto 2027È un rinvio che riguarda soprattutto le autorità competenti degli Stati membri

Cosa non slitta: restano già applicabili dal 2 febbraio 2025 i divieti sulle pratiche di IA proibite e le regole generali; resta inoltre separata il blocco sulle app “nudifier”, che secondo l’accordo dovrà applicarsi dal 2 dicembre 2026.

Stretta su deepfake

Tra le novità più rilevanti dell’accordo provvisorio del 7 maggio 2026 c’è il divieto esplicito dei sistemi di IA usati per creare deepfake sessuali non consensuali e materiale di abuso sessuale su minori. In concreto, la stretta colpisce sia chi mette sul mercato applicazioni progettate per “spogliare” le persone o generare contenuti sessualmente espliciti senza consenso, sia chi le distribuisce senza adeguate misure di sicurezza, sia infine gli utilizzatori che le impiegano per questi scopi.

È un passaggio politicamente significativo perché introduce nell’AI Act una proibizione mirata su uno degli usi più controversi dell’IA generativa, spostando l’attenzione dalla sola trasparenza dei contenuti sintetici alla messa al bando di pratiche ritenute inaccettabili per dignità, diritti e tutela dei minori. Secondo l’intesa raggiunta tra Parlamento e Consiglio, il divieto dovrebbe applicarsi dal 2 dicembre 2026, una volta completata l’adozione formale del testo.

Al netto di questo, la categoria attorno a cui la Commissione costruisce l’intera architettura della proposta è quella della “semplificazione”. Il termine percorre il documento come una formula ad effetto rassicurante: riduzione degli oneri, chiarezza implementativa, alleggerimento burocratico, producendo immediatamente una conseguenza politica di rilievo. Chi esprime perplessità rischia di apparire ostile all’innovazione, distante dalle esigenze delle imprese, incapace di leggere la velocità della competizione globale. Qui emerge il primo nodo di ordine costituzionale: nel diritto dell’economia digitale, la semplificazione ha assunto una funzione ideologica precisa. La categoria smette di indicare una migliore qualità normativa e diventa lo strumento attraverso cui il regolatore giustifica l’arretramento dell’intensità prescrittiva.

AI Act e sistemi ad alto rischio: una norma sospesa

Il punto più rilevante riguarda il cuore stesso dell’AI Act: i sistemi ad alto rischio. La proposta introduce un meccanismo che subordina l’effettiva applicazione degli obblighi alla disponibilità di standard armonizzati, linee guida e strumenti tecnici predisposti dalla Commissione. La trasformazione che ne deriva tocca la struttura stessa del diritto europeo: la legge perde autosufficienza temporale. L’efficacia delle norme cessa di dipendere dalla volontà legislativa democraticamente formata e viene condizionata alla maturazione di condizioni tecnico-amministrative future. Gli obblighi più gravosi slittano così sino al momento in cui la Commissione dichiarerà disponibili gli strumenti necessari alla compliance, con un ulteriore periodo transitorio successivo alla decisione stessa. Il regolatore costruisce una norma sospesa, una disciplina che attende la propria infrastruttura tecnica prima di dispiegare i propri effetti.

Dentro questo meccanismo si intravede una mutazione culturale profonda. La tradizione giuridica europea aveva sempre assegnato alla tecnica una funzione servente rispetto alla norma: lo standard attuava il precetto. Qui il rapporto si capovolge: il precetto attende la tecnica. L’ordine giuridico entra in una condizione di dipendenza funzionale dall’ecosistema industriale che dovrebbe disciplinare.

Digital Omnibus, Big Tech e rapporti con Washington

Il dato politico acquista ulteriore rilievo alla luce del contesto geopolitico. Le grandi piattaforme americane hanno percepito il modello europeo come una minaccia strategica alla velocità di sviluppo dei modelli general purpose e alla libertà di espansione commerciale. L’amministrazione Trump ha storicamente interpretato le regolazioni europee del digitale come strumenti protezionistici mascherati da tutela dei diritti. Dentro il Digital Omnibus affiora il tentativo europeo di ridurre l’attrito con Washington e con l’ecosistema tecnologico statunitense. Bruxelles conserva la retorica della sovranità digitale mentre alleggerisce proprio i segmenti della disciplina maggiormente osteggiati dalle Big Tech americane.

AI Act, AI literacy e monitoraggio: obblighi più leggeri

La riscrittura dell’articolo sull’AI literacy si veste a questo proposito un significato emblematico. L’AI Act originario imponeva a provider e deployer un obbligo diretto di alfabetizzazione del personale. La nuova formulazione trasferisce il baricentro sulla Commissione e sugli Stati membri, chiamati ad “incoraggiare” percorsi formativi. Il diritto cogente lascia spazio a una funzione promozionale: la responsabilità privata arretra, la pedagogia istituzionale avanza. La scelta è tutt’altro che neutra, perché l’alfabetizzazione algoritmica costituisce una delle condizioni essenziali per evitare l’automazione inconsapevole delle decisioni dentro imprese, amministrazioni pubbliche e servizi essenziali. Un obbligo diretto produce accountability organizzativa; un semplice incoraggiamento pubblico produce un orizzonte molto più fluido, affidato alla sensibilità economica dei singoli operatori.

La medesima traiettoria percorre la disciplina del monitoraggio post-market, dove l’eliminazione del modello armonizzato europeo in favore di maggiore flessibilità organizzativa per i provider si traduce, sul piano sistemico, in standardizzazione inferiore e controllabilità ridotta. Persino la disciplina relativa al trattamento dei dati sensibili rivela questo mutamento di paradigma: la proposta amplia la possibilità per provider e deployer di trattare categorie particolari di dati personali allo scopo di individuare e correggere bias algoritmici. La finalità è condivisibile, sistemi discriminatori richiedono strumenti efficaci di rilevazione statistica, ma l’effetto simbolico appare rilevante: il dato sensibile perde progressivamente il proprio statuto eccezionale e diventa elemento funzionale all’ottimizzazione algoritmica. Il GDPR aveva costruito attorno a quelle categorie una vera architettura di garanzia; il nuovo testo introduce una razionalità più vicina alla cultura computazionale statunitense, dove il dato è materia necessaria per correggere inefficienze del sistema.

AI Act e AI Office europeo: più controllo centrale, meno pluralismo

Il rafforzamento dell’AI Office europeo possiede anch’esso una doppia faccia. La centralizzazione dei poteri di controllo sui modelli general purpose e sulle grandi piattaforme promette maggiore coordinamento, ma il sistema perde pluralismo istituzionale: le autorità nazionali vedono restringersi il proprio spazio di intervento proprio mentre l’intelligenza artificiale diventa sempre più rilevante nella vita democratica, economica e sociale degli Stati membri.

Digital Omnibus e diritti fondamentali: il paradosso europeo

Qui emerge il vero paradosso europeo. L’Unione non dispone oggi della capacità industriale necessaria per competere frontalmente con gli Stati Uniti nella produzione dei foundation models più avanzati. La sua forza geopolitica risiedeva nella capacità di esportare standard giuridici globali, come già accaduto con il GDPR. Alleggerire quel primato regolativo significa indebolire l’unico terreno sul quale l’Europa conserva ancora autentica centralità strategica. Il rinvio degli obblighi high-risk ha così una portata molto più ampia di quanto il linguaggio amministrativo lasci intuire: il messaggio rivolto ai grandi operatori globali appare limpido, e cioè che l’Europa desidera restare attrattiva per gli investimenti AI ed è disponibile a modulare l’intensità della propria regolazione pur di contenere i conflitti sistemici con il mercato statunitense.

Il problema finale riguarda la trasformazione stessa dell’idea europea di diritto. L’Unione aveva costruito la propria identità giuridica attorno alla capacità di limitare il potere economico attraverso principi superiori: dignità, proporzionalità, tutela della persona, equilibrio tra mercato e diritti. Il Digital Omnibus conserva formalmente quel vocabolario, ma introduce una diversa gerarchia implicita, in cui la competitività industriale diventa il criterio ordinatore dell’interpretazione regolativa. Il tempo, nell’economia digitale, possiede valore costitutivo: sei mesi nel capitalismo algoritmico possono ridefinire interi mercati, consolidare monopoli infrastrutturali, rendere irreversibili determinate architetture tecnologiche. L’Europa continua a proclamare il primato dei diritti fondamentali, ma il problema nasce altrove: nel tempo concreto della loro protezione. E nel capitalismo algoritmico il tempo coincide spesso con il potere.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x