L’accordo provvisorio raggiunto il 7 maggio 2026 dalla Presidenza del Consiglio e dai negoziatori del Parlamento europeo introduce tre gruppi di modifiche al Regolamento (UE) 2024/1689, ossia l’AI Act, che incidono sulla determinazione degli obblighi applicabili ai sistemi di IA ad alto rischio.
In primo luogo, l’accordo rinvia l’applicazione degli obblighi relativi ai sistemi ad alto rischio elencati nell’Allegato III al 2 dicembre 2027, e quella relativa ai sistemi di IA incorporati in prodotti disciplinati dalla normativa di armonizzazione dell’Unione, di cui all’Allegato I, al 2 agosto 2028.
In secondo luogo, esso sottrae i sistemi di IA incorporati nei macchinari all’ambito di applicazione diretto dell’AI Act, trasferendo il Regolamento Macchine dalla Sezione A alla Sezione B dell’Allegato I. La Commissione è tenuta a introdurre corrispondenti requisiti relativi all’IA nel Regolamento Macchine mediante atti delegati entro il 2 agosto 2028.
In terzo luogo, l’accordo introduce un meccanismo che consente alla Commissione di limitare l’applicazione di specifici obblighi dell’AI Act per i sistemi ad alto rischio quando la legislazione settoriale garantisca un livello di protezione equivalente o superiore. Tale meccanismo è previsto dal nuovo articolo 2, paragrafo 13, e dovrà essere reso operativo mediante atti della Commissione che specifichino i sistemi interessati, gli obblighi coinvolti e le condizioni della limitazione. L’accordo provvisorio dovrà ora essere approvato dal Consiglio e dal Parlamento europeo prima di essere finalizzato.
Indice degli argomenti
Contesto politico del Digital Omnibus VII
L’accordo chiude politicamente i negoziati relativi al Digital Omnibus VII, volto ad adottare modifiche al Regolamento (UE) 2024/1689, l’AI Act.
Dopo una forte intensificazione del dibattito intorno agli emendamenti proposti, e dopo un primo fallimento dei triloghi, è stato raggiunto un accordo provvisorio. Un tratto significativo della fase finale dei negoziati è stato rappresentato dall’escalation politica del dossier. Quella che era stata trattata come una discussione prevalentemente tecnica sull’interazione tra AI Act e legislazione settoriale sulla sicurezza dei prodotti è rapidamente salita al livello di un confronto politico, con il coinvolgimento diretto dei leader degli Stati membri. L’intervento del Cancelliere tedesco Friedrich Merz a sostegno di una deroga per il settore dei macchinari è stato decisivo nel plasmare il compromesso finale sull’Allegato I. Il salto di livello della discussione, dall’interlocuzione tecnica all’advocacy dei capi di governo, costituisce di per sé un indicatore significativo della posta in gioco strutturale connessa al dossier.
Come previsto, l’accordo rinvia l’applicazione di obblighi chiave, secondo quanto già proposto dalla Commissione europea. I sistemi di IA ad alto rischio elencati nell’Allegato III saranno soggetti ai relativi requisiti a decorrere dal 2 dicembre 2027. I sistemi di IA che si qualificano come componenti di sicurezza di prodotti disciplinati dall’Allegato I saranno soggetti ai relativi requisiti a decorrere dal 2 agosto 2028. Inoltre, i fornitori di sistemi di IA che generano contenuti sintetici e che siano stati immessi sul mercato prima del 2 agosto 2026 dovranno conformarsi agli obblighi di trasparenza previsti dall’articolo 50, paragrafo 2, entro un termine che, sulla base dell’accordo politico, dovrebbe essere fissato al 2 dicembre 2026. Tale termine rappresenta un compromesso tra la proposta originaria della Commissione, che indicava il 2 febbraio 2027, e la preferenza del Parlamento europeo per una tempistica più breve, riflettendo la rilevanza politica del tema. Questi rinvii sono collegati alla necessità di adottare atti delegati e sviluppare norme armonizzate. In assenza di tali misure, l’applicazione del Regolamento risulterebbe incompleta nei settori in cui l’interazione con la legislazione sui prodotti è centrale.
Ambito e funzione delle modifiche all’AI Act
Le modifiche affrontano la situazione in cui un sistema di IA si qualifica come componente di sicurezza di un prodotto soggetto alla legislazione di armonizzazione dell’Unione.
Si tratta, infatti, dell’elemento politicamente più sensibile e strutturalmente più incisivo dell’accordo: l’interazione tra l’AI Act e il corpo della legislazione settoriale europea sulla sicurezza dei prodotti costruita sul New Legislative Framework, NLF. Nell’architettura originaria dell’AI Act, un sistema di IA utilizzato come componente di sicurezza in un prodotto regolato dal NLF poteva attivare il regime ad alto rischio in parallelo al quadro settoriale applicabile, generando procedure di valutazione della conformità sovrapposte e oneri di compliance duplicativi. L’Omnibus affronta questa sovrapposizione non attraverso un unico intervento, ma mediante tre mosse, il cui effetto combinato deve essere letto unitariamente: modifiche relative all’applicazione del Regolamento ai prodotti macchina; applicazione dell’AI Act ai settori compresi nella Sezione A dell’Allegato I; nuova definizione di componente di sicurezza.
Il risultato è che la sovrapposizione tra regimi non viene più affrontata soltanto a livello di classificazione, ma anche attraverso meccanismi che incidono sul contenuto degli obblighi applicabili. In particolare, sono rilevanti le modifiche all’articolo 3, paragrafo 14, all’articolo 43, paragrafo 3, e all’articolo 96.
Rimozione dei macchinari dall’ambito di applicazione dell’AI Act
La modifica all’Allegato I rimuove il Regolamento Macchine dalla Sezione A e lo colloca nella Sezione B.
Di conseguenza, i sistemi di IA incorporati nei macchinari non sono più soggetti all’AI Act come sistemi ad alto rischio ai sensi dell’articolo 6, paragrafo 1. La Commissione è invece tenuta a modificare il Regolamento Macchine introducendo requisiti relativi all’IA corrispondenti a quelli dell’AI Act. Tali modifiche dovranno essere adottate mediante atti delegati e applicarsi a decorrere dal 2 agosto 2027.
Gli atti delegati dovranno garantire che requisiti equivalenti a quelli previsti dal Capo III, Sezione 2, e da specifiche disposizioni dell’AI Act siano recepiti nel Regolamento Macchine.
L’effetto giuridico
L’effetto giuridico di questa modifica è che la conformità dei sistemi di IA nei macchinari sarà valutata esclusivamente nell’ambito della legislazione settoriale, anche quando tali sistemi svolgano funzioni di sicurezza.
La distinzione tra Sezioni A e B dell’Allegato I riguarda il modo di interazione tra AI Act e legislazione di armonizzazione dell’Unione. Finora, per i prodotti elencati nella Sezione A, l’AI Act si applica direttamente insieme alla legislazione settoriale: i sistemi di IA che si qualificano come componenti di sicurezza possono attivare il regime ad alto rischio ai sensi dell’articolo 6, paragrafo 1, con la possibilità, introdotta dall’Omnibus, di limitare specifici obblighi quando sia garantita una protezione equivalente, ai sensi dell’articolo 2, paragrafo 13.
Per i prodotti elencati nella Sezione B, invece, l’AI Act non si applica cumulativamente: i requisiti relativi all’IA devono essere integrati nella legislazione settoriale pertinente, tipicamente mediante atti delegati, e la conformità viene valutata esclusivamente all’interno di quel quadro settoriale.
Limitazione degli obblighi dell’AI Act mediante l’articolo 2, paragrafo 13
Per i settori che rimangono nella Sezione A dell’Allegato I, l’AI Act continua ad applicarsi. Tuttavia, il nuovo articolo 2, paragrafo 13, introduce un meccanismo che consente alla Commissione di limitare l’applicazione di specifici obblighi. Tale limitazione è subordinata a due condizioni. In primo luogo, la legislazione di armonizzazione dell’Unione pertinente deve prevedere requisiti idonei a garantire un livello equivalente o superiore di protezione della salute, della sicurezza o dei diritti fondamentali. In secondo luogo, la limitazione non deve ridurre il livello complessivo di protezione assicurato dall’AI Act.
La disposizione non opera automaticamente. Essa richiede che la Commissione adotti atti, entro il 2 agosto 2027, che specifichino:
• le categorie di sistemi di IA ad alto rischio interessate;
• gli obblighi che possono essere limitati;
• le condizioni e l’ambito della limitazione.
Fino all’adozione di tali atti, l’AI Act si applica integralmente. Questo meccanismo introduce una dipendenza tra l’applicazione dell’AI Act e successive decisioni della Commissione. La misura in cui gli obblighi saranno ridotti o mantenuti non è definita direttamente nel Regolamento.
Definizione di componente di sicurezza
L’accordo modifica la definizione di “componente di sicurezza” contenuta nell’articolo 3, paragrafo 14, e introduce disposizioni aggiuntive nell’articolo 6.
La definizione rivista chiarisce che un componente si qualifica come componente di sicurezza quando il suo scopo previsto è prevenire o mitigare rischi per la salute e la sicurezza. La nozione di scopo previsto è determinata dal fornitore.
Al contempo, il nuovo articolo 6, paragrafo 1a, esclude i sistemi di IA utilizzati esclusivamente per funzioni non connesse alla sicurezza, incluse l’assistenza all’utente, l’ottimizzazione delle prestazioni o il controllo di qualità di aspetti non legati alla sicurezza. Tuttavia, l’articolo 6, paragrafo 1b, assicura che i sistemi il cui malfunzionamento metterebbe in pericolo la salute o la sicurezza restino classificati come componenti di sicurezza. Infine, il nuovo articolo 6, paragrafo 1c, chiarisce ulteriormente che l’obbligo di valutazione della conformità da parte di terzi per ragioni non connesse alla salute, alla sicurezza o alla cybersicurezza non determina la classificazione come sistema ad alto rischio. Queste modifiche riducono il numero di sistemi di IA che si qualificano come ad alto rischio ai sensi dell’articolo 6, paragrafo 1, restringendo le condizioni in base alle quali un sistema di IA è considerato componente di sicurezza. Il diagramma contenuto a pagina 5 mira a sintetizzare le modifiche discusse relative all’applicazione dell’AI Act ai componenti di sicurezza.
Considerando esplicativo 8(a): “In conformità all’articolo 6, paragrafo 1, del Regolamento (UE) 2024/1689, i sistemi di IA sono classificati come ad alto rischio quando un sistema di IA che costituisce componente di un prodotto disciplinato dalla legislazione di armonizzazione dell’Unione elencata nella Sezione A dell’Allegato I di tale Regolamento è un componente di sicurezza e tale prodotto richiede una valutazione della conformità da parte di terzi”. ¹⁰ Il considerando 4a di accompagnamento precisa che “la funzione di sicurezza deve costituire uno scopo previsto del sistema, determinato dal fornitore del sistema.
Un sistema di IA svolge una funzione di sicurezza quando il suo scopo previsto, come determinato dal fornitore, è prevenire o mitigare rischi per la salute e la sicurezza delle persone. In particolare, ciò non include i sistemi di IA destinati esclusivamente a svolgere funzioni relative all’assistenza all’utente, all’ottimizzazione delle prestazioni, all’efficienza del servizio, all’automazione, alla comodità o alle operazioni di controllo qualità di aspetti non connessi alla sicurezza. Il mero fatto che un sistema di IA sia integrato in un prodotto soggetto a regolazione di sicurezza, o operi all’interno di esso, non implica di per sé che esso svolga una funzione di sicurezza”.
Valutazione della conformità e standardizzazione
Infine, l’accordo chiarisce che la classificazione di un prodotto come contenente un sistema di IA ad alto rischio non modifica le opzioni di valutazione della conformità disponibili ai sensi della legislazione settoriale. Quando la legislazione di armonizzazione dell’Unione consente ai fabbricanti di fare ricorso a procedure che non prevedono l’intervento di un terzo, tale possibilità resta disponibile, a condizione che siano applicate norme armonizzate relative ai requisiti pertinenti.
Parallelamente, la Commissione è tenuta a richiedere lo sviluppo di norme armonizzate che facilitino la conformità congiunta all’AI Act e alla legislazione settoriale: tali norme sono destinate a “supportare e semplificare i percorsi di conformità regolatoria di tali operatori economici”.
Fino a quando tali norme non saranno disponibili, la conformità agli standard dell’AI Act potrà essere utilizzata per presumere la conformità ai requisiti settoriali per i sistemi di IA ad alto rischio rientranti nell’ambito di applicazione del Regolamento Macchine.









