Il testo ufficiale e definitivo del Regolamento (UE) 2024/1689 (Artificial Intelligence Act, o AI Act) è ormai entrato in vigore da diverse settimane e molteplici sono gli aspetti da esso trattati al fine di promuovere lo sviluppo di prodotti di intelligenza artificiale antropocentrici e affidabili, in modo tale da tutelare la salute, la sicurezza e i diritti fondamentali delle persone.
Se l’AI ACT riuscirà nel suo intento solo il tempo sarà in grado di dircelo, tuttavia fin da ora è possibile porsi degli interrogativi sull’efficacia o meno di specifiche disposizioni presenti nel Regolamento.
Requisiti e obblighi legati ai sistemi ad alto rischio
Analizzando il testo normativo emerge una classificazione quadripartita dei sistemi di IA che si possono riassumere in:
- Sistemi di IA proibiti, ovvero sistemi di IA le cui finalità trovano riscontro nelle casistiche elencate all’interno dell’art. 5 dell’AI ACT.
- Sistemi di IA ad alto rischio, ovvero sistemi di IA le cui finalità trovano riscontro nelle casistiche elencante all’interno dell’art. 6 e dell’allegato III dell’AI ACT.
- Sistemi di IA ad alto rischio a cui si applica un quadro normativo “speciale”, ovvero sistemi di IA che corrispondono alle casistiche definite all’interno dell’art. 2, par. 2 dell’AI ACT.
- Altri sistemi di IA, ovvero sistemi di IA che non rientrano in nessuna delle categorie sopra elencate.
Sui sistemi di IA ad alto rischio è dove il Regolamento interviene in maniera più puntuale ed esaustiva andando a definire: una serie di requisiti che tali sistemi devono soddisfare, nonché gli obblighi per tutti quegli operatori che, a vario titolo, entrano nella catena di fornitura ed erogazione del sistema di IA, dal fornitore al distributore fino al cd. deployer.
Nella Sezione 2 del Capo III del Regolamento sono definiti i requisiti per i sistemi di IA ad alto rischio, i quali enfatizzano la necessità di garantire conformità alla normativa attraverso una gestione continua e accurata dei rischi. I fornitori sono responsabili di assicurare che questi sistemi rispettino standard elevati di sicurezza, trasparenza, accuratezza, robustezza e cibersicurezza. Inoltre, devono essere attuate misure per proteggere i diritti fondamentali, minimizzare i rischi residui e garantire una supervisione umana efficace. La documentazione tecnica e la gestione dei dati devono essere complete e adeguatamente curate, con particolare attenzione alla qualità dei dati utilizzati e alla registrazione automatica degli eventi per garantire tracciabilità e controllo continuo.
Nella Sezione 3 del medesimo capo, invece, sono definiti per ciascun operatore (fornitore, deployer, importatore, etc.) i relativi obblighi in relazione al proprio rapporto con i sistemi di IA ad alto rischio con cui operano.
Il problema dei sistemi di IA ad alto rischio già immessi sul mercato
Queste due sezioni del Regolamento saranno indubbiamente tra le parti più lette e rilette dagli operatori del settore nei prossimi mesi e anni al fine di andare a determinare tutti gli aspetti a cui prestare attenzione per garantire un’adeguata conformità dei propri sistemi e del proprio operato alle disposizioni dell’AI ACT. Tuttavia, la necessità di conformarsi a tali prescrizioni di legge potrebbe non essere così scontata come sembrerebbe.
Sul punto, si riporta il testo dell’art. 111, par. 2 AI ACT:
“Fatta salva l’applicazione dell’articolo 5 di cui all’articolo 113, paragrafo 3, lettera a), il presente regolamento si applica agli operatori dei sistemi di IA ad alto rischio, diversi dai sistemi di cui al paragrafo 1 del presente articolo, che sono stati immessi sul mercato o messi in servizio prima del 2 agosto 2026, solo se, a decorrere da tale data, tali sistemi sono soggetti a modifiche significative della loro progettazione. In ogni caso, i fornitori e deployers di sistemi di IA ad alto rischio destinati a essere utilizzati dalle autorità pubbliche adottano le misure necessarie per conformarsi ai requisiti e agli obblighi del presente regolamento entro il 2 agosto 2030.”.
Scomponiamo in parti e analizziamo il paragrafo:
- “Fatta salva l’applicazione dell’articolo 5 di cui all’articolo 113, paragrafo 3, lettera a),”: viene lasciata impregiudicata l’entrata in vigore delle disposizioni di cui all’art. 5 sulle pratiche di IA vietate a decorrere dal 2 febbraio 2025 ai sensi dell’art. 113, par. 3 lett. a);
- “il presente regolamento si applica [a chi? n.d.r.] agli operatori dei sistemi di IA ad alto rischio, diversi dai sistemi di cui al paragrafo 1 del presente articolo, che sono stati immessi sul mercato o messi in servizio prima del 2 agosto 2026”: viene stabilito che le disposizione dell’AI ACT si applicheranno agli operatori di sistemi ad alto rischio i quali sono stati immessi sul mercato (ossia, la prima messa a disposizione del sistema di IA sul mercato dell’Unione) o sono stati messi in servizio (ossia, la fornitura del sistema di IA direttamente al deployer per il primo uso o per uso proprio nell’Unione per la finalità prevista) prima del 2 agosto 2026.
- “il presente regolamento si applica [quando? n.d.r.] […] solo se, a decorrere da tale data, tali sistemi [ad alto rischio immessi sul mercato o messi in servizio prima del 2 agosto 2026 n.d.r.] sono soggetti a modifiche significative della loro progettazione.”: stabilito, dunque, che gli obblighi dell’AI ACT sono applicabili ai sistemi ad alto rischio immessi sul mercato o messi in servizio prima del 2 agosto 2026 solamente nel caso in cui questi abbiano subito delle “modifiche significative” della loro progettazione.
Tralasciando l’ultimo periodo del paragrafo in esame, soffermiamoci sull’ultimo punto dell’elenco soprastante in quanto risulta essere quello di maggior interesse. Il tema dirimente, infatti, per determinare l’applicazione di tale paragrafo sarà il constatare se sono state realizzate o meno delle “modifiche significative della loro progettazione”. A questo punto, se un lettore del Regolamento volesse trovare dei chiarimenti sul concetto di “modifiche significative” e provasse a cercare un’eventuale definizione di tale locuzione all’interno dell’art. 3 dell’AI ACT, non troverebbe nulla. L’unico altro riferimento a tale terminologia nell’intero testo normativo (sia nella versione tradotta in italiano che nella versione originale in inglese) è presente all’interno del Considerando 177:
“[..] È opportuno precisare che, a tale riguardo, il concetto di modifica significativa dovrebbe essere inteso come equivalente nella sostanza alla nozione di modifica sostanziale, utilizzata solo per i sistemi di IA ad alto rischio a norma del presente regolamento.” La nozione di modifica sostanziale è definita all’art. 3 punto 23 come di seguito: “una modifica di un sistema di IA a seguito della sua immissione sul mercato o messa in servizio che non è prevista o programmata nella valutazione iniziale della conformità effettuata dal fornitore e che ha l’effetto di incidere sulla conformità del sistema di IA ai requisiti di cui al capo III, sezione 2, o comporta una modifica della finalità prevista per la quale il sistema di IA è stato valutato”.
Come riconoscere una modifica significativa?
Ciò detto, la logica porterebbe quindi ad applicare il concetto di modifica sostanziale quando è necessario valutare se una modifica apportata a un sistema ad alto rischio rientri nella nozione di modifica significativa di cui all’art. 111, par. 2. Tuttavia, analizzando la definizione di modifica sostanziale, essa presenta un campo di applicabilità particolare. La definizione, infatti, contempla due casistiche per cui una modifica possa essere intesa come “sostanziale”:
- la modifica del sistema di IA non era fin da subito prevista o programmata nella valutazione iniziale della conformità effettuata dal fornitore e ha l’effetto di incidere sulla conformità del sistema di IA rispetto ai requisiti di cui alla Sezione 2 del Capo III;
- la modifica del sistema di IA comporta una modifica della finalità prevista per la quale il sistema di IA era stato inizialmente valutato e, conseguentemente, classificato.
I sei possibili scenari
Alla luce di ciò, mentre sul punto b) non vi sono molti margini interpretativi, sul punto a), invece, si ritiene che si possano venire a creare degli scenari grigi per i quali, al momento, non vi sarebbe una risposta immediata e chiara da parte dell’AI ACT. Supponiamo, infatti, che un’impresa rilasci un sistema di IA ad alto rischio prima del 2 agosto 2026 e contempliamo i seguenti scenari:
Scenario 1 – nessuna modifica
Nel caso in cui il sistema di IA ad alto rischio non subisse alcun tipo di modifica successiva al 2 agosto 2026, allora ai sensi dell’art. 111, par. 2 sarebbe lecito supporre che tale sistema e suoi relativi operatori non dovrebbero conformarsi ai dettami dell’AI ACT.
Scenario 2 – modifica significativa non prevista/programmata
Nel caso in cui il sistema di IA ad alto rischio subisse almeno una modifica significativa (e quindi sostanziale, di fatto), successiva al 2 agosto 2026, la quale non era prevista o programmata nella valutazione iniziale di conformità e che impatta sulla conformità del sistema di IA rispetto ai requisiti di cui alla Sezione 2 del Capo III, allora il sistema e i relativi operatori dovranno conformarsi alle disposizioni dell’AI ACT.
Scenario 3 – modifica non prevista/programmata a zero imatto
Nel caso in cui il sistema di IA ad alto rischio subisse almeno una modifica, successiva al 2 agosto 2026, la quale non era prevista o programmata nella valutazione iniziale di conformità ma che non impatta sulla conformità del sistema di IA rispetto ai requisiti di cui alla Sezione 2 del Capo III, allora sarebbe lecito supporre che il sistema e i relativi operatori non dovrebbero conformarsi alle disposizioni dell’AI ACT.
Scenario 4 – modifica prevista/programmata impattante
Nel caso in cui il sistema di IA ad alto rischio subisse almeno una modifica, successiva al 2 agosto 2026, la quale però era prevista o programmata nella valutazione iniziale di conformità e che impatta sulla conformità del sistema di IA rispetto ai requisiti di cui alla Sezione 2 del Capo III, cosa succederebbe? Considerando che in questo scenario la modifica era prevista/programmata, allora la suddetta non dovrebbe rientrare nella nozione di modifica sostanziale che presuppone, invece, il non essere prevista/programmata. Ne segue che, in presenza di una modifica prevista/programmata e impattante sulla conformità del sistema di IA rispetto ai requisiti di cui alla Sezione 2 del Capo III, sarebbe lecito supporre che il sistema e i relativi operatori non dovrebbero conformarsi alle disposizioni dell’AI ACT.
Scenario 5 – modifica prevista/programmata a zero impatto
Nel caso in cui il sistema di IA ad alto rischio subisse almeno una modifica, successiva al 2 agosto 2026, la quale era prevista o programmata nella valutazione iniziale di conformità e che non impatta sulla conformità del sistema di IA rispetto ai requisiti di cui alla Sezione 2 del Capo III, allora sarebbe lecito supporre che il sistema e i relativi operatori non dovrebbero conformarsi alle disposizioni dell’AI ACT.
Alla luce di questi scenari diventa rilevante un ulteriore tema, ossia quello della valutazione iniziale di conformità. L’art. 16 lett. f) del Regolamento, infatti, stabilisce che i fornitori di sistemi di IA ad alto rischio: “garantiscono che il sistema di IA ad alto rischio sia sottoposto alla pertinente procedura di valutazione della conformità di cui all’articolo 43 prima che sia immesso sul mercato o messo in servizio”. Tuttavia, le disposizioni di cui all’art. 16 si applicheranno solamente dal 2 agosto 2026 e ciò comporta, almeno da un punto di vista astratto, anche la possibilità che si verifichi un ulteriore scenario che si va ad aggiungere a quelli già ipotizzati:
Scenario 6 – assenza della valutazione iniziale di conformità
Nel caso in cui un sistema di IA fosse immesso sul mercato o messo in servizio prima del 2 agosto 2026, teoricamente il fornitore non sarebbe tenuto formalmente alla realizzazione della valutazione di conformità. A questo punto, nel caso in cui sopraggiungesse una modifica al sistema di IA ad alto rischio successiva al 2 agosto 2026, come si dovrebbe comportare il fornitore? La domanda sorge dalla considerazione che, in assenza della valutazione di conformità, verrebbe meno il concetto di modifica prevista/non prevista osservato negli scenari precedenti in quanto quest’ultima avrebbe dovuto essere stata inserita nella suddetta valutazione iniziale. Una risposta a questo dubbio può essere rinvenuta nel Considerando 128, il quale recita: “In linea con la nozione generalmente riconosciuta di modifica sostanziale dei prodotti disciplinati dalla normativa di armonizzazione dell’Unione, è opportuno che ogniqualvolta intervenga una modifica che possa incidere sulla conformità del sistema di IA ad alto rischio al presente regolamento (ad esempio, la modifica del sistema operativo o dell’architettura del software), oppure quando viene modificata la finalità prevista del sistema, tale sistema di IA sia considerato un nuovo sistema di IA che dovrebbe essere sottoposto a una nuova valutazione della conformità […]”. Sulla base di quanto espresso dal Considerando 128, si ritiene che in tale scenario la scelta più corretta da parte del fornitore sarebbe quella di effettuare la valutazione di conformità al sopraggiungere della modifica impattante trattando il sistema di IA ad alto rischio già immesso sul mercato o messo in servizio come un nuovo sistema di IA da dover immettere sul mercato o essere messo in servizio.
Conclusioni
L’AI ACT rappresenta, come noto, un tentativo ambizioso di regolamentazione, volto a stabilire requisiti rigorosi per garantire la sicurezza, la trasparenza e il rispetto dei diritti fondamentali. Tuttavia, l’analisi delle disposizioni relative ai sistemi di IA ad alto rischio mette in luce alcune potenziali criticità nell’applicazione pratica di alcune disposizioni, specialmente in riferimento ai sistemi già immessi sul mercato o modificati dopo l’entrata in vigore del Regolamento.
Il concetto di “modifica significativa”, come qui analizzato, risulta essere una di queste, in forza di una definizione che lascia spazio a interpretazioni ambigue.
Gli scenari delineati mostrano come, in assenza di chiarimenti ulteriori, possano crearsi situazioni in cui operatori e fornitori potrebbero innescare (più o meno involontariamente) un cortocircuito nel tentativo di determinare le modalità per conformarsi alle nuove disposizioni. Questa incertezza normativa potrebbe portare a un’applicazione non uniforme del Regolamento all’interno dell’Unione Europea, con il rischio di compromettere l’efficacia delle misure di sicurezza e protezione che l’AI ACT intende piuttosto garantire.
Sarà fondamentale monitorare attentamente questa situazione e fornire linee guida dettagliate che possano supportare gli operatori nell’adeguarsi alle nuove disposizioni, minimizzando al contempo il rischio di cortocircuiti normativi.