L’analisi dei prodotti con elementi digitali qualificabili come importanti o critici che incorporano sistemi di intelligenza artificiale ad alto rischio conduce immediatamente al punto nel quale il diritto europeo della conformità abbandona una logica di compartimenti separati e assume la fisionomia di un sistema integrato.
Il Regolamento sulla Ciberresilienza, CRA, relativo a requisiti orizzontali di cibersicurezza per i prodotti con elementi digitali, persegue l’obiettivo di garantire che tali prodotti siano immessi sul mercato con un numero ridotto di vulnerabilità e che la sicurezza sia considerata lungo l’intero ciclo di vita del prodotto.
Il Regolamento sull’Intelligenza Artificiale, AI Act, dal canto suo, istituisce regole armonizzate sull’intelligenza artificiale per migliorare il funzionamento del mercato interno, assicurando nel contempo un livello elevato di tutela della salute, della sicurezza e dei diritti fondamentali. Entrambi gli atti si collocano espressamente nel nuovo quadro legislativo dell’Unione e operano in rapporto di complementarità rispetto alla disciplina generale della commercializzazione dei prodotti, dell’accreditamento e della vigilanza del mercato.
La chiave sistematica dell’interazione tra i due regolamenti è già enunciata dall’AI Act, là dove chiarisce che, nel quadro del nuovo assetto legislativo, più di un atto di armonizzazione può risultare applicabile al medesimo prodotto, in quanto i pericoli propri dei sistemi di intelligenza artificiale riguardano aspetti distinti rispetto a quelli affrontati dalla normativa settoriale già esistente, sicché i requisiti dell’AI Act completano il corpus della normativa di armonizzazione dell’Unione.
Non si tratta, dunque, di una relazione di alternatività, ma di un rapporto di cumulo ordinato, ovvero, il prodotto può circolare soltanto se conforme a tutta la normativa europea applicabile. Questa affermazione, letta congiuntamente alla struttura del CRA, consente di ricostruire il coordinamento non come sovrapposizione casuale di obblighi, bensì come integrazione funzionale tra sicurezza del prodotto, resilienza cibernetica e disciplina dei rischi propri dell’intelligenza artificiale.
Indice degli argomenti
Ampiezza applicativa dei prodotti con elementi digitali
In questo quadro, la nozione di prodotto con elementi digitali assume una portata particolarmente ampia. Il Cyber Resilience Act muove dall’esigenza di introdurre requisiti essenziali di cibersicurezza orizzontali e tecnologicamente neutri, applicabili a tali prodotti anche quando essi sono integrati in sistemi più ampi o connessi a reti e servizi. Il regolamento sottolinea che perfino i prodotti valutati come meno critici possono fungere da vettore di attacco, favorendo compromissioni iniziali, movimenti laterali nei sistemi o escalation di privilegi.
La logica del CRA è quindi intrinsecamente preventiva, cioè, il fabbricante è chiamato a progettare e sviluppare il prodotto in modo che la cibersicurezza sia incorporata sin dall’origine e mantenuta nel tempo.
Quando la classificazione rafforza la conformità
Questa impostazione diventa ancora più esigente quando il prodotto rientra tra quelli classificati come importanti o critici e, al tempo stesso, incorpora un sistema di IA ad alto rischio. La classificazione del CRA non ha una funzione meramente descrittiva, ma determina il regime procedurale applicabile. I prodotti con elementi digitali importanti sono sottoposti a procedure di valutazione della conformità più rigorose, proprio perché la loro compromissione presenta un rischio significativo di effetti negativi in termini di intensità e capacità di danno per salute, sicurezza o incolumità degli utilizzatori.
Il regolamento de quo segnala specificatamente che le procedure più rigorose si impongono per i prodotti importanti e critici al fine di prevenire gli effetti negativi derivanti dallo sfruttamento delle vulnerabilità. Quando un simile prodotto incorpora un sistema di IA qualificato ad alto rischio ai sensi dell’articolo 6 dell’AI Act, la logica classificatoria del CRA e la logica antropocentrica dell’AI Act convergono in un unico punto, ovvero quello del rafforzamento della conformità.
I prodotti con elementi digitali nell’articolo 12 del CRA
Il fulcro del coordinamento è espresso nell’articolo 12 del CRA. Esso stabilisce, anzitutto, che i prodotti con elementi digitali rientranti nell’ambito del regolamento e classificati come sistemi di IA ad alto rischio ai sensi dell’AI Act si considerano conformi ai requisiti di cibersicurezza di cui all’articolo 15 dell’AI Act se ricorrono tre condizioni cumulative, ovvero:
- il prodotto deve soddisfare i requisiti essenziali di cibersicurezza dell’allegato I, parte I, del CRA;
- i processi predisposti dal fabbricante devono essere conformi ai requisiti essenziali di cibersicurezza dell’allegato I, parte II;
- e il conseguimento del livello di protezione richiesto dall’articolo 15 dell’AI Act deve essere dimostrato nella dichiarazione UE di conformità rilasciata a norma del CRA.
Il meccanismo non assorbe l’AI Act nel CRA, ma opera come clausola di equivalenza funzionale entro la misura in cui i requisiti di cibersicurezza dell’AI Act sono contemplati e dimostrati attraverso il regime del CRA, il prodotto è considerato conforme anche sul versante dell’articolo 15 del regolamento sull’intelligenza artificiale.
Questa previsione acquista ulteriore rilievo se letta alla luce dei considerando del CRA dedicati ai sistemi di IA ad alto rischio. Il legislatore precisa che, qualora tali sistemi soddisfino i requisiti essenziali di cibersicurezza stabiliti nel regolamento, essi dovrebbero essere considerati conformi ai requisiti di cibersicurezza dell’articolo 15 dell’AI Act nella misura in cui tali requisiti siano contemplati dalla dichiarazione di conformità UE, o da sue parti, rilasciata a norma del CRA.
Vulnerabilità dell’IA e rischi per i diritti fondamentali
E aggiunge che, nel compimento della valutazione dei rischi di cibersicurezza durante le fasi di pianificazione, progettazione, sviluppo, produzione, consegna e manutenzione, occorre considerare specificamente i rischi alla ciberresilienza del sistema di IA con riguardo a tentativi di terzi non autorizzati di alterarne uso, comportamento o prestazioni, incluse vulnerabilità tipiche dell’IA quali l’avvelenamento dei dati e gli attacchi antagonistici, nonché, se del caso, i rischi per i diritti fondamentali ai sensi dell’AI Act.
Qui il coordinamento tra le due fonti si fa sostanziale perché il rischio cibernetico non è più concepito come rischio perimetrale del solo supporto digitale, ma come fattore capace di incidere sulle prestazioni dell’IA e, per questa via, sugli interessi tutelati dal regolamento europeo sull’intelligenza artificiale.
Regola generale e deroga nel coordinamento procedurale
Sul piano procedurale, l’articolo 12 del CRA delinea una regola generale e una deroga. La regola generale è che, per i prodotti con elementi digitali classificati come sistemi di IA ad alto rischio, ai fini della valutazione della conformità dei requisiti di cibersicurezza si applica la pertinente procedura prevista dall’articolo 43 dell’AI Act.
Lo stesso articolo aggiunge che gli organismi notificati competenti a controllare la conformità dei sistemi di IA ad alto rischio ai sensi dell’AI Act sono altresì competenti a controllare la conformità di tali sistemi, quando rientrano nell’ambito del CRA, ai requisiti dell’allegato I di quest’ultimo, purché la loro conformità ai requisiti dell’articolo 39 del CRA sia stata valutata nel contesto della procedura di notifica prevista dall’AI Act.
In questa costruzione la regola ordinaria è chiara, ossia, il regolamento sull’intelligenza artificiale rappresenta il canale procedurale normalmente utilizzabile anche per i profili di cibersicurezza del prodotto con IA ad alto rischio. La deroga interviene, però, per evitare che l’applicazione della procedura dell’AI Act comporti una riduzione del livello di garanzia richiesto per i prodotti importanti o critici. Il CRA chiarisce infatti, dapprima a livello di considerando e poi a livello normativo, che i sistemi di IA ad alto rischio rientranti nell’ambito dell’AI Act e che siano anche prodotti con elementi digitali importanti o critici, ai quali si applichi la procedura di valutazione della conformità basata sul controllo interno di cui all’allegato VI dell’AI Act, devono essere soggetti alle procedure di valutazione della conformità previste dal CRA per quanto riguarda i requisiti essenziali di cibersicurezza.
Per tutti gli altri aspetti contemplati dal regolamento sull’intelligenza artificiale continuano invece ad applicarsi le pertinenti disposizioni dell’AI Act. Il significato sistematico della deroga è di straordinaria chiarezza perché il legislatore europeo preserva la continuità del regime dell’AI Act, ma sottrae a una procedura interna, reputata non sufficiente rispetto alla maggiore esposizione del prodotto, la porzione della conformità che attiene alla cibersicurezza. Nasce così una valutazione della conformità a struttura ibrida.
Il modello decisionale per i prodotti con elementi digitali
Da questa disciplina discende un modello decisionale nitido. In primis occorre stabilire se il prodotto con elementi digitali rientri nell’ambito del CRA. Successivamente occorre verificare se il prodotto sia classificato come sistema di IA ad alto rischio ai sensi dell’articolo 6 dell’AI Act. Ancor dopo occorre accertare se esso appartenga alle categorie dei prodotti importanti o critici del CRA. In ultimo occorre verificare quale procedura di valutazione della conformità sarebbe altrimenti applicabile ai sensi dell’AI Act.
Se tale procedura è quella del controllo interno di cui all’allegato VI, il coordinamento muta di intensità e impone, per il segmento relativo ai requisiti essenziali di cibersicurezza, il ricorso alle procedure previste dal CRA. Se, invece, ricorre la regola ordinaria, continua a trovare applicazione l’articolo 43 dell’AI Act quale veicolo procedurale anche per i requisiti di cibersicurezza. Il coordinamento tra le procedure, pertanto, non è rimesso a valutazioni discrezionali del fabbricante, ma deriva da una sequenza normativa rigidamente predeterminata.
Organismi notificati e competenze integrate
Le implicazioni di tale modello sono particolarmente rilevanti per la scelta degli organismi notificati. L’AI Act prevede che la Commissione garantisca, per i sistemi di IA ad alto rischio, un adeguato coordinamento e una corretta cooperazione tra gli organismi notificati che partecipano alle procedure di valutazione della conformità, organizzati in forma di gruppo settoriale.
Ciascuna autorità di notifica deve assicurare la partecipazione dei propri organismi a tali gruppi, mentre la Commissione promuove lo scambio di conoscenze e migliori pratiche tra le autorità di notifica. Il CRA si innesta su questo impianto attribuendo agli organismi già competenti in materia di IA la possibilità di controllare anche i requisiti di cibersicurezza del CRA, purché ne sia stata verificata la conformità ai requisiti aggiuntivi richiesti.
Ne consegue che, nei casi in esame, l’organismo notificato non può essere pensato come mero verificatore formale di documenti, ma come centro di competenza capace di leggere congiuntamente robustezza del sistema di IA, sicurezza del prodotto digitale e coerenza tra il regime procedurale applicato e la classe di rischio del bene.
I prodotti con elementi digitali nel nuovo quadro legislativo
Il quadro generale elaborato dalla Decisione n. 768/2008/CE e dal Regolamento CE n. 765/2008 conferma questa ricostruzione. La Decisione n. 768/2008/CE istituisce principi comuni e disposizioni di riferimento che devono essere applicati nell’intera normativa settoriale, fornendo una base coerente per la revisione o la rifusione della disciplina di armonizzazione dei prodotti.
Il Regolamento n. 765/2008 si pone, a sua volta, come complemento di tale decisione e sottolinea che accreditamento, valutazione della conformità e vigilanza del mercato fanno parte di un sistema globale concepito per valutare e garantire il rispetto delle norme applicabili. Esso attribuisce all’accreditamento il valore di attestazione autorevole della competenza tecnica degli organismi chiamati ad assicurare la conformità.
Anche la marcatura CE, nel medesimo regolamento, è concepita come segno che attesta la conformità del prodotto a tutte le prescrizioni applicabili della normativa di armonizzazione pertinente. Trasposto sul terreno del coordinamento tra CRA e AI Act, ciò significa che la pluralità di atti applicabili non consente ripartizioni artificiali della responsabilità sicché il prodotto deve risultare conforme in modo unitario, benché la conformità sia costruita attraverso regimi che, per singoli segmenti, seguono canali diversi.
Documentazione tecnica e dichiarazione UE di conformità
Il profilo documentale costituisce il punto nel quale tale unità deve trovare espressione concreta. Il CRA subordina l’effetto di conformità rispetto ai requisiti di cibersicurezza dell’articolo 15 dell’AI Act al fatto che il conseguimento del livello di protezione richiesto sia dimostrato nella dichiarazione UE di conformità rilasciata a norma del medesimo CRA.
Da qui discende che la dichiarazione di conformità, nei prodotti importanti o critici con IA ad alto rischio, non può essere concepita come atto meramente riepilogativo, ma deve essere il momento di ricomposizione normativa della disciplina applicabile. Se la procedura è ibrida, ibrida deve essere anche la razionalità interna della dichiarazione perché essa deve consentire di comprendere quali profili siano stati valutati secondo il CRA, quali secondo l’AI Act e come i requisiti rilevanti dell’articolo 15 dell’AI Act siano coperti e dimostrati nel contesto del CRA.
In altri termini, la documentazione tecnica non può essere segmentata secondo una logica meramente burocratica. L’AI Act e il CRA, letti congiuntamente, impongono un fascicolo tecnico che renda intelligibile l’unità del prodotto, l’unità del rischio e la pluralità ordinata delle basi normative applicate.
Audit, rischio e ciclo di vita del prodotto
La pianificazione dell’audit discende logicamente da questo assetto. Il CRA impone al fabbricante di effettuare una valutazione dei rischi di cibersicurezza associati al prodotto con elementi digitali e di tenerne conto durante le fasi di pianificazione, progettazione, sviluppo, produzione, consegna e manutenzione, al fine di ridurre al minimo i rischi di cibersicurezza, prevenire gli incidenti e ridurne l’impatto, anche in relazione alla salute e alla sicurezza degli utilizzatori.
La valutazione deve essere documentata e aggiornata e deve comprendere almeno un’analisi dei rischi fondata sulla finalità prevista, sull’uso ragionevolmente prevedibile, sulle condizioni d’uso, sull’ambiente operativo e sugli attivi da proteggere, tenendo conto della durata di utilizzo prevista del prodotto.
Nei prodotti che incorporano sistemi di IA ad alto rischio, questa disciplina non resta esterna ai requisiti dell’AI Act, perché i considerando del CRA impongono chiaramente di valutare le specifiche vulnerabilità dell’IA e, se del caso, i rischi impattanti sui diritti fondamentali della persona umana. Dunque, la pianificazione dell’audit deve essere costruita su una matrice unica del rischio, capace di collegare minacce alla ciberresilienza, comportamento del sistema di IA e livello di protezione richiesto dalla normativa europea. Non è conforme, in questa prospettiva, un audit che isoli la robustezza del modello dalla sicurezza del prodotto o che tratti il rischio cibernetico come fattore estraneo alle prestazioni dell’IA.
Vigilanza coordinata e architettura della fiducia digitale
La stessa logica di coordinamento si riflette sul piano della vigilanza. Il Regolamento n. 765/2008 costruisce un quadro complessivo di regole e principi in materia di accreditamento e vigilanza del mercato, volto a migliorare il funzionamento della normativa di armonizzazione e a garantire che i prodotti immessi sul mercato offrano un elevato livello di protezione degli interessi pubblici. La NIS 2, inoltre, insiste sulla necessità di evitare divergenze, duplicazioni e frammentazioni nel campo della cibersicurezza e valorizza la cooperazione tra autorità competenti, la comunicazione fluida e l’armonizzazione dei modelli di vigilanza. Sebbene il suo oggetto non coincida con quello della disciplina dei prodotti, essa conferma la razionalità di sistema che informa il diritto europeo della sicurezza digitale, ovvero, laddove i rischi si intrecciano, anche le attività di controllo e supervisione devono coordinarsi. Questo dato, letto insieme al CRA e all’AI Act, rafforza l’idea che la conformità dei prodotti importanti o critici con IA ad alto rischio richieda un approccio istituzionale e documentale coerente, non una sommatoria episodica di verifiche.
Abbiamo pertanto un modello decisionale strutturato e replicabile per la gestione integrata della conformità.
Il primo livello è qualificatorio e cioè occorre identificare il prodotto con elementi digitali e verificare se esso incorpori un sistema di IA qualificabile come ad alto rischio.
Il secondo livello è classificatorio quindi occorre stabilire se il prodotto rientri nelle categorie dei prodotti importanti o critici del CRA.
Il terzo livello è procedurale ed occorre determinare se, in base all’AI Act, troverebbe applicazione la procedura di controllo interno di cui all’allegato VI oppure altra procedura di cui all’articolo 43.
Il quarto livello è organizzativo perché in presenza della deroga del CRA, occorre assicurare che il segmento relativo ai requisiti essenziali di cibersicurezza sia sottoposto alla procedura CRA e, se necessario, all’intervento dell’organismo notificato competente.
Per gli altri profili dell’IA continua a operare il regime dell’AI Act. Il quinto livello è documentale, ovvero, la dichiarazione UE di conformità e il fascicolo tecnico devono rendere verificabile la copertura dei requisiti dell’articolo 15 dell’AI Act mediante l’apparato del CRA, nonché la coerenza complessiva dell’iter di valutazione. Il sesto livello è dinamico: la valutazione dei rischi deve essere mantenuta e aggiornata durante il periodo di assistenza del prodotto, secondo la logica di ciclo di vita espressa dal CRA.
In conclusione, il coordinamento tra Cyber Resilience Act e AI Act, con specifico riguardo ai prodotti digitali importanti o critici che incorporano sistemi di IA ad alto rischio, non può essere ridotto a una semplice questione di rinvio tra procedure. Esso delinea, più profondamente, un criterio ordinatore del diritto europeo dei prodotti digitali. La regola generale fa leva sull’articolo 43 dell’AI Act; la deroga del CRA interviene quando l’applicazione del controllo interno dell’AI Act sarebbe inadeguata rispetto al livello di garanzia richiesto dalla natura importante o critica del prodotto. Ne deriva un sistema nel quale la conformità si articola in modo differenziato, ma resta giuridicamente unitaria. La scelta degli organismi notificati, la pianificazione dell’audit, la costruzione della dichiarazione UE di conformità e l’organizzazione della documentazione tecnica devono tutti riflettere questa unità complessa. In tale prospettiva, il diritto dell’Unione non si limita a imporre un duplice adempimento; costruisce, piuttosto, una vera architettura della fiducia digitale, nella quale la resilienza cibernetica del prodotto e la disciplina dei rischi dell’intelligenza artificiale si ricompongono in un’unica grammatica della conformità europea.
Riferimenti normativi
Regolamento (UE) 2024/2847 del Parlamento europeo e del Consiglio, del 23 ottobre 2024, sui requisiti di cibersicurezza per i prodotti con elementi digitali e modifiche ai regolamenti (UE) n. 168/2013, (UE) 2019/1020 e alla direttiva (UE) 2020/1828 (regolamento sulla ciberresilienza), GU L del 20.11.2024; Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce norme armonizzate sull’intelligenza artificiale (regolamento sull’intelligenza artificiale), GU L del 12.7.2024; Regolamento (CE) n. 765/2008 del Parlamento europeo e del Consiglio, del 9 luglio 2008, sulle norme di accreditamento e vigilanza del mercato relative alla commercializzazione dei prodotti, che abroga il regolamento (CEE) n. 339/93, GU L 218 del 13.8.2008; Decisione n. 768/2008/CE del Parlamento europeo e del Consiglio, del 9 luglio 2008, sul quadro comune per la commercializzazione dei prodotti, che abroga la decisione 93/465/CEE, GU L 218 del 13.8.2008; Direttiva (UE) 2022/2555 del Parlamento europeo e del Consiglio, del 14 dicembre 2022, su misure per un livello elevato di cibersicurezza nell’Unione (direttiva NIS 2), GU L 333 del 27.12.2022.












