L’Unione Europea ha scelto di affrontare l’ascesa dell’intelligenza artificiale con un approccio regolatorio ambizioso.
Con tre strumenti normativi — AI Act, GDPR e direttiva NIS2 — sta costruendo una cornice che va oltre la tecnica e si estende all’etica e alla governance.
Un messaggio chiaro: l’intelligenza artificiale non può essere lasciata a se stessa. Per essere davvero al servizio della società deve essere regolata, sicura e, soprattutto, responsabile. Di seguito propongo di analizzare come queste normative si intreccino, quali rischi emergono dall’uso dei modelli di IA — in particolare i Large Language Models (LLM) — e quali sfide di governance ne derivano.
Indice degli argomenti
Le categorie di rischio secondo l’AI Risks Atlas
Il paper “AI Risks Atlas: Taxonomy and Tooling for Navigating AI Risks and Resources” di IBM Research sottolinea come l’IA sia esposta a un’ampia gamma di rischi, che non possono essere ridotti ai soli attacchi informatici. Le categorie principali includono:
- Rischi tecnici: vulnerabilità intrinseche nei modelli, come gli attacchi adversariali o l’avvelenamento dei dati.
- Rischi di privacy e protezione dei dati: esposizione involontaria di informazioni sensibili attraverso inversione del modello o data leakage.
- Rischi etici e sociali: bias, discriminazioni sistemiche, decisioni non eque.
- Rischi di governance: mancanza di chiarezza sulle responsabilità nella catena di valore.
Questa tassonomia ci dice che l’IA non è un semplice “software evoluto”, ma un ecosistema vivo, che può fallire in molteplici modi. Per questo occorre un approccio integrato, che consideri contemporaneamente aspetti tecnici, giuridici ed etici.
Le quattro principali tipologie di attacco
Sebbene l’AI Risks Atlas allarghi lo sguardo, quattro forme di attacco restano paradigmatiche:
- Adversarial Attacks: minime alterazioni degli input che confondono il modello. Un adesivo su un cartello stradale può trasformare uno STOP in un “30 km/h” per un sistema di guida autonoma.
- Data Poisoning: contaminazione intenzionale dei dataset. Il caso del chatbot Tay di Microsoft, che iniziò a produrre contenuti razzisti dopo poche ore online, resta un esempio eclatante.
- Model Inversion: estrazione di dati sensibili dal modello stesso, violando principi cardine del GDPR come minimizzazione e integrità.
- Model Stealing: clonazione non autorizzata del comportamento di un sistema, con rischi sia per la proprietà intellettuale sia per la sicurezza.
Questi scenari non sono esercizi teorici: sono documentati da studi scientifici e casi reali, e mettono in discussione la fiducia verso i sistemi di IA.
L’AI Act e l’art. 15: sicurezza by design
Il cuore dell’AI Act, entrato in vigore nel 2024, è un approccio risk-based. L’art. 15 in particolare prevede che i sistemi di IA ad alto rischio garantiscano:
- accuratezza;
- robustezza;
- resilienza ai tentativi di manipolazione.
Non si tratta di raccomandazioni generiche, ma di obblighi giuridici che si traducono in responsabilità concrete per sviluppatori (provider), distributori o importatore e utilizzatori (deployer). La sicurezza non può essere un’aggiunta a posteriori: deve essere incorporata sin dalla progettazione del modello e accompagnarlo per tutto il suo ciclo di vita.
Il parallelismo con il GDPR è evidente: come la protezione dei dati deve essere “by design e by default”, così la sicurezza dell’IA deve essere nativa e costante.
Il ruolo del GDPR: accountability e protezione dei dati
Gli LLM rappresentano una sfida per la compliance al GDPR. Nel paper “Machine Learners Should Acknowledge the Legal Implications of Large Language Models as Personal Data” dell’Università di Tubinga, in Germania, mostra come i modelli possano memorizzare dati personali nonostante l’intenzione contraria, restituendoli in output se opportunamente sollecitati. Questo scenario configura potenziali violazioni di:
- liceità del trattamento;
- minimizzazione dei dati;
- integrità e riservatezza;
- accountability, intesa come capacità di dimostrare le misure adottate.
Quando un modello restituisce, ad esempio, numeri di carte di credito o informazioni sanitarie, non è solo un “bug tecnico”, ma un data breach ai sensi del GDPR, con obblighi di notifica e conseguenze sanzionatorie.
La prospettiva NIS2: resilienza e notifica degli incidenti
La direttiva NIS2, recepita in Italia dal D.Lgs. 138/2024, aggiunge un ulteriore tassello: la resilienza operativa.
Per le organizzazioni che sviluppano o adottano IA in settori critici, non basta proteggere il modello: occorre predisporre processi di detection, risposta e notifica rapida degli incidenti.
Anche un malfunzionamento dovuto a un attacco adversarial può rientrare nelle ipotesi di incidente significativo da notificare.
Governance e supply chain: un ecosistema distribuito
Un elemento spesso sottovalutato è la catena dei fornitori. I dataset, i modelli pre-addestrati, i servizi cloud e le API costituiscono una supply chain complessa e frammentata. Basta un anello debole per compromettere l’intero sistema.
L’AI Act richiama esplicitamente l’obbligo di valutare e documentare la qualità dei dati di training (art. 10) e la resilienza dei sistemi (art. 15), proprio per affrontare questa fragilità.
L’AI Risks Atlas propone un approccio di governance multilivello, in cui policy, standard tecnici e processi organizzativi si intrecciano. ISO 27001, NIST CSF 2.0 e ISO 22301 diventano strumenti utili per dare concretezza a tali obblighi.
Fiducia come infrastruttura invisibile
L’intelligenza artificiale è tanto potente quanto fragile. L’Europa ha scelto di affrontare questa ambivalenza con un approccio regolatorio che integra protezione dei dati, cybersecurity e resilienza. La sfida non è solo tecnica, ma culturale: occorre formare professionisti capaci di unire competenze giuridiche e tecniche, e costruire processi di governance che vadano oltre la compliance formale.
La fiducia, insomma, diventa l’infrastruttura invisibile dell’IA. Non basta sviluppare modelli performanti: serve costruire modelli affidabili, trasparenti e sicuri. Solo così l’IA potrà essere uno strumento al servizio della società e non un rischio incontrollato.





































































