La seconda fase di attuazione dell’AI Act rappresenta un momento cruciale per la strategia digitale europea. La normativa entra nella fase applicativa più complessa: quella che coinvolge i cosiddetti foundation model e l’intelligenza artificiale generativa.
Tra esigenze di trasparenza, responsabilità legale e competitività globale, l’Europa si misura con il difficile compito di bilanciare innovazione e tutela dei diritti fondamentali.
Indice degli argomenti
L’entrata in vigore della seconda fase del Regolamento
Il Regolamento (UE) 2024/1689 sull’intelligenza artificiale — il primo quadro normativo organico al mondo in materia — entra nella sua fase 2 di attuazione. Dopo la pubblicazione in Gazzetta ufficiale e l’avvio delle prime disposizioni nell’agosto 2025, l’Unione europea si prepara ad affrontare la parte più complessa: la traduzione operativa delle norme.
La seconda fase introduce obblighi specifici per i sistemi di AI ad alto rischio, per i foundation model, quali ad esempio GPT-4 o GPT-5, Claude o Gemini, ed i loro modelli di utilizzo, ossia la generative AI.
È qui che la visione politica di un’Europa “etica e sicura” dovrà misurarsi con la realtà dei processi industriali, della ricerca e della governance aziendale.
E le prime reazioni manifestano una prima debolezza di fondo: nello scenario tecnologico del nuovo mondo IA la regolamentazione da sola non basta.
Un modello multilivello di governance europea
L’AI Act disegna un ecosistema multilivello, dove le regole si adattano alla tipologia e al rischio dei sistemi AI. Il principio di fondo è la proporzionalità: quanto più un algoritmo può incidere su diritti fondamentali, tanto più rigorosi devono essere i controlli sistemici ed organizzativi.
La governance del sistema sarà affidata al nuovo Comitato europeo per l’intelligenza artificiale (EAIB), chiamata a coordinare (e coordinarsi) con le autorità nazionali designate. Nel frattempo, la Commissione UE sta predisponendo gli atti di esecuzione che dovranno definire aspetti chiave come:
• la classificazione dei sistemi di AI;
• le procedure di valutazione della conformità;
• i requisiti di trasparenza e documentazione tecnica;
• l’interoperabilità con normative parallele (GDPR, Data Act, DSA, NIS2).
Alcuni di questi atti esecutivi sono in realtà già stati emanati. E’ il caso del Codice di Condotta (o Code of Practice) per i modelli di IA general-purpose (GPAI) pubblicato 10 luglio 2025, a cui possono aderire su base volontaria i provider di modelli, contenente principi di trasparenza, rispetto dei diritti d’autore e sicurezza/affidabilità.
Ad oggi hanno aderito al Codice di Condotta Amazon, Anthropic, Cohere e altri provider minori. Anche OpenAI ha preannunciato la propria volontà di aderirvi. Mentre Meta ha già annunciato che non firmerà il Codice, motivando la propria decisione con possibili incertezze legali e affermando che alcune misure previste dal Codice, travalicherebbero scopi e contenuti dell’AI Act.
Il Codice, quale strumento supplementare per dare visibilità alla conformità rispetto AI Act, rischia di tradursi, come spesso accade per le norme di compliance europea, in un sotto il vestito niente, per citare il titolo di un celebre film degli anni ’70.
Il mosaico normativo europeo esprime, dunque, una visione, una aspirazione, potremmo dire, integrata della compliance, in cui privacy, sicurezza informatica e responsabilità giuridica convergono in un’unica architettura di controllo.
Intelligenza artificiale generativa: trasparenza e tracciabilità dei dati
Il fronte più sensibile è quello della generative AI, dove le potenzialità creative si accompagnano a rischi elevati di abuso dei dati e disinformazione.
Uno dei rischi principali è proprio quello riguardante i dati personali e le informazioni industriali.
L’Articolo 11 del regolamento e l’Allegato IV (Annex IV), impongono ai fornitori di sistemi di IA ad alto rischio, di predisporre una dettagliata documentazione tecnica che dovrebbe contenere informazioni che vanno dalle fasi di addestramento, ai test di validazione, alle trasformazioni applicate ai dati, ai metodi di annotazione, ecc. (ossia elementi che servono alla tracciabilità tecnica dei dati) e che comprenda, tra le altre cose, informazioni sui dataset utilizzati (origine dei dati, modalità di raccolta, caratteristiche, pulizia del dato, etichettatura) e le procedure seguite.
Si può intravedere in alcuni di questi obblighi il deployment del principio della privacy by design e by default del GDPR. Ma è soprattutto con gli obblighi di tracciabilità dei dataset che il legislatore europeo, ritiene di poter porre un freno al rischio di utilizzo fuori controllo dei dati personali. Cosa significa? L’articolo 12 del regolamento disciplina l’obbligo di Record-keeping, ossia Logging e Tracciabilità.
I sistemi di IA ad alto rischio debbano permettere la registrazione automatica di eventi (logs) durante tutto il ciclo di vita del sistema.
In particolare, il comma 2 stabilisce i dati di log devono contribuire a “un livello di tracciabilità del funzionamento del sistema di IA ad alto rischio che sia appropriato rispetto allo scopo previsto del sistema”
La tracciabilità dei dataset significa poter risalire, in modo verificabile e documentato, alle origini, alle trasformazioni, alle versioni, alle annotazioni e all’utilizzo dei dati che compongono i dataset sfruttati e impiegati in un sistema di IA.
In sintesi: sapere chi, quando, come ha raccolto, modificato, filtrato, etichettato i dati, e come sono stati usati nelle varie fasi (training, validazione, test).
Il contributo tecnico di ISACA e gli standard di documentazione
A fornire un contributo tecnico importante di cosa significhi tracciabilità è intervento il white paper “Understanding the EU AI Act” di ISACA, una delle organizzazioni più importanti al mondo nel campo della governance, sicurezza, audit e compliance dei sistemi informativi e delle tecnologie digitali.
Nel suo documento si legge che la documentazione tecnica deve includere: “… il training dataset utilizzato e la loro provenienza, la portata e le caratteristiche principali; le procedure per come i dati sono stati ottenuti e selezionati; labelling; metodologie di pulizia dei dati”
Inoltre, ISACA sottolinea che il record-keeping, ovvero il logging automatico, è fondamentale per garantire la traceability (tracciabilità) del sistema IA, aiutando le attività di post-market monitoring.
Quando il tracking diventa simulato: rischi tecnici e giuridici
La domanda sorge spontanea: un sistema di IA, aldilà della correttezza della documentazione tecnica ex art. 11, potrebbe essere impostato in modo da cancellare automaticamente alcuni eventi “non graditi” o di “alcuni utenti privilegiati”? La risposta è sì, potenzialmente sì. Un sistema di IA (o l’infrastruttura che lo supporta) può essere progettato o addestrato per cancellare, manipolare o non registrare correttamente i log, simulando una conformità apparente al Regolamento e, conseguentemente ad altre norme collegate, ad es. il GDPR pur senza esserlo realmente.
E questo rappresenta un rischio serio sia tecnico che giuridico.
Ricordiamo che nei sistemi di IA — soprattutto quelli ad alto rischio secondo l’AI Act — i log sono fondamentali per dimostrare la conformità ossia l’accountability, consentire audit, indagini e controlli cosiddetti post-market, ricostruire decisioni o errori (tracciabilità), identificare comportamenti anomali, bias, ossia risultati non oggettivi o discriminatori, o malfunzionamenti. Un sistema non conserva i log, o li cancella, rende impossibile verificare la correttezza o la legalità delle sue azioni o delle azioni dei suoi utenti.
Un sistema che mantiene solo log parziali o sintetici o cancella automaticamente certe operazioni (es. decisioni errate, dataset usati, test non riusciti), o genera report statici apparentemente corretti, ma privi della storia dei dati sottostante, è un sistema che può apparire conforme senza esserlo. E nel corso di verifiche successive l’Ente che se ne avvale, potrebbe sembrare aderente ai requisiti di trasparenza di trasparenza, ma in realtà non vi è tracciabilità effettiva, e quindi nessuna verificabilità delle scelte e dei comportamenti del sistema.
Un problema che l’AI Act, si è correttamente posto quando all’art. 12 richiede che i log siano automaticamente registrati, che garantiscano “un livello di tracciabilità appropriato” rispetto allo scopo e siano disponibili alle autorità competenti in caso di audit o indagini. O quando con gli artt. 16 e 17 pone l’obbligo di documentazione e registrazioni aggiornate per almeno 10 anni. Disposizioni rafforzative del principio di accountability introdotto già nel 2018 con l’art. 5 del GDPR. Ma le norme, non risolvono l’insidia tecnica senza profondità etica.
Responsabilità penale e modelli organizzativi aziendali
In soccorso ai rischi sopra evidenziati intervengono anche le implicazioni penali e le connesse responsabilità ex d.lgs 231/01. Per tornare al tema del tracking, un sistema che simula conformità o elimina tracce digitali può costituire falsificazione di documenti informatici (art.491bis c.p.) o ostacolo all’attività di vigilanza (art. 2638 c.c.), tutti delitti che comportano un rischio di responsabilità “231”, non solo per il provider, ma anche per chi di quel sistema si avvale, se ne prova un coinvolgimento consapevole.
L’intervento tutelante principale per i provider deve necessariamente essere di natura tecnica con il blocco ab origine della cancellazione automatica dei log rilevanti (imposizione di retention minima, audit trail immutabile, ad esempio).
Anche perché a nulla serve adempiere all’oramai datato obbligo in questo campo, voluto dal Garante per la Protezione dei dati personali, di logging delle operazioni degli amministratori di sistema, se quel sistema IA è stato “addestrato” per la cancellazione dei file di log di alcuni eventi rilevanti.
L’uso di tecnologie di integrità, quali firme digitali, blockchain, hash di verifica, possono aiutare, ma non sono sempre risolutive.
Cosa diversa è se viene richiesta al fornitore una customizzazione necessaria per cancellare in automatico file di eventi riproduttivi di output “scomodi”, da parte di una società cliente. E’ un caso tipico in cui aspetti organizzativi, audit tecnici indipendenti sui log, con accesso ai dati grezzi e policy interne, sono le uniche misure che possono prevenire il rischio di una responsabilità ex d.lgs 231/01.
Integrare l’AI Act nei sistemi di governance aziendale
Le aziende sono dunque chiamate a calare nei loro sistemi di governance e di compliance gli obblighi ed i rischi derivanti dal AI Act europeo.
Il Regolamento europeo impone alle organizzazioni di costruire un sistema di governance dell’AI fondato su regole, ruoli e controlli verificabili.
Tra le misure necessarie:
• politiche interne sull’uso dell’AI;
• tracciabilità dei dati e dei processi decisionali automatizzati;
• audit periodici e valutazioni di impatto;
• formazione continua degli utenti e degli amministratori di sistema.
In questa prospettiva, l’AI Act si affianca ai modelli organizzativi già noti alle imprese italiane, come il Modello 231 o il modello organizzativo Privacy, richiedendo un approccio simile ed integrato di prevenzione e responsabilità, che tenga conto di tutte le considerazioni esemplificative esposte in precedenza.
La gestione del rischio AI dovrà essere inserita nel più ampio framework di governance, risk & compliance (GRC), con il coinvolgimento del DPO, del CISO e delle funzioni di internal audit e compliance.
Tre modelli a confronto: Europa, Stati Uniti, Cina
Negli Stati Uniti prevale un approccio di self-regulation: nessuna legge federale organica, ma una combinazione di linee guida e codici etici, come l’AI Bill of Rights e l’Executive Order 14110, che spingono verso l’autoresponsabilità degli sviluppatori.
La Cina, al contrario, ha scelto un modello centralizzato e prescrittivo, imponendo controlli ex ante sui dataset e filtri sui contenuti generati. L’obiettivo è mantenere la coerenza con i valori del sistema politico nazionale.
L’Unione Europea si colloca in una posizione intermedia: un modello regolato di fiducia, dove il rispetto delle regole diventa leva di competitività. È lo stesso approccio che, con il GDPR, ha fatto dell’Europa un punto di riferimento globale per la protezione dei dati.
Le criticità operative e le prime reazioni del mercato
La transizione verso la conformità non sarà priva di ostacoli.
Molte imprese, soprattutto PMI e startup, segnalano oneri economici eccessivi, carenza di competenze e incertezza interpretativa.
Anche alcune definizioni normative sono effettivamente deboli, come ad esempio il confine tra sistemi “ad alto rischio” e “a rischio limitato”, non sempre chiaro. Senza considerare che forse sarebbe stato utile un maggior raccordo, anche in termini di definizioni con la disciplina privacy, un vulnus che in futuro potrebbe generare contenziosi.
Ma il vero rischio è la frammentazione regolatoria tra Stati membri. Senza un efficace coordinamento tra autorità nazionali e tra i diversi regolatori (privacy, concorrenza, cybersecurity), la normativa rischia di essere applicata in modo disomogeneo, minando la competitività del mercato interno.
Verso una fiducia digitale “by design”
La sfida più importante, possiamo ben affermare, non è solo regolatoria, ma culturale.
Il principio di “AI by design” richiama quello già affermato dal GDPR: la conformità non è un controllo successivo, ma un requisito strutturale del processo di sviluppo.
Ogni modello di intelligenza artificiale dovrà essere progettato in modo da garantire spiegabilità, sicurezza e supervisione umana.
Solo così sarà possibile costruire un’AI che serva l’uomo, e non viceversa.
La seconda fase dell’AI Act è molto più di una tappa normativa: è un banco di prova per l’identità digitale europea.
Il successo o il fallimento del Regolamento determineranno se l’Europa saprà affermare un proprio paradigma di innovazione responsabile, distinto dai modelli americano e cinese.
L’AI Act potrà diventare, come il GDPR, un marchio di affidabilità globale, capace di attrarre investimenti e rafforzare la sovranità tecnologica dell’Unione.
Ma perché ciò accada, occorrerà evitare l’errore più tipico della burocrazia europea: creare norme ambiziose senza fornire strumenti concreti di attuazione.
Il futuro dell’Europa digitale dipende dalla capacità di tradurre principi in prassi, etica in ingegneria, e regole in fiducia.
Una sfida che si vince solo con gli ingredienti più umani di tutti: la responsabilità e l’etica.













