La trasparenza è senza dubbio uno dei cardini dell’AI Act e rappresenta una delle leve attraverso cui il legislatore europeo intende governare l’impatto dell’intelligenza artificiale sulla società.
Si tratta di un istituto generale che diventa nel Regolamento un obbligo giuridico concreto, destinato a incidere su progettazione, distribuzione e utilizzo dei sistemi di AI.
Indice degli argomenti
Trasparenza AI Act: perché l’art. 50 è una norma “trasversale”
In questo quadro si colloca l’articolo 50 dell’AI Act, una norma trasversale che opera indipendentemente dalla classificazione del rischio e che introduce specifici obblighi di riconoscibilità dei contenuti e delle interazioni generate o manipolate dall’AI: una disposizione destinata ad avere un impatto rilevante soprattutto sull’AI generativa, sui deepfake e sull’informazione di interesse pubblico.
La portata operativa dell’art. 50 emerge con particolare chiarezza leggendo il primo Draft di “Codice di condotta sulla trasparenza dei contenuti generati dall’AI”, pubblicato dalla Commissione europea nel dicembre 2025 e la cui consultazione pubblica si è chiusa la settimana scorsa.
Questo articolo intende quindi analizzare l’ambito applicativo dell’art. 50 AI Act e i contenuti essenziali del Codice di Condotta, offrendo una lettura orientata alla preparazione degli operatori in vista dell’entrata a regime dei poteri di enforcement in data 2 agosto 2026.
Ambito di applicazione dell’articolo 50: quali sistemi rientrano (e quali no)
L’art. 50 si occupa (e si applica) ai sistemi di intelligenza artificiale che incidono sulla percezione della realtà, indipendentemente dalla tipologia di rischio.
La norma infatti non riguarda tutti i sistemi di intelligenza artificiale, ma solo quelli che, per funzione e output, possono incidere direttamente sulla percezione della realtà da parte delle persone.
In particolare, l’articolo 50 si applica:
- ai sistemi di AI che interagiscono direttamente con esseri umani, come chatbot e assistenti virtuali, quando l’utente potrebbe credere di avere a che fare con una persona reale (art. 50, par. 1);
- ai sistemi di AI che generano o manipolano contenuti, testuali, visivi, audio o audiovisivi, ossia la cosiddetta AI generativa (art. 50, par. 2);
- ai sistemi che producono deepfake o contenuti informativi di interesse pubblico generati o manipolati dall’AI (art. 50, parr. 4 e 5).
Ne restano invece esclusi i sistemi di AI che non producono contenuti comunicativi verso l’esterno, come quelli utilizzati per scoring, previsione o ottimizzazione.
Gli obblighi dell’art. 50 lungo la catena del valore: provider e deployer
Per questi sistemi (che per lo più contengono GPAI – quella chiamata comunemente Ai generativa), l’articolo 50 introduce obblighi di trasparenza differenziati, costruiti lungo la catena del valore dell’AI.
Per i provider di sistemi di AI generativa, il par. 2 impone di garantire che i contenuti generati o manipolati siano:
- marcati in formato leggibile dalle macchine;
- rilevabili come artificialmente generati o manipolati.
La norma non prescrive una tecnologia specifica, ma richiede che le soluzioni adottate siano, per quanto tecnicamente possibile, efficaci, interoperabili, robuste e affidabili.
Per i deployer, i paragrafi 4 e 5 spostano l’attenzione sul rapporto con il pubblico: quando un contenuto costituisce un deepfake o quando un testo generato dall’AI è destinato a informare su questioni di interesse generale, la natura artificiale del contenuto deve essere resa esplicita, in modo chiaro e distinguibile, al più tardi al momento della prima esposizione.
Quando scattano enforcement e sanzioni: la finestra verso il 2 agosto 2026
La norma è oggi già in vigore (ex art. 113 AI ACT) ma la Commissione UE nel documento titolato Guidelines on the scope of the obligations for general-purpose AI models del 18 luglio 2025 (adottato ai sensi dell’art. 96 AI Act) ha chiarito che il primo anno di applicazione deve essere considerato di accompagnamento e preparazione per i soggetti coinvolti.
In altre parole Linee guida precisano che – pur essendo pienamente applicabili gli obblighi previsti dal Capitolo V dell’AI Act (incluso l’articolo 50) – i poteri di enforcement con le relative sanzioni entreranno in applicazione solo dal 2 agosto 2026 per consentire agli operatori di adeguare progressivamente soluzioni tecniche e processi organizzativi.
Il Codice di condotta UE sulla trasparenza: a cosa serve e perché conviene aderire
Allo scopo quindi di arrivare al 2 agosto 2026 con le idee chiare, la Commissione europea tramite l’AI Office ha lavorato (in forza dell’art. 66 AI ACT) alla stesura del Codice di condotta sulla trasparenza dei contenuti generati dall’AI (oggi ancora in corso di approvazione).
Vediamone allora i contenuti.
Il Codice è concepito per fornire un quadro di riferimento finalizzato a dimostrare la conformità agli obblighi legali di cui all’art. 50 AI ACT.
L’adesione è ovviamente volontaria, ma certamente rappresenta un forte aiuto in fase di dimostrazione della conformità in quanto definisce quello che le autorità di sorveglianza considerano lo “stato dell’arte” tecnologico.
Il documento è poi diviso in due parti: le regole per i fornitori e le regole per i deployer
Trasparenza AI Act: marcatura e rilevamento nel Codice (regole per i fornitori)
Ai sensi dell’Articolo 50(2), i fornitori di sistemi di IA generativa (audio, immagini, video, testo) hanno la responsabilità di garantire che gli output siano intrinsecamente riconoscibili e leggibili da dispositivi automatici. Data la complessità degli attuali scenari di manipolazione, il Codice adotta un approccio “multi-layered” (multilivello), riconoscendo che nessuna singola tecnica è attualmente immune da attacchi.
La robustezza è quindi garantita dalla ridondanza: se un livello (come i metadati) viene rimosso, il watermark o l’impronta digitale devono poter confermare l’origine artificiale.
Partiamo ora dal 1.1 relativo alle tecniche di marcatura
| Tecnica di Marcatura | Descrizione Operativa (Sub-measures 1.1.x) |
| Metadati | Inserimento di firme digitali e informazioni sulla provenienza nei file, specificando il tipo di operazione (es. generazione, editing o prompting). |
| Watermarking Impercettibile | Segnali direttamente intrecciati nel contenuto, progettati per resistere a trasformazioni comuni e difficili da rimuovere senza degradare la qualità. |
| Fingerprinting / Logging | Uso di hash percettivi per i contenuti visuali o registri (logging) per il testo, permettendo la verifica ex-post dell’origine sintetica. |
Alla Misura 1.3 il Codice affronta poi, specificamente, i modelli “open-weight”, richiedendo l’implementazione di marcature strutturali direttamente nei pesi del modello. Questo sforzo mira a risolvere il problema della conformità “a valle”, consentendo agli sviluppatori open-source di ereditare funzionalità di trasparenza.
Uno dei punti critici per i fornitori sarà senza dubbio la Misura 1.7, che impone ai gli stessi di offrire interfacce con opzioni integrate per l’etichettatura percettibile (abilitate per impostazione predefinita), facilitando così il compito dei deployer.
Etichettatura per i deployer: icone, tassonomia e disclosure al primo contatto
Per quanto attiene poi ai deployer l’art. 50 par. 4 prevede (come visto sopra) l’obbligo di comunicare in modo chiaro e distinguibile la “natura artificiale” dei contenuti nel momento della prima interazione con le persone fisiche.
Il Codice distingue allora i seguenti ambiti principali di applicazione:
Parte A: Adozione di una tassonomia e di un’icona comune
- Tassonomia: I contenuti devono essere distinti in “Contenuti completamente generati dall’IA” (creati autonomamente dall’IA) e “Contenuti assistiti dall’IA” (dove l’IA altera significativamente il significato, la veridicità o il tono emotivo di contenuti umani, o modifica sostanzialmente testi di interesse pubblico).
- Icona: In attesa di un’icona comune dell’UE definitiva, i deployer possono utilizzare un’icona provvisoria composta dall’acronimo “AI” (o traduzioni locali come IA). L’obiettivo futuro è sviluppare un’icona UE interattiva che permetta agli utenti, cliccandoci, di capire cosa sia stato esattamente generato o manipolato.
Obblighi su deepfake e testi di pubblico interesse: cosa cambia in pratica
Parte B – Obblighi specifici per i Deepfake
Per i contenuti audio, video o immagini che costituiscono deepfake, la divulgazione deve avvenire al momento della prima esposizione in modo chiaro e distinguibile.
Le regole variano in base al formato:
- Video in tempo reale: Richiede un’icona non intrusiva e un disclaimer all’inizio che spieghi la presenza del deepfake.
- Video non in tempo reale: Richiede l’icona e un disclaimer (all’inizio o nei crediti).
- Immagini: L’icona deve essere posizionata in modo fisso e ben visibile.
- Audio: Per audio brevi (sotto i 30 secondi), serve un disclaimer vocale all’inizio. Per formati lunghi (es. podcast), il disclaimer deve essere ripetuto. Se è presente uno schermo (es. in auto o su smartphone), deve apparire anche l’icona visiva,.
- Opere creative/satiriche: La divulgazione deve essere “non intrusiva” per non ostacolare il godimento dell’opera (es. nei titoli di coda o con un’icona discreta), pur salvaguardando i diritti di terzi,.
3. Parte C – Obblighi specifici per i testi di pubblico interesse I deployer devono segnalare i testi generati o manipolati dall’IA pubblicati per informare su questioni di pubblico interesse, a meno che non vi sia stato un controllo umano.
- Posizionamento: L’icona o l’etichetta devono essere in una posizione fissa e chiara (es. in cima al testo, accanto ad esso o nel colophon).
- Eccezione per revisione umana: L’obbligo di etichettatura non si applica se il testo è stato sottoposto a revisione umana o controllo editoriale e se una persona fisica o giuridica si assume la responsabilità editoriale. Per avvalersi di questa eccezione, i deployer devono documentare le procedure interne di revisione.
Accessibilità, formazione e monitoraggio: la compliance come processo continuo
- Accessibilità: Le etichette e le icone devono essere accessibili a tutti, inclusi gli utenti con disabilità (es. tramite descrizioni audio, contrasto elevato, compatibilità con screen reader),.
- Formazione e monitoraggio: I deployer devono formare il personale sull’uso corretto delle etichette e implementare meccanismi per permettere agli utenti di segnalare contenuti etichettati in modo errato o non etichettati,.
- Deepfake: Immagini, audio o video che manipolano persone o eventi reali facendoli apparire autentici. In questo caso, l’etichettatura deve essere palese e immediata.
- Testi generati dall’IA per l’informazione pubblica: Testi volti a informare su questioni di interesse generale. L’obbligo decade se il contenuto è sottoposto a revisione umana e il deployer ne assume la piena responsabilità editoriale.
Roadmap 2026: dalla consultazione al testo finale e agli adempimenti operativi
Il primo draft, pubblicato il 17 dicembre 2025, è il risultato di un processo multi-stakeholder che ha coinvolto industria, sviluppatori tecnologici, piattaforme digitali, accademia e società civile.
Dopo la consultazione sul primo draft (terminata la settimana scorsa) , la prossima stesura dovrebbe essere pubblicata a Marzo 2026 con l’obiettivo di arrivare all’adozione del testo finale entro giugno 2026.
Può essere che alcuni profili cambieranno, ma senza dubbio le linee principali sono segnate.
Per chi progetta e per chi acquista appare quindi opportuno cominciare a tenere in considerazione quali sono gli adempimenti.

















