Il 26 marzo 2026 il Parlamento europeo ha approvato la sua posizione sul Digital Omnibus; questa si caratterizza soprattutto perché delinea date applicative più precise, una disciplina più ordinata per i sistemi ad alto rischio e un accento più marcato sulla trasparenza dei contenuti generati dall’IA, con un riferimento esplicito anche ai sistemi idonei a produrre immagini sessualmente esplicite riferibili a persone reali. Il lessico della semplificazione, dunque, ha ormai assunto una consistenza istituzionale piena.
Come spesso sostenuto in questa rubrica, il problema della semplificazione riguarda essenzialmente la sua precisione e la precisione attiene alla verità.
Indice degli argomenti
La natura multidimensionale del deepfake: oltre il falso audiovisivo
In questo panorama, il punto decisivo riguarda la natura del deepfake. Chi riduce il fenomeno a un semplice falso audiovisivo sceglie una prospettiva troppo corta e giuridicamente povera.
Le 4 dimensioni del deepfake
Il deepfake vive, infatti, in una zona di interferenza tra quattro dimensioni diverse.
- Esso è contenuto, poiché entra nello spazio pubblico come immagine, voce, testo, video, documento persuasivo.
- Esso è dato, poiché richiede corpora, tracce biometriche, registri vocali, materiali visivi, relazioni semantiche.
- Esso è modello, poiché deriva da architetture addestrate a imitare espressioni, volti, timbri, posture, stili discorsivi.
- Esso è piattaforma, poiché acquista forza sociale attraverso interfacce, meccanismi di ranking, economie dell’attenzione, logiche di amplificazione.
Qui il diritto incontra un oggetto refrattario alle vecchie compartimentazioni, poiché il fatto lesivo nasce da una catena e acquista efficacia lungo la catena. L’Omnibus acquista rilievo proprio per questo: esso tenta di ridurre le frizioni tra discipline contigue e di rendere più leggibile la filiera regolatoria dell’IA.
Trasparenza e accountability: quando la disclosure rischia di diventare ornamentale
La semplificazione, però, possiede valore giuridico soltanto entro una cornice capace di custodire tracciabilità e accountability. Una trasparenza affidata al solo enunciato formale dell’obbligo produrrebbe un diritto elegante sulla carta e fragile nella prova. Il contenuto sintetico chiede, invece, una struttura di riconoscibilità stabile: origine del file, natura artificiale dell’elaborazione, passaggi tecnici essenziali, soggetto responsabile, metodo di marcatura, integrità del segnale informativo lungo la circolazione. In assenza di questa catena cognitiva, l’obbligo di disclosure scivola verso una funzione ornamentale.
La semplificazione, in altri termini, merita apprezzamento quando agevola la verifica, organizza l’imputazione della responsabilità, rende più rapida l’attività delle autorità e più intelligibile la posizione degli operatori. Lo stesso impianto dell’Omnibus sull’IA nasce, secondo la Commissione, per assicurare un’attuazione tempestiva, proporzionata e ordinata di talune disposizioni dell’AI Act; proprio tale obiettivo impone una lettura severa del rapporto tra alleggerimento degli oneri e qualità della prova regolatoria.
Compliance formale e riconoscibilità sostanziale: una distinzione cruciale
Da qui discende una distinzione cruciale, spesso trascurata nel dibattito pubblico. Una cosa è la compliance formale, altra cosa è la riconoscibilità sostanziale del contenuto manipolato.
La prima soddisfa il requisito attraverso formule, interfacce, avvisi, etichette, protocolli di attestazione.
La seconda consente al destinatario, all’autorità, al giudice, al ricercatore, al giornalista, all’utente professionale di accertare che un contenuto appartenga davvero alla categoria dei prodotti sintetici e di ricostruirne il regime di responsabilità. Tra queste due dimensioni corre una differenza simile a quella che separa l’adempimento documentale dalla motivazione sostanziale nel diritto amministrativo. Un sistema europeo che premiasse la sola velocità dell’adeguamento offrirebbe agli operatori una superficie lineare e, al tempo stesso, lascerebbe il corpo del problema in una penombra tecnica. Per il deepfake, invece, la trasparenza possiede senso giuridico solo quando alimenta una conoscibilità effettiva. Anche per tale ragione il Parlamento ha chiesto date fisse per alcuni obblighi e ha associato alla semplificazione un’attenzione particolare verso watermarking e trasparenza dei contenuti generati dall’IA.
Il ruolo degli standard tecnici nel diritto europeo dell’intelligenza artificiale
Il ruolo degli standard tecnici appare, a questo punto, centrale. Lo standard traduce l’enunciato normativo in criteri di verificazione, interoperabilità e audit. La regola giuridica prescrive l’obbligo di trasparenza; lo standard definisce le modalità attraverso cui tale obbligo entra nella pratica amministrativa, nella prova processuale, nella compliance industriale, nei controlli automatizzati, nelle verifiche dei soggetti terzi. Proprio qui si comprende la richiesta, avanzata da molte parti interessate, di una disponibilità preventiva di standard e linee guida.
L’ordinamento europeo, in materie ad alta intensità tecnologica, acquisisce stabilità attraverso questo ponte fra testo normativo e tecnica di controllo. Il Consiglio, nella sua posizione, ha valorizzato il tema della coerenza e dell’alleggerimento degli oneri; il Parlamento, dal canto suo, ha collegato tale esigenza a date applicative certe e a obblighi di trasparenza più nitidi.
La qualità del ponte tecnico decide, dunque, la qualità della norma. In gioco vi sono identità personale, autodeterminazione informativa, integrità della reputazione, correttezza del discorso pubblico, genuinità del processo democratico, affidabilità delle relazioni contrattuali, protezione del corpo come segno giuridico della persona. L’immagine sintetica che imita una persona reale tocca il cuore della personalità giuridica, poiché usa il volto, la voce e il gesto come materia disponibile per finalità eterodirette. Una disciplina europea seria, perciò, richiede una grammatica capace di tenere insieme mercato e diritti, innovazione e imputazione, circolazione dei contenuti e presidio della dignità.
L’Omnibus interessa proprio in questa luce: esso promette ordine, chiarezza applicativa, riduzione delle sovrapposizioni; tale promessa acquista legittimità piena quando l’ordine rafforza la presa del diritto sul fatto tecnologico e quando la chiarezza alimenta il controllo, la prova, la responsabilità.
Verso una filiera regolatoria limpida: semplificazione ed essenziale cogenza
La trasparenza europea dei contenuti sintetici cerca dunque una forma stabile attraverso un equilibrio assai esigente. Serve una filiera regolatoria limpida, entro la quale AI Act, Omnibus, standard tecnici, obblighi di etichettatura, governance dei dati e poteri di vigilanza parlino un linguaggio comune. Serve, soprattutto, una concezione della semplificazione capace di distinguere l’essenziale dal superfluo e di affidare all’essenziale il massimo grado di cogenza. Nel campo dei deepfake, l’essenziale coincide con la capacità del diritto di rendere riconoscibile l’artificio, attribuibile la responsabilità, verificabile la conformità, intellegibile la catena tecnica che conduce dal dato al contenuto. Ne va della serietà del nuovo diritto europeo dell’intelligenza artificiale.









