normativa

Deepfake, quando l’AI manipola la realtà: il diritto in affanno



Indirizzo copiato

I deepfake sfidano il diritto e mettono in crisi privacy, reputazione e fiducia pubblica. Le norme attuali risultano inadeguate a proteggere la dignità personale in un contesto dove l’intelligenza artificiale genera verità artificiali sempre più convincenti

Pubblicato il 14 ott 2025

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



deepfake (1) Deepfake e diritto d'autore

Negli ultimi anni i deepfake sono usciti dal perimetro delle curiosità tecnologiche per diventare un problema sociale, politico e giuridico di prim’ordine.

Deepfake, un problema sociale oltre la tecnologia

Video e immagini generati dall’intelligenza artificiale, spesso indistinguibili dal reale, circolano con facilità impressionante sui social network e nelle piattaforme di messaggistica, raggiungendo milioni di utenti in poche ore. Non si tratta più soltanto di scherzi o esperimenti digitali, ma di strumenti utilizzati per diffamare persone comuni, screditare figure pubbliche, ricattare vittime vulnerabili e persino destabilizzare campagne elettorali o conflitti internazionali.

La velocità con cui questi contenuti si diffondono ha messo in crisi l’efficacia delle norme esistenti: disposizioni nate per contrastare il revenge porn o la diffamazione online appaiono insufficienti di fronte a manipolazioni tanto sofisticate e pervasive. In diversi Paesi, dall’Italia agli Stati Uniti, dal Regno Unito alla Cina, i legislatori stanno correndo ai ripari, sperimentando modelli di regolamentazione che spaziano dal rafforzamento delle fattispecie penali all’imposizione di obblighi preventivi per le piattaforme digitali.

In questo contesto, il nodo da sciogliere è duplice: da un lato proteggere con strumenti efficaci la dignità, la reputazione e la privacy delle vittime; dall’altro evitare che un eccesso di regolazione soffochi gli usi leciti e creativi dell’intelligenza artificiale, con il rischio di frenare l’innovazione. La partita che si gioca attorno ai deepfake non è soltanto giuridica, ma culturale e democratica: riguarda il nostro rapporto con la verità e la capacità delle istituzioni di presidiare uno spazio pubblico sempre più fragile.

Quando la tecnologia sfida la percezione della realtà

Il fenomeno dei deepfake non è un mero epifenomeno della cultura digitale, ma rappresenta una delle questioni più complesse e dirompenti per l’ordinamento giuridico contemporaneo. La capacità di manipolare immagini, video e suoni con strumenti di intelligenza artificiale generativa, spesso disponibili gratuitamente online e alla portata di chiunque, produce un effetto dirompente sulla percezione della realtà. Si pensi all’impatto psicologico e reputazionale che un video falso può generare: la vittima non si trova più a difendersi da una calunnia o da una fotografia rubata, bensì da un artefatto indistinguibile dall’originale, che crea nel pubblico una sensazione di verità difficilmente scalfibile anche quando la falsità venga dimostrata.

Dal caso Meloni alla crisi dello spazio pubblico

Il caso che ha coinvolto la premier Giorgia Meloni e sua sorella Arianna ha segnato un punto di svolta nel dibattito pubblico italiano. Non è la prima volta che la politica viene presa di mira: nel 2023, il presidente ucraino Zelensky era stato protagonista di un deepfake che annunciava la resa, diffuso come strumento di propaganda bellica. Tuttavia, la vicenda italiana ha avuto una risonanza particolare, perché ha mostrato come persino le più alte cariche istituzionali possano essere vittime di manipolazioni che travalicano i confini del diritto alla riservatezza e incidono direttamente sulla stabilità democratica. In poche ore, contenuti falsi hanno raggiunto migliaia di utenti, mettendo in crisi non solo la sfera privata delle persone coinvolte, ma anche l’immagine pubblica del Paese.

L’intervento del Garante per la protezione dei dati personali, che ha aperto un’istruttoria richiamando l’urgenza di nuove tutele, ha confermato che il sistema normativo attuale non è sufficiente a contrastare fenomeni di questa portata.

La questione, dunque, non riguarda più soltanto la protezione del singolo individuo, ma investe la fiducia collettiva nelle informazioni e la tenuta stessa dello spazio pubblico. Senza strumenti normativi adeguati, la società rischia di scivolare in una condizione in cui la verità e la falsità diventano indistinguibili, con conseguenze devastanti non solo per la reputazione personale, ma anche per la democrazia e l’ordine sociale.

I principi costituzionali tra dignità e libertà di espressione

La Costituzione italiana offre una base solida per affrontare il problema, ma impone al legislatore un compito complesso di bilanciamento.

L’art. 2 riconosce e garantisce i diritti inviolabili dell’uomo, tra i quali si collocano la dignità, l’identità personale e la riservatezza. La manipolazione digitale che trasforma un volto in veicolo di contenuti falsi costituisce una violazione diretta di tali diritti, degradando la persona a mero oggetto di spettacolo o di scherno.

L’art. 13, che tutela la libertà personale, e l’art. 21, che sancisce la libertà di manifestazione del pensiero, si collocano al centro del conflitto normativo: da un lato la necessità di reprimere gli abusi, dall’altro il rischio di comprimere eccessivamente la libertà di espressione e la creatività artistica.

Il quadro europeo e i limiti del GDPR

Il quadro europeo rafforza tale impostazione.

L’art. 8 della Convenzione europea dei diritti dell’uomo garantisce il diritto al rispetto della vita privata e familiare, mentre l’art. 10 tutela la libertà di espressione. La giurisprudenza della Corte EDU ha chiarito che le restrizioni alla libertà di espressione sono ammissibili se necessarie in una società democratica per proteggere i diritti altrui: un principio che trova applicazione immediata nel contesto dei deepfake. Anche la Carta dei diritti fondamentali dell’Unione Europea, agli articoli 7 e 8, ribadisce il diritto alla vita privata e alla protezione dei dati personali, creando un quadro di riferimento che obbliga gli Stati membri a garantire una protezione efficace.

Il GDPR rappresenta un presidio fondamentale, ma la sua applicazione ai deepfake incontra limiti strutturali. In molti casi, infatti, il contenuto sintetico non utilizza dati biometrici reali, bensì genera un volto o una voce artificialmente. La Relazione del Garante Privacy del 2025 ha messo in luce questa ambiguità, sottolineando come il GDPR abbia svolto un ruolo di “freno etico-giuridico”, ma non possa da solo arginare la minaccia. È per questo che la riflessione giuridica deve spingersi oltre i confini della protezione dei dati personali, toccando la disciplina penale e civile e interrogandosi sulla natura stessa della verità digitale.

Normativa italiana: un sistema in affanno

L’ordinamento penale italiano, allo stato attuale, non dispone di strumenti pienamente adeguati. L’art. 612-ter c.p., introdotto nel 2019 per reprimere la diffusione non consensuale di materiale intimo (revenge porn), è calibrato su immagini reali e non su contenuti creati artificialmente. Applicarlo ai deepfake implica forzature interpretative che rischiano di violare i principi di legalità e tassatività. Similmente, l’art. 595 c.p. (diffamazione) non coglie la specificità della manipolazione digitale, che non consiste in una semplice attribuzione di fatti non veri, ma nella creazione di una realtà alternativa che si sostituisce a quella autentica.

La risposta del legislatore: il disegno di legge 1066

In alcuni casi, i giudici hanno tentato di colmare il vuoto normativo con strumenti processuali. Nel 2024, un tribunale ha disposto in via cautelare la rimozione immediata di contenuti manipolati ospitati su server esteri, dimostrando come la giurisprudenza sia costretta a operare in assenza di una disciplina specifica. Tuttavia, questo intervento rimane eccezionale e dipende dalla sensibilità del singolo giudice, con evidenti limiti di certezza del diritto.

Sul piano politico, il Disegno di legge n. 1066 del 2024, in discussione in Parlamento, rappresenta un passo decisivo. Esso introduce nel Codice penale l’art. 612-quater, che punisce l'”illecita diffusione di contenuti generati o manipolati artificialmente”, con pene fino a cinque anni di reclusione. Prevede inoltre obblighi di trasparenza, con l’apposizione di un “bollino digitale” sui contenuti generati da intelligenza artificiale, e attribuisce ad Agcom poteri di vigilanza e sanzione. Si tratta di una risposta normativa significativa, ma non priva di criticità: la sua applicazione pratica richiederà un equilibrio delicato tra repressione degli abusi e salvaguardia della libertà di espressione.

Il contesto europeo: Digital Services Act e AI Act

La dimensione europea offre strumenti complementari. Il Digital Services Act (DSA), entrato in vigore nel 2024, rafforza la responsabilità delle piattaforme imponendo procedure di notice and take down e obblighi di trasparenza. Già oggi, un utente che segnali un contenuto illecito deve ricevere una risposta tempestiva, e le grandi piattaforme sono tenute a predisporre sistemi di monitoraggio dei rischi sistemici, tra cui la disinformazione e la manipolazione dei contenuti.

Parallelamente, l’AI Act, approvato nel 2024, prevede regole specifiche per i sistemi generativi. Esso introduce l’obbligo di etichettare i contenuti sintetici con watermark o tecniche equivalenti, così da consentire agli utenti di riconoscere immediatamente ciò che è artificiale. Si tratta di una misura di prevenzione che, se attuata correttamente, potrebbe ridurre la diffusione incontrollata di deepfake ingannevoli. Tuttavia, restano dubbi sulla sua effettività: la capacità degli sviluppatori di aggirare i sistemi di etichettatura e la difficoltà di far rispettare tali obblighi a livello globale rischiano di indebolire l’impatto della norma.

California, Cina e Regno Unito: modelli a confronto

L’esperienza italiana ed europea si colloca in un quadro internazionale in rapido movimento. Negli Stati Uniti, alcuni Stati come la California e il Texas hanno già introdotto leggi specifiche che vietano la creazione e la diffusione di deepfake a fini politici o pornografici non consensuali. La normativa californiana, ad esempio, consente alle vittime di agire in sede civile per ottenere il risarcimento dei danni e la rimozione dei contenuti, mentre il Texas ha criminalizzato la diffusione di deepfake destinati a influenzare le elezioni.

Il Regno Unito, invece, ha inserito i deepfake all’interno della riforma del Online Safety Bill, imponendo alle piattaforme l’obbligo di rimuovere rapidamente contenuti manipolati e di predisporre sistemi di segnalazione efficaci. La Francia ha rafforzato la disciplina sulle “fake news” con la legge del 2018 contro la manipolazione dell’informazione, prevedendo strumenti di rimozione accelerata nei periodi elettorali. La Cina, infine, ha adottato una delle regolazioni più stringenti: dal 2023 è in vigore una normativa che obbliga i fornitori di servizi di deep synthesis a contrassegnare i contenuti generati artificialmente e a impedirne l’uso illecito, pena pesanti sanzioni.

Questi esempi mostrano come il problema sia globale e come le risposte giuridiche oscillino tra modelli repressivi e modelli preventivi. L’Italia, inserita nel contesto europeo, sembra orientata verso una combinazione delle due strategie, ma la sfida sarà garantire un’effettiva applicazione senza cadere in derive censorie.

Diritto penale, diritto civile e responsabilità delle piattaforme

Una risposta efficace non può essere solo penale. Il diritto civile deve garantire alla vittima strumenti rapidi e incisivi per ottenere tutela. Non basta riconoscere un risarcimento monetario a posteriori: è necessario che la legge preveda procedure speciali per la rimozione immediata dei contenuti lesivi e misure cautelari idonee a impedire la reiterazione del danno. Alcuni giuristi hanno proposto di ampliare l’applicazione dell’art. 700 c.p.c. (provvedimenti d’urgenza) o di introdurre un rito speciale dedicato ai contenuti digitali lesivi.

Le piattaforme digitali, poi, non possono più essere considerate meri intermediari neutri. Il DSA europeo e il D.D.L. italiano già prevedono obblighi di vigilanza e responsabilità, ma il dibattito rimane acceso. La responsabilità delle piattaforme deve essere calibrata con attenzione: un regime troppo severo rischierebbe di spingerle verso un eccesso di prudenza e di favorire forme di autocensura preventiva; un regime troppo blando, invece, le lascerebbe libere di ospitare contenuti manipolati senza conseguenze.

L‘equilibrio necessario tra protezione e innovazione

La vera sfida, in definitiva, è quella del bilanciamento. Da un lato vi è l’esigenza di proteggere la dignità della persona, riconosciuta come valore supremo dall’art. 2 Cost. e dai trattati internazionali. Dall’altro vi è la necessità di preservare la libertà creativa e la libertà di espressione, senza le quali una società democratica perderebbe vitalità.

Il caso di Hollywood, con la digitalizzazione e il “ringiovanimento” degli attori, dimostra che i deepfake possono essere utilizzati legittimamente come strumenti artistici, purché vi sia consenso e trasparenza. Ciò che distingue l’uso lecito da quello illecito non è la tecnologia in sé, ma il rispetto dei diritti della persona rappresentata. La legge, quindi, deve saper individuare confini chiari e sanzioni proporzionate, evitando soluzioni emergenziali che rischiano di sacrificare la libertà in nome della sicurezza.

Il diritto come custode della verità digitale

I deepfake mettono in discussione la capacità della società di distinguere tra vero e falso. Se questa distinzione viene meno, viene meno anche la fiducia collettiva, che è la base della convivenza democratica. In questo senso, il diritto non può limitarsi a reprimere: deve diventare custode della verità digitale, costruendo un sistema che sappia garantire trasparenza, responsabilità e tutela effettiva delle vittime.

Il caso Meloni, la legislazione italiana in fieri e i provvedimenti europei ed extraeuropei mostrano che il percorso è appena iniziato. La sfida è globale e richiede una cooperazione internazionale, perché i contenuti digitali non conoscono confini. Solo attraverso un approccio integrato, che unisca diritto penale, civile e regolamentazione delle piattaforme, sarà possibile affrontare il fenomeno in modo efficace. La dignità della persona, principio fondante di ogni ordinamento democratico, deve rimanere il faro che orienta la legislazione in questo nuovo territorio, dove la verità e l’inganno si contendono lo spazio della rappresentazione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati