normativa

Deepfake, dalle norme Ue al reato italiano: tutele e limiti



Indirizzo copiato

La diffusione di contenuti manipolati con AI solleva questioni giuridiche complesse. Il legislatore italiano ha introdotto sanzioni penali per chi diffonde deep fake dannosi, affiancando la nuova fattispecie alle tutele esistenti su immagine, privacy e diritti della personalità

Pubblicato il 29 ott 2025

Flavia Scarpellini

Corporate Lawyer



deepfakes

Il tema dei deepfake è oggi al centro del dibattito giuridico e tecnologico. Con l’entrata in vigore della nuova legge italiana sull’intelligenza artificiale, il rapporto tra deepfake e diritto assume una dimensione inedita, ponendo questioni cruciali di libertà, responsabilità e tutela della persona.

La nozione di deepfake e i suoi usi tra lecito e illecito

Il termine “deepfake” (una parola “macedonia” che deriva dalla fusione di “deep learning” e “fake”) indica un contenuto digitale (immagine, video o audio) generato o manipolato dall’Intelligenza Artificiale (AI) (in precedenza anche da software meno articolati) che è venuto alla ribalta negli ultimi anni per l’appropriazione di immagini di personaggi famosi (ad esempio, il papa con un piumino bianco nel 2023[1]e il Presidente degli Stati Uniti Obama nel 2018[2]), le cosiddette truffe ai CEO (dove l’immagine riproduce il capo azienda che impartisce un falso ordine di pagamento[3]), nonché per l’uso con finalità pornografiche di immagini di famose attrici[4]. Molte sono tuttavia le ulteriori esemplificazioni di usi malevoli del fenomeno (ad esempio, il bullismo[5]), ma vi sono anche casi di finalità lecite: ad esempio, i deep fake vengono utilizzati nel cinema, la medicina, l’arte e l’intrattenimento, nonché per fini commerciali (e-commerce).

Come anticipato, queste tecniche sono note principalmente per il loro utilizzo illecito, vuoi per perpetrare vere e proprie truffe, vuoi per presentare personaggi (noti o meno noti) in situazioni o quali protagonisti di atti e discorsi falsi. Spesso possono essere anche alla base del fenomeno più ampio delle fake news. Nonostante sia evidente la necessità di approntare delle tutele preventive, risulta impossibile vietare tout court la loro diffusione perché ciò sarebbe contrario alla libertà di espressione, costituzionalmente garantita.

Le tecniche più diffuse del “deepfake” comprendono, fra l’altro:

(a) la manipolazione di tratti facciali per alterare le caratteristiche del volto di una persona (es. invecchiamento/ ringiovanimento);

(b) le tecniche di “face swap (il volto dell’immagine originale viene sostituito con un altro);

(c) le tecniche di “face reenactment” e “lip syncking con cui nel video sembra che la persona ritratta compia determinate azioni o renda determinate dichiarazioni[6]. Attualmente, a differenza dell’esordio, dove venivano presi di mira soprattutto personaggi famosi, il fenomeno e la relativa tecnologia si sono talmente diffusi per cui chiunque può diventarne vittima.

Limitando il discorso al “deepfake” generico – prescindendo, quindi, da sue eventuali caratterizzazioni (ad esempio, estorsione, pornografia, bullismo, fake news, ecc.) che punterebbero alla tutela di ulteriori specifici beni giuridici -, analizziamo qui di seguito la normativa applicabile al “deepfake”, soprattutto in relazione all’uso dell’immagine e/o della voce di una persona fisica, e ciò anche alla luce della recentissima normativa italiana sull’AI che introduce all’uopo una specifica fattispecie di reato.

Una disciplina frammentata e il diritto all’immagine come tutela primaria

La diffusione di un contenuto audiovisivo creato o manipolato mediante l’AI per simulare realisticamente azioni o immagini altrui false è suscettibile di avere implicazioni in diversi ambiti del diritto, tra cui la tutela della personalità[7], il diritto d’autore e la privacy. Manca tuttavia, una disciplina organica del fenomeno poiché il legislatore è intervenuto più volte in modo frammentato, per lo più introducendo fattispecie di reato con chiara funzione di deterrenza.

In particolare, nell’ambito dei diritti e delle libertà fondamentali il diritto all’immagine rientra nella categoria dei diritti della personalità e, in particolare, del diritto alla riservatezza e trova applicazione soprattutto per impedire la pubblicazione o l’esposizione del ritratto altrui senza il consenso dell’interessato.

Pur non essendo espressamene contemplato, è di regola ricondotto nell’alveo dei diritti della personalità di cui all’art. 2 della Costituzione e , indirettamente, anche dell’art. 3 che tutela la dignità degli individui. A livello internazionale, la Corte Europea dei Diritti dell’Uomo ha individuato la tutela del diritto all’immagine nell’art. 8 della Convenzione Europea dei Diritti dell’Uomo (CEDU) che tratta della vita privata e la riservatezza della persona[8].

Tra codice civile, diritto d’autore e privacy: le norme nazionali

Oltre alla disciplina costituzionale e della CEDU, a livello nazionale l’immagine di una persona fisica è tutelata, in primis, dall’art. 10 cod. civ. che limita la pubblicazione o l’esposizione dell’immagine di una persona ai casi consentiti dalla legge, purché nel rispetto del decoro e della reputazione della persona. In caso di violazione, l’art. 10 prevede una tutela inibitoria, oltre al risarcimento del danno ex artt. 2043 e 2059 cod. civ..

La legge sul diritto autore[9], inoltre,  prevede all’art. 96 il divieto di esporre, riprodurre o mettere in commercio il ritratto di una persona senza il suo consenso, fermo restando che, in base all’ 97 della medesima legge, il consenso non è necessario “quando la riproduzione dell’immagine è giustificata dalla notorietà o dall’ufficio pubblico coperto, da necessità di giustizia o di polizia, da scopi scientifici, didattici o culturali, o quando la riproduzione è collegata a fatti, avvenimenti, cerimonie di interesse pubblico o svoltisi in pubblico”. Tuttavia, il ritratto non può essere posto in commercio o esposto se questo lede il decoro e la reputazione della persona (di cui all’art. 10 cod. civ.), oltre che l’onore.

Si rende, perciò, necessario distinguere all’interno del diritto all’immagine il diritto della persona, che è assoluto (il rispetto del decoro, dell’onore e della reputazione della persona ritratta), dalla valenza economica del bene “oggetto” in cui si concretizza l’immagine e che viene sfruttato commercialmente. Tuttavia, trattandosi di un diritto della personalità, lo sfruttamento commerciale dell’immagine deve sempre avvenire nel rispetto di tale natura, al punto che la cessione dei diritti di sfruttamento economico dell’immagine può essere sempre revocata dal titolare del diritto (salvo il risarcimento del danno per inadempimento contrattuale).

Infine, a tutela dell’immagine trovano applicazioni anche le disposizioni sulla privacy (il d.lgs. 196/2003 e il GDPR[10]), atteso che l’immagine è un dato personale che consente di identificare una persona fisica.

L’AI Act e l’obbligo di trasparenza per i contenuti generati artificialmente

A livello comunitario, l’AI Act[11] contiene una specifica definizione di “deepfake“: un’immagine o un contenuto audio o video generato o manipolato dall’IA che assomiglia a persone, oggetti, luoghi, entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona” (art. 3. n. 60).

Successivamente, l’art. 50, comma 4[12] pone a carico dei “deployer[13]” dei sistemi di AI che generano o manipolano contenuti che costituiscono “deepfake” l’obbligo di rendere noto che il contenuto è stato generato o manipolato artificialmente , salvo che si tratti di riproduzioni nell’ambito di spettacoli artistici e/o di satira (e sempre nel rispetto della libertà di espressione). Tale obbligo di trasparenza deve essere, in particolare, reso in modo “chiaro e distinto”, etichettando di conseguenza gli output dell’AI e rivelandone l’origine artificiale[14]. Si noti, altresì, che nella definizione di “deployer” dell’AI ACT sfugge l’utilizzo del sistema di AI “per un’attività personale non professionale[15]”.

Se consideriamo il “deepfake” come una fattispecie speciale di ouput dell’AI, sembra ragionevole ritenere, inoltre, che trovi applicazione anche la previsione del comma 2 del medesimo articolo 50, che pone a carico dei “fornitori di sistemi di AI per finalità generali[16]” che generano contenuti sintetici di garantire che l’output sia marcato e rilevabile come generato o manipolato digitalmente.

A parte i sopra richiamati obblighi di trasparenza, il “deepfake” non riceve una disciplina organica all’interno dell’AI Act. Di per sé, non è neppure connotato come tecnica ad alto rischio (ex art. 6 dell’AI Act), verosimilmente per la varietà dei contenuti che il fenomeno può concretamente assumere. Tuttavia, non si può escludere il medesimo possa rientrare in una delle materie di cui all’Allegato III dell’AI Act e presentare un rischio significativo di danno “per la salute, la sicurezza o i diritti fondamentali delle persone fisiche”, anche nel senso di ”influenzare materialmente il risultato del processo decisionale” (art. 6, comma 3, AI Act).

Per riepilogare, ai fini dell’applicazione della disciplina sulla trasparenza di cui all’AI Act occorre che il deepfake:

  • a) sia realizzato con un sistema di AI, come ivi definito, nell’ambito di un’attività professionale e non personale da parte del deployer;
  • b) non faccia parte di “un’analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi“ nel qual caso l’obbligo di trasparenza non deve “ostacolare l’esposizione o il godimento dell’opera” (per cui sembrerebbe possibile adempiervi successivamente alla pubblicazione dell’opera) e
  • c) non sia utilizzato dalle forze dell’ordine per scopi quali “l’individuazione o la prevenzione di reati” (art. 50, comma 4, AI Act).

Il mancato inquadramento del deepfake nei sistemi AI ad alto rischio e la previsione di soli obblighi di “trasparenza” con ampie eccezioni (artistiche/satiriche/fittizie) non agevolmente interpretabili lasciano, quindi, il deepfake come un istituto sprovvisto di particolari tutele preventive per combattere compiutamente il fenomeno nell’ambito dell’AI ACT.

La nuova legge italiana sull’AI e il reato di diffusione di deep fake

Il codice penale italiano contiene già talune fattispecie generiche applicabili ai casi di diffusione di deepfake, come il reato di sostituzione di persona (art. 494 c.p.) che punisce, con la reclusione fino ad 1 anno, chiunque, al fine di procurare a sé o ad altri un vantaggio o di recare ad altri un danno, induce taluno in errore, sostituendo illegittimamente la propria all’altrui persona, o attribuendo a sé o ad altri un falso nome, o un falso stato, ovvero una qualità a cui la legge attribuisce effetti giuridici.

Ma le vere novità sono state introdotte dall’art. 26, comma 1, della nuova legge italiana sull’AI[17]. In particolare:

a) la circostanza aggravante comune qualora il reato sia commesso mediante sistemi di intelligenza artificiale, e

b) il nuovo reato di “illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”.

Infatti, l’art. 61, primo comma, c.p. in materia di circostanze aggravanti comuni, viene integrato con il numero 11-decies che aggiunge la circostanza aggravante di aver commesso il fatto mediante sistemi di intelligenza artificiali “quando gli stessi, per la loro natura o le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o privata difesa, ovvero aggravato le conseguenze del reato”.

Inoltre, viene introdotto nel codice penale l’art. 612-quater nell’ambito del titolo XII (Delitti contro la persona), capo III (Delitti contro la libertà individuale), sezione III (Delitti contro la libertà morale). Il nuovo reato punisce con la reclusione da 1 a 5 anni “chiunque cagiona un danno ingiusto ad una persona cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a trarre in inganno sulla loro genuinità”.

Da notare che si tratta di un reato contro la persona e, segnatamente, contro la libertà morale. Il delitto, inoltre, è punibile a querela di parte, ma si procede d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se il fatto è commesso nei confronti di persona incapace, per età o infermità, o nei confronti di una pubblica autorità a causa delle funzioni esercitate.

In pratica, il “deepfake” può divenire penalmente rilevante se concorrono questi elementi:

a) la pubblicazione o diffusione dell’immagine di una persona senza il consenso della stessa,

b) la  falsificazione o alterazione di immagini, video o voci con sistemi di AI,

c) l’idoneità degli stessi a trarre in inganno sulla loro genuinità e

d) la determinazione di un danno ingiusto.

Note


[1] Si veda la notizia al link:

[2] Si veda la notizia al link: https://stream24.ilsole24ore.com/video/tecnologia/video-deepfake-obama-2018/AHKdD1y.

[3] Si veda il caso di Marie Technimont al link: https://www.reuters.com/article/markets/currencies/maire-tecnimont-hacker-sottraggono-16-mln-euro-da-divisione-india-economic-time-idUSL8N1ZA2X6/.

[4] Si veda il caso Di Emma Thompson e Scarlett Johnson al link: https://www.nbcnews.com/now/video/emma-watson-scarlett-johansson-appear-in-sexually-suggestive-deepfake-ads-against-their-will-164749893736.

[5] Si veda https://www.ansa.it/canale_tecnologia/notizie/cybersecurity/2025/02/10/ansa-deepfake-e-cyberbullismo-spaventano-4-adolescenti-su-10_a09b28f3-f788-4e8d-b1e4-dde5713a6207.html.

[6] G. Proietti, L’impianto regolatorio della società dell’informazione tra vecchi e nuovi equilibri. Il fenomeno del deep fake, in Media Laws, 2024, p. 331.

[7]M. Delluniversità, “Le implicazioni giuridiche dei deepfake: diritto d’autore, diritti della personalità e strumenti di contrasto”, in Rivista dell’ordine dei consulenti in proprietà industriale, 2025, p. 29.

[8] Si veda la guida all’art. 8 CEDU sul sito del Ministero della Giustizia: https://www.giustizia.it/giustizia/it/contentview.page?contentId=ART298376.

[9] Legge 22 aprile 1941, n. 633.

[10] Regolamento (UE) 679/2016.

[11]Regolamento (UE) 2024/1689.

[12]I deployer di un sistema di IA che genera o manipola immagini o contenuti audio o video che costituiscono un «deep fake» rendono noto che il contenuto è stato generato o manipolato artificialmente. Tale obbligo non si applica se l’uso è autorizzato dalla legge per accertare, prevenire, indagare o perseguire reati. Qualora il contenuto faccia parte di un’analoga opera o di un programma manifestamente artistici, creativi, satirici o fittizi, gli obblighi di trasparenza di cui al presente paragrafo si limitano all’obbligo di rivelare l’esistenza di tali contenuti generati o manipolati in modo adeguato, senza ostacolare l’esposizione o il godimento dell’opera”.

[13] Art. 3, n. 4, AI Act: “«deployer»: una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale”.

[14] Considerando 134 dell’AI Act: “Oltre alle soluzioni tecniche utilizzate dai fornitori del sistema di IA, i deployer che utilizzano un sistema di IA per generare o manipolare immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi, entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri a una persona (deep fake), dovrebbero anche rendere noto in modo chiaro e distinto che il contenuto è stato creato o manipolato artificialmente etichettando di conseguenza gli output dell’IA e rivelandone l’origine artificiale. L’adempimento di tale obbligo di trasparenza non dovrebbe essere interpretato nel senso che l’uso del sistema di IA o dei suoi output ostacola il diritto alla libertà di espressione e il diritto alla libertà delle arti e delle scienze garantito dalla Carta, in particolare quando il contenuto fa parte di un’opera o di un programma manifestamente creativo, satirico, artistico, fittizio, o analogo fatte salve le tutele adeguate per i diritti e le libertà dei terzi. In tali casi, l’obbligo di trasparenza per i deep fake di cui al presente regolamento si limita alla rivelazione dell’esistenza di tali contenuti generati o manipolati in modo adeguato che non ostacoli l’esposizione o il godimento dell’opera, compresi il suo normale sfruttamento e utilizzo, mantenendo nel contempo l’utilità e la qualità dell’opera. È inoltre opportuno prevedere un obbligo di divulgazione analogo in relazione al testo generato o manipolato dall’IA nella misura in cui è pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico, a meno che il contenuto generato dall’IA sia stato sottoposto a un processo di revisione umana o di controllo editoriale e una persona fisica o giuridica abbia la responsabilità editoriale della pubblicazione del contenuto”.

[15] Art. 3 n. 4) dell’AI Act.

[16] Art. 3, n. 3, dell’AI Act: “«fornitore»: una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che sviluppa un sistema di IA o un modello di IA per finalità generali o che fa sviluppare un sistema di IA o un modello di IA per finalità generali e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio, a titolo oneroso o gratuito”.

[17] https://www.senato.it/service/PDF/PDFServer/BGT/01473443.pdf.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati