Tradizionalmente i deepfake sono stati associati quasi esclusivamente a una dimensione di rischio: manipolazione dell’informazione, disinformazione politica, pornografia non consensuale, falsificazione della realtà audiovisiva.
Indice degli argomenti
Deepfake artistici: da minaccia a questione culturale e politica
In questo immaginario, il deepfake ha rappresentato quello che oggi viene definito il lato più oscuro dell’intelligenza artificiale generativa, una tecnologia capace di minare la fiducia pubblica e di mettere in crisi il rapporto tra verità, immagine e testimonianza (Chesney & Citron, 2019; Mirsky & Lee, 2021). Tuttavia, negli ultimi anni questa narrazione si è progressivamente ampliata.
I deepfake non sono più confinati ai territori della minaccia, ma stanno entrando sempre più spesso anche in ambiti culturalmente sensibili e simbolicamente centrali, tra cui l’arte, il patrimonio culturale e le industrie creative (McCosker, 2020; Manovich, 2018).
L’ingresso dei deepfake nel mondo dell’arte segna dunque un passaggio cruciale. Quando un algoritmo è in grado di replicare lo stile pittorico di Van Gogh, la voce di Dalí o la composizione musicale di un autore del passato con una precisione che può apparire superiore a quella di un restauratore o di un interprete umano, il problema non è più soltanto tecnologico, ma diventa culturale, etico e, in parte, politico (Floridi et al., 2018). La domanda che emerge è allora inevitabile: cosa resta dell’autenticità artistica quando la simulazione diventa indistinguibile dall’originale? E soprattutto, chi decide cosa può essere considerato una ricostruzione legittima, cosa un’innovazione creativa e cosa invece scivola nel plagio digitale?
A differenza delle tradizionali pratiche di copia, citazione o reinterpretazione, i deepfake artistici operano infatti su un piano differente. Non si limitano a riprodurre un’opera, ma simulano un processo creativo, un gesto, uno stile e talvolta un’intera identità artistica. In questo senso, l’arte diventa non solo riproducibile, ma di fatto programmabile. Il passato culturale si trasforma così in un insieme di dati addestrabili, pronti a essere ricombinati, estesi o “continuati” da sistemi che non possiedono intenzionalità, memoria storica o responsabilità simbolica (Benjamin, 1936; Grau, 2003; Elgammal et al., 2017).
Questa trasformazione avviene inoltre in un contesto segnato da forti asimmetrie di potere. I modelli di intelligenza artificiale, i dataset culturali e le infrastrutture computazionali sono oggi controllati da un numero ristretto di attori tecnologici e istituzionali. Ne deriva una ulteriore questione fondamentale: stiamo realmente preservando il patrimonio culturale attraverso nuove forme di mediazione tecnologica, oppure lo stiamo rendendo infinitamente manipolabile, frammento dopo frammento, da chi programma gli algoritmi e ne governa le logiche di utilizzo (Pasquale, 2015; Zuboff, 2019; Whittaker et al., 2018)?
In questo articolo esploriamo dunque il confine sempre più sfumato tra innovazione e plagio nell’uso dei deepfake artistici. Attraverso un’analisi teorica e critica, supportata da casi concreti, si intende mostrare come queste tecnologie non siano intrinsecamente distruttive né automaticamente emancipative, ma profondamente ambivalenti. Il nodo centrale non è se i deepfake possano essere utilizzati nell’arte, ma a quali condizioni, secondo quali criteri di autenticità e sotto quali forme di governance culturale (Lessig, 2004; Burkell & Gosse, 2019). In gioco non c’è soltanto il futuro dell’arte digitale, ma il modo in cui una società sceglie di trasmettere, reinterpretare e attribuire valore alla propria tradizione.
Autenticità artistica nell’era della riproducibilità algoritmica
Il tema della riproducibilità nel campo dell’arte è di antichissima origine e, ancora oggi, quando la riproduzione è realizzata manualmente da un essere umano, essa viene comunemente definita come “falso“. Storicamente, questa categoria ha incluso due ambizioni differenti.
La prima è quella definita fin dalle sue origini come falso d’autore, in cui il creatore dichiara apertamente di ispirarsi a un’opera esistente di un altro artista e intende riprodurne una copia dichiarata come tale; si tratta quindi di un’opera priva di valore economico, anche nel caso in cui l’originale valga milioni.
La seconda ambizione è invece fraudolenta ed è finalizzata a spacciare la copia come creazione autentica dell’artista originale. In questo caso l’autore viene definito falsario e spesso non si limita a copiare un’opera esistente, ma crea nuove opere imitando nel modo più fedele possibile lo stile e la tecnica dell’artista preso di mira, con l’intento di inserirle nel mercato e ricavarne un illecito guadagno (Benjamin, 1936; Lessig, 2004).
Questa pratica, vecchia di secoli, ha portato numerosi esperti a ritenere che anche molte delle opere oggi conservate nei musei possano essere dei falsi, spesso ormai riconosciuti come originali. Ciò ha contribuito, in modo inconsapevole, a conferire dignità e valore culturale a forme di “deepfake di creazione umana“, mostrando come il problema dell’autenticità preceda di molto l’avvento delle tecnologie digitali (Grau, 2003).
Non stupisce quindi che, con l’arrivo delle tecnologie di intelligenza artificiale generativa, delle Generative Adversarial Networks (GAN) e delle Creative Adversarial Networks (CAN), il tema dei deepfake abbia assunto un ruolo sempre più rilevante, alimentando una vasta produzione di opere non originali in tutti quei campi in cui l’arte si esprime attraverso il digitale: fotografia, cinematografia, musica e letteratura (Elgammal et al., 2017; Manovich, 2018).
Entrando pienamente nel dominio del digitale, le sfaccettature delle produzioni deepfake si ampliano ulteriormente. Si continua a parlare di copia, mantenendo la distinzione tra copia dichiarata come tale e copia fraudolenta, intesa come opera da spacciare per originale. Basti pensare alla possibilità di creare nuove opere fotografiche attribuibili a celebri fotografi, dando origine a mercati economicamente floridi. Si parla invece di imitazione stilistica quando gli algoritmi vengono istruiti per generare opere mai esistite di autori importanti, con molteplici obiettivi, spesso non leciti. È facile immaginare la proliferazione di presunti ritrovamenti di testi inediti di scrittori scomparsi, brani musicali, fotografie, creati per alimentare economie illecite ma altamente remunerative (Burkell & Gosse, 2019; Chesney & Citron, 2019).
In questo scenario, lo sviluppo di tecnologie in grado di smascherare tali pratiche e l’introduzione di nuove regole capaci di limitarne la diffusione illegale diventano sempre più importanti e auspicabili per garantire la tutela di autori, creatori e del patrimonio culturale nel suo complesso (Mirsky & Lee, 2021; Whittaker et al., 2018).
Il deepfake al servizio del restauro: potenzialità e limiti dell’aura algoritmica
Tuttavia, i deepfake — grazie alle tecnologie di simulazione e generazione statistica — presentano anche rilevanti potenzialità di utilizzo positivo, in particolare nel supporto ai restauratori. L’AI può infatti essere impiegata nel recupero di opere del passato giunte a noi gravemente danneggiate, con intere aree mancanti: affreschi, tavole, tele o mosaici per i quali le tecnologie generative, capaci di simulare stili e tecniche, possono offrire un valido aiuto nella ricostruzione di ciò che è ormai irrimediabilmente perduto (Floridi et al., 2018). Questa capacità imitativa risulta utile anche nel restauro cinematografico, così come nella possibilità di completare opere letterarie incompiute, brani musicali o intere composizioni giunte fino a noi in forma parziale.
Da qui nasce una riflessione etica che merita un approfondimento specifico: fino a che punto le tecnologie generative possono spingersi nel riprodurre non solo la forma, ma anche l'”aura” dell’opera d’arte, senza comprometterne il significato e il valore culturale (Benjamin, 1936; McCosker, 2020)?
Non esiste una risposta precisa, soprattutto perché il miglioramento continuo delle tecnologie digitali, la vastità di informazione a loro disposizione e l’avere come guida un essere umano esperto può davvero consentire risultati di qualità eccellente; l'”aura” di un’opera d’arte infatti, non è un oggetto tangibile e misurabile, ma un effetto percepito dall’osservatore o dal fruitore in generale, effetto ampiamente riproducibile dalle nuove Gen AI che basano il loro lavoro anche e soprattutto sui feedback che i panel umani restituiscono definendo il loro gradimento davanti a un’opera d’arte. Aspettiamoci risultati dai deepfale “positivi” di qualità sempre maggiore.
Il restauratore nell’era digitale: nuove competenze, nuovi rischi
Viene da chiedersi che ruolo possa ricoprire un restauratore oggi, se gli algoritmi sono in grado di replicare meglio di lui una ricostruzione o un restauro di un’opera d’arte, che sia visiva, musicale o cinematografica. E con l’avvento delle sempre più sofisticate stampanti 3D, anche opera scultorea e, perché no, di design o architettonica.
Un restauratore non può più prescindere dall’utilizzo dei sistemi digitali avanzati, riservando per sé le conoscenze tecniche di tutte le attività manuali, delicatissime, che le fasi di restauro richiedono costantemente. Questa trasformazione suggerisce una ridefinizione profonda del ruolo del restauratore, sempre più chiamato a integrare competenze artigianali e digitali.
Certamente il limite per passare da attività utili alla conservazione ad attività illecite in grado di dare vita a prodotti così verosimiglianti da essere considerati autentici è sempre più labile. Non solo il ruolo del legislatore, che dovrà affrontare la materia dotandosi di strumenti sofisticati in grado di stanare anche i più “bravi” algoritmi, ma anche Fondazioni e istituzioni culturali saranno chiamate a rafforzare sistemi di archiviazione e certificazione dell’autenticità, anche attraverso strumenti digitali avanzati, per distinguere opere originali, ricostruzioni legittime e simulazioni.
Quindi la battaglia per determinare l’autenticità di un prodotto artistico è appena cominciata e gli strumenti in mano ai falsari del futuro sono sempre più potenti.
Deepfake come pratica creativa: innovazione, restauro o riscrittura della storia?
Se nelle sezioni precedenti i deepfake sono stati analizzati prevalentemente come problema di autenticità e di rischio, è necessario riconoscere che, nel contesto artistico e culturale, essi possono anche configurarsi come pratiche creative ambigue, sospese tra innovazione, restauro e riscrittura del passato. È proprio questa ambivalenza a renderli particolarmente rilevanti: i deepfake artistici non distruggono necessariamente la cultura, ma ne mettono in tensione i criteri di legittimità, autorità e interpretazione storica (Manovich, 2018; Floridi et al., 2018).
Un primo ambito di utilizzo riguarda la ricostruzione storica. Le tecnologie generative consentono oggi di simulare opere perdute, stili incompiuti o parti mancanti di lavori danneggiati, offrendo strumenti di supporto a restauratori, storici dell’arte e istituzioni museali. In questi casi, il deepfake non si sostituisce all’opera originale, ma si propone come ipotesi visiva, come modello interpretativo dichiarato, utile a comprendere ciò che non è più accessibile. Tuttavia, proprio questa capacità di “completamento” solleva interrogativi rilevanti: dove finisce il restauro e dove inizia l’invenzione algoritmica? (Benjamin, 1936; Grau, 2003) E di conseguenza l’autenticità è preservata?
Per fare un parallelismo in un altro ambito, lo stesso concetto è applicabile al dilemma che riguarda le auto storiche e il relativo restauro, rispetto all’utilizzo di veri pezzi originali piuttosto che pezzi realizzati oggi con le nuove tecnologie e materiali disponibili, dove stiamo portando avanti la tradizione e dove inizia il falso storico?
Un secondo ambito riguarda la didattica museale e la divulgazione culturale. Sempre più musei sperimentano sistemi basati su AI per rendere l’esperienza del visitatore più immersiva, interattiva e narrativa. In questo contesto, i deepfake diventano strumenti di mediazione: voci sintetiche di artisti del passato, avatar digitali, ricostruzioni audiovisive di contesti storici. Tali pratiche possono aumentare l’accessibilità e l’engagement del pubblico, ma rischiano anche di semplificare, spettacolarizzare in modo “eccessivo” o cristallizzare interpretazioni storiche complesse in forme facilmente consumabili (McCosker, 2020; Parry, 2013).
Un terzo ambito, forse il più controverso, è quello della sperimentazione creativa contemporanea. Artisti e collettivi utilizzano deepfake e modelli generativi per esplorare nuovi linguaggi, interrogare il concetto di autorialità, mettere in discussione l’idea stessa di originalità. In questo contesto emergono almeno tre pratiche distinte: l’omaggio, che riconosce esplicitamente la fonte e si colloca nella tradizione della citazione; la continuazione stilistica, che immagina opere mai esistite come se fossero state prodotte da un determinato autore; e l’appropriazione algoritmica, in cui lo stile diventa una risorsa estrattiva, separata dal contesto storico, simbolico e biografico dell’artista originale (Lessig, 2004; Elgammal et al., 2017).
La distinzione tra queste pratiche non è mai puramente tecnica, ma profondamente culturale e politica. Chi decide cosa è legittimo? Quali criteri separano un’operazione critica da una forma di sfruttamento simbolico? In assenza di regole condivise, il rischio è che tali decisioni vengano implicitamente delegate alle piattaforme tecnologiche, ai detentori dei dataset o agli attori economicamente più forti (Chesney & Citron, 2019; Whittaker et al., 2018).
In questo scenario, il ruolo di musei, archivi, fondazioni e istituzioni culturali diventa centrale. Non solo come fruitori delle tecnologie, ma come garanti di contesto, trasparenza e responsabilità simbolica. L’adozione di deepfake artistici dovrebbe essere accompagnata da pratiche di dichiarazione, documentazione e mediazione critica, affinché il pubblico possa distinguere tra opera storica, interpretazione algoritmica e sperimentazione contemporanea (Floridi et al., 2018).
Resta infine un rischio più sottile ma strutturale: quello di una riscrittura selettiva del passato. Solo ciò che è digitalizzabile, addestrabile e compatibile con i modelli algoritmici rischia di essere preservato e amplificato. Stili marginali, opere incomplete, tradizioni orali o pratiche non codificabili potrebbero progressivamente scomparire dall’immaginario culturale, non per mancanza di valore, ma per incompatibilità tecnica (Manovich, 2020).
The Next Rembrandt, Dalí Lives, Van Gogh: casi concreti di deepfake museale
Per comprendere meglio questi concetti, alcuni casi concreti aiutano a chiarire questa ambivalenza. The Next Rembrandt (2016) ha utilizzato AI e analisi dei dati per generare un nuovo dipinto “in stile Rembrandt”, sollevando interrogativi sul confine tra omaggio tecnologico e simulazione autoriale. Il progetto Dalí Lives (Dalí Museum, 2019) ha riportato in vita Salvador Dalí attraverso un avatar deepfake interattivo, trasformando l’artista in un’esperienza museale immersiva. Le numerose esperienze immersive dedicate a Van Gogh (Meet Vincent, mostre AI-based) mostrano infine come l’estetica algoritmica possa rendere l’arte più accessibile, ma anche più facilmente consumabile, rischiando di ridurre la complessità storica a spettacolo visivo.
In tutti questi casi, il deepfake non è né puro plagio né semplice innovazione. È uno strumento potente, che rende evidente come il problema, così come spesso accade, non sia la tecnologia in sé, ma le cornici culturali, etiche e istituzionali entro cui viene utilizzata.
Plagio, ownership e potere: chi controlla la tradizione quando è programmabile
Il lavoro del restauratore, in tutti i campi dell’arte, dovrà inevitabilmente arricchirsi di nuove competenze. L’artigiano puro, abile nel ricostruire o ripristinare un’opera d’arte attraverso tecniche tradizionali, rischia di limitarsi a un ruolo prevalentemente esecutivo. Solo chi deterrà competenze digitali avanzate sarà davvero in grado di affrontare il restauro in modo sistemico, soprattutto nella gestione dei dataset – o nella costruzione di nuovi archivi – che contengono le informazioni necessarie agli algoritmi generativi per operare ricostruzioni sempre più precise ed efficaci (Grau, 2003; Manovich, 2018).
La generazione di nuove opere, frutto del completamento di reperti parziali o della ricostruzione di progetti, schizzi e descrizioni lasciate da artisti ormai scomparsi, sebbene spesso considerate legittime sul piano culturale, solleva questioni complesse legate al copyright e ai diritti morali, anche postumi. A chi attribuire la paternità di un’opera ricostruita tramite sistemi generativi? All’artista originale, al restauratore che ha guidato il processo, all’istituzione che ha fornito i dati, o all’algoritmo stesso – e quindi, indirettamente, al soggetto che ne detiene la proprietà? Il tema è estremamente articolato e rende evidente come i deepfake diventeranno terreno di confronto e conflitto tra autori, eredi, istituzioni e legislatori, con ulteriori criticità dovute alle profonde differenze normative tra Stati, facilmente aggirabili dalla natura transnazionale della diffusione digitale (Lessig, 2004; Floridi et al., 2018).
Anche la definizione stessa di plagio è destinata a essere riconsiderata. Fino a oggi, infatti, i deepfake hanno sempre avuto una human footprint riconoscibile, ossia un autore umano responsabile della loro generazione. Ma come sarà possibile risalire all’autore quando questo risulti irrintracciabile, anonimo o schermato da catene di algoritmi progettati per guidare a loro volta i sistemi di AI generativa verso la produzione di deepfake? Potrebbe rendersi necessario affrontare il concetto di plagio senza autore umano identificabile, o addirittura senza autore umano diretto (Chesney & Citron, 2019; Whittaker et al., 2018).
Identità sintetiche e appiattimento creativo: gli scenari futuri del deepfake
In assenza di regole chiare e condivise a livello internazionale, diventerà sempre più difficile smascherare il plagio. Il futuro potrebbe riservare scenari ambigui, come il caso di Sienna Rose, cantante soul con una produzione molto ampia, che tuttavia non appare fisicamente in pubblico né in contesti social verificabili, alimentando il sospetto che possa trattarsi di un’identità costruita tramite AI. Episodi di questo tipo mostrano come la distinzione tra autore reale e autore sintetico sia destinata a diventare sempre più opaca.
Le opportunità economiche che possono emergere da questo scenario sono difficili da prevedere, ma potenzialmente enormi. Potrebbero nascere nuovi artisti “alla Banksy”, in cui l’anonimato non cela una scelta politica o poetica, ma un deepfake. Appariranno nuovi musicisti, registi, sceneggiatori, attori e attrici che, invece di calcare tappeti rossi, troveranno sistematiche giustificazioni per non apparire mai in pubblico. Presto arriveranno anche nuovi scrittori e bestseller firmati da identità sintetiche, rendendo impossibile persino il tradizionale rito della firma in libreria. Ma da dove proverranno i dati che alimenteranno queste nuove generazioni di deepfake? Quei dati saranno protetti da copyright? E a chi spetteranno i diritti economici: a chi addestra i modelli, a chi controlla i dataset o a chi sfrutta commercialmente i contenuti generati? (Zuboff, 2019; Pasquale, 2020).
Non si tratta soltanto di un problema giuridico, ma di una questione profondamente culturale. L’abuso dei sistemi generativi rischia di condurre a un progressivo appiattimento della creatività, forse non nel breve periodo, ma certamente nel medio-lungo termine. Se questa nuova frontiera della creazione, grazie alla potenza produttiva degli algoritmi, dovesse prendere il sopravvento sulla human footprint, il sistema creativo diventerebbe autoreferenziale. Verrebbe progressivamente esclusa quella forma di innovazione umana che valorizza l’errore, elemento non gestito dagli algoritmi generativi, strutturalmente orientati a marginalizzarlo. Eppure l’errore – come già osservato da Darwin nella teoria dell’evoluzione – è il germe indispensabile del cambiamento, fondato sulla mutazione e sulla deviazione (Darwin, 1859; Taleb, 2012). In uno scenario di creatività perfettamente ottimizzata, la memoria culturale rischierebbe di smettere di evolvere, o di farlo a una velocità molto inferiore rispetto al passato, consegnandoci un “mondo perfetto” in cui l’arte cesserebbe di essere realmente creativa per diventare semplicemente autogenerativa.
Preservare la cultura o renderla infinitamente manipolabile?
I deepfake artistici non sono, in sé, né buoni né cattivi. Come molte tecnologie generative, non portano con sé un destino già scritto, ma amplificano intenzioni, asimmetrie e visioni del mondo di chi li progetta e li utilizza. Possono diventare strumenti preziosi per il restauro, la divulgazione e la sperimentazione creativa, oppure dispositivi opachi di appropriazione, riscrittura e sfruttamento del patrimonio culturale. Il vero nodo, dunque, non è la simulazione in quanto tale, ma la governance della simulazione: chi la controlla, con quali finalità, secondo quali criteri di legittimità culturale ed etica.
In assenza di regole condivise, la tradizione rischia di trasformarsi in una materia prima programmabile, riducibile a dataset addestrabili e stili ricombinabili, svuotata del proprio contesto storico, simbolico e relazionale. Da qui emerge la necessità di nuovi dispositivi di responsabilità: trasparenza sull’uso dell’AI nei processi creativi e di restauro, forme di etichettatura culturale che distinguano tra opera originale, ricostruzione, simulazione e continuazione algoritmica, e nuovi criteri di autenticità capaci di andare oltre la mera somiglianza formale. Non si tratta di difendere un’idea nostalgica di aura, ma di evitare che la riproducibilità algoritmica dissolva ogni differenza tra memoria, interpretazione e invenzione.
La tesi finale di questo contributo è quindi chiara: non è l’intelligenza artificiale a minacciare l’arte, ma l’assunto, profondamente ideologico, secondo cui tutto ciò che è tecnicamente replicabile debba essere considerato anche culturalmente legittimo. Preservare la cultura, oggi, non significa impedire l’uso dei deepfake artistici, ma dotarsi degli strumenti critici, istituzionali e normativi per decidere quando la simulazione arricchisce la tradizione e quando, invece, la rende infinitamente manipolabile.

















