La recente presentazione di un’attrice interamente generata dall’intelligenza artificiale ha riportato al centro del dibattito pubblico una domanda cruciale: siamo entrati in un’epoca in cui l’umano diventa opzionale? Il caso è quello di Tilly Norwood, attrice “inventata” dall’IA, senza corpo né biografia reale, presentata come la prima protagonista digitale e già ingaggiata come professionista dall’agenzia di talenti Xicoia, ovvero il primo studio di talenti AI con l’obiettivo di lanciare e gestire star digitali come artisti reali.
Quello che è certo e che siamo andati ormai oltre gli effetti speciali e altri strumenti di supporto alla produzione audiovisiva, ma ci troviamo davanti a vere e proprie sostituzioni integrali del corpo, della voce e dell’identità, rese possibili dalle tecnologie di generative AI.
Il fenomeno è trasversale a più settori, come quello della moda e dei social network: il settore moda sperimenta già testimonial sintetici, con il caso emblematico di H&M che ha creato “gemelli digitali” delle proprie modelle per scopi commerciali; alcune top model hanno ceduto il proprio volto a Meta affinché fosse utilizzato per impersonare chatbot per interattivi, anche in chiave seduttiva; nel panorama musicale giapponese (e non solo) una cantante inesistente, costruita interamente con algoritmi vocali, ha scalato le classifiche come se fosse un’artista reale.
Indice degli argomenti
Cinema non-umano: attori con l’AI
La notizia di Tilly Norwood ha suscitato proteste nell’industria, perché mette in discussione i confini del mestiere attoriale e i diritti morali degli interpreti, aprendo scenari di “sostituzione strutturale” degli umani. Hollywood aveva già reagito con vigore con lo sciopero del 2023 all’avanzata dell’IA, a seguito del quale il SAG-AFTRA (sindacato statunitense che rappresenta i lavoratori del settore media e spettacolo) aveva imposto, come punto negoziale obbligatorio nei contratti, il divieto di ricreare le performance degli attori (voce, mimica, aspetto) senza consenso esplicito, denunciando così il rischio che gli studios possano trattare l’identità artistica come un dato algoritmico. Con la presentazione di Tilly Norwood, le proteste rimbalzano con nuova forza in quanto il progetto viene visto come una minaccia al lavoro creativo umano.
Gli impatti e la morale
Il processo sembra assimilabile a una progressiva smaterializzazione dell’identità umana in favore di avatar sintetici. Molti sono gli interrogativi giuridici, etici e culturali che questi fenomeni sollevano, ad esempio con riferimento a quale tutela sia configurabile per i diritti di immagine e voce, quali limiti ci sono alla replicazione algoritmica dell’identità e, soprattutto, quale sia il futuro per una società che accetta di relazionarsi con entità che non esistono.
Il cinema è forse il terreno più sensibile a questa trasformazione. Già da tempo si utilizzano tecniche di “de-aging” per ringiovanire attori o di ricostruzione digitale per far rivivere interpreti defunti, ma lo scenario che si delinea è quello di cast interamente sintetici, cioè di film prodotti senza alcun attore reale.
Esperimenti di cinema e attori AI
Peraltro, si registrano da tempo esperimenti dichiarati di cortometraggi prodotti con generazione AI (come The Frost, descritto come interamente creato con DALL-E 2 e animazione IA) e più recentemente Echo Hunter, promosso come film “fully AI-generated” con cast virtuale e supporto di tecnologia generativa per tutte le scene visive. Hollywood ha inoltre sperimentato in più occasioni la ricostruzione digitale postuma, da Carrie Fisher in Star Wars a Peter Cushing in Rogue One, oltre al clamoroso ringiovanimento di De Niro in The Irishman.
Dal punto di vista industriale, i vantaggi sono evidenti: riduzione dei costi, attori sempre disponibili, possibilità di modifiche illimitate in post-produzione, nessun sindacato. Alcuni registi (anche italiani) hanno recentemente rilasciato dichiarazioni entusiastiche, totalmente a favore del cinema AI, definendolo «catalizzatore per l’innovazione» e strumento in grado di permettere «di esplorare nuovi stili, generi e narrazioni che precedentemente erano inimmaginabili».
I rischi sul piano culturale
Tuttavia, sul piano culturale, il rischio resta enorme, perché l’imprevedibilità umana, l’errore, la fragilità dell’attore sono spesso ciò che rende memorabile una scena.
Basti pensare che molte scene immortali del cinema nascono dall’improvvisazione. Solo per fare alcuni esempi: la lettera di Totò e Peppino e la surreale “lettera a Savonarola” di Troisi e Benigni, non sarebbero mai esistite in un cinema generato dall’AI; così come non avremmo mai conosciuto l’iconico monologo allo specchio “You talkin’ to me?” di De Niro in Taxi Driver, nato dalla pura improvvisazione dell’attore e diventata una delle battute più celebri della storia del cinema. Momenti unici, frutto dell’imprevedibilità umana, che nessun algoritmo potrà mai generare, perché un attore sintetico, è perfetto, non sbaglia, non improvvisa, non soffre; per questo, il risultato non può che essere uno spettacolo tecnicamente impeccabile, ma potenzialmente sterile, privo di quell’imperfezione in grado di generare empatia.
Aspetti giuridici degli attori fatti con AI
Sul piano giuridico, la questione riguarda soprattutto i diritti morali e patrimoniali degli interpreti. L’articolo 80 della legge italiana sul diritto d’autore e la Direttiva 2001/29/CE riconoscono agli attori il diritto esclusivo di autorizzare la fissazione e la riproduzione delle proprie interpretazioni; la riproduzione digitale di un attore, soprattutto postuma, richiede quindi consenso espresso o disposizioni testamentarie specifiche. Inoltre, il diritto morale all’integrità dell’opera e della performance non può essere alienato: ciò significa che la “resurrezione digitale” di un attore potrebbe violare la sua dignità anche se formalmente autorizzata dagli eredi.
Privacy, copyright e lavoro creativo
Con Tilly Norwood si concretizza la costruzione di un’industria parallela in cui i protagonisti non hanno mai avuto un corpo o una biografia reale e, a differenza degli esperimenti precedenti, dove ad esempio volti noti continuano ad esistere (Carrie Fisher in Star Wars, Peter Cushing in Rogue One), Norwood nasce come talento fittizio creato da zero, senza passato, senza vita al di fuori del set.
Cosa dice il Gdpr
Sul piano giuridico, il caso apre domande nuove. In primo luogo, sul piano privacy: se un attore reale può rivendicare la tutela dei propri dati biometrici, delle proprie espressioni facciali e della propria voce ai sensi del GDPR (artt. 4 e 9, in quanto dati biometrici), una performer sintetica pone la domanda opposta: quali diritti spettano a un soggetto che non esiste? Il rischio è duplice, perché, da un lato, i dati delle persone reali potrebbero essere utilizzati per addestrare il modello senza consenso, con violazioni evidenti della normativa; dall’altro lato, il pubblico potrebbe essere tratto in inganno interagendo con un personaggio presentato come “attrice” quando in realtà si tratta di un puro costrutto algoritmico. Da qui la necessità di etichettatura obbligatoria, già prevista dall’AI Act per i deepfake, che dovrebbe essere estesa anche a casi come questo.
Attori AI e copyright
Sul versante del copyright, inoltre, l’articolo 80 della legge italiana sul diritto d’autore, così come la Direttiva 2001/29/CE, riconoscono agli interpreti il diritto esclusivo di autorizzare la fissazione e la riproduzione delle loro performance. Tuttavia, la performance “di Norwood” non appartiene a una persona, e ci si domanda quindi se appartenga al creatore dell’algoritmo, all’agenzia che la gestisce o, ancora, agli autori dei dati di training. Viene inevitabilmente a crearsi una zona grigia, in cui la nozione stessa di diritto morale dell’attore (integrità, paternità, dignità) rischia di perdere senso; e non è un caso che il SAG-AFTRA, abbia denunciato Norwood come “minaccia alla creatività”, riaffermando che la recitazione deve rimanere human-centered.
Infine, c’è il tema del lavoro creativo. Un’attrice sintetica non si ammala, non rivendica residui contrattuali, non aderisce a sindacati, può essere scritturata a costi marginali e resa disponibile in ogni momento. Questo determina un rischio evidente di dumping contrattuale: l’attore umano, con le sue esigenze economiche e sindacali, rischia di essere percepito come costo eccessivo e superfluo, con conseguenze anche di natura culturale, in quanto eliminare la creatività umana, significa ridurre il cinema a un prodotto di consumo levigato, privo della dimensione empatica che ha sempre connotato questa arte.
Tilly Norwood è in pratica la prova generale di un futuro in cui l’industria dell’intrattenimento dovrà decidere se ridurre l’umano a variabile inefficiente o se preservare la centralità della persona, nonostante l’avanzata della simulazione perfetta.
Testimonial sintetici e moda digitale
Considerando altri settori, il caso H&M va oltre l’utilizzo di immagini AI per campagne sperimentali, perché istituzionalizza la presenza di modelli sintetici nella propria pipeline commerciale. La società ha annunciato la creazione di trenta digital twins delle sue modelle reali, generati attraverso tecnologie di ricostruzione 3D e algoritmi generativi, con l’obiettivo di impiegarli soprattutto nelle fotografie per e-commerce e nelle campagne considerate di minor rilievo.
La retorica aziendale parla di “amplificazione della creatività umana” e di strumenti che hanno lo scopo di affiancare i professionisti, senza sostituirli. Tuttavia, il dato materiale è evidente, dal momento che si tratta di avatar disponibili ventiquattr’ore su ventiquattro, replicabili in infiniti contesti e utilizzabili in più set contemporaneamente, a costi marginali irrisori rispetto a un ingaggio o a uno shooting tradizionale.
La questione più delicata riguarda la diversità programmata: H&M e altre aziende sostengono infatti che i digital twins consentano di rispondere a esigenze di rappresentazione multiculturale e inclusiva, adattando agevolmente i modelli ai mercati locali e alle tendenze regionali. In realtà, la diversità così intesa, e cioè prodotta a tavolino dall’algoritmo, è in realtà standardizzata e, ad essere celebrata sarebbe la versione “sterilizzata” della diversità umana, in pratica una “diversity” funzionale e controllata.
Il diritto di immagine e gli attori e modelli AI
Dal punto di vista giuridico, il problema centrale è senz’altro il diritto di immagine, che, nell’ordinamento italiano, trova tutela nell’articolo 10 del codice civile e negli articoli 96 e 97 della legge sul diritto d’autore (l. 633/1941), i quali stabiliscono che l’immagine di una persona non possa essere esposta o messa in commercio senza il suo consenso, salvo casi di notorietà, giustizia o interesse pubblico. Applicare tali principi a un gemello digitale significa estendere il campo a un’entità che rappresenta una replica virtuale potenzialmente infinita dell’individuo. Il contratto con la modella dovrebbe quindi disciplinare in modo preciso, oltre all’uso delle immagini statiche o dinamiche, anche la replicazione futura in contesti non prevedibili, stabilendo limiti di tempo, modalità e revocabilità del consenso.
Top model e celebrity diventano chatbot interattivi
Passo ulteriore rispetto ai digital twins si è verificato quando alcune modelle e celebrità, hanno concesso il proprio volto e la propria immagine a piattaforme come Meta per essere trasformate in chatbot interattivi, cioè identità conversazionali, capaci di rispondere agli utenti, intrattenere conversazioni e addirittura simulare atteggiamenti seduttivi. L’utente, ingaggiato in un dialogo apparentemente personale, finisce per relazionarsi con un algoritmo che indossa le sembianze di una persona reale. Tra le celebrità che nel 2023 hanno aderito al progetto anche la modella Kendall Jenner, che ha prestato voce e immagine per il famoso chatbot “Big Sis Billie”, una sorta di sorella maggiore virtuale sempre disponibile a chattare con gli utenti, con derive seduttive e conseguenze anche profondamente tragiche per gli utenti “sedotti”.
Trasparenza e accountability
Sul piano della trasparenza, il principio cardine della normativa europea sul digitale (si pensi al Digital Services Act e al futuro AI Act) è la consapevolezza dell’utente di interagire con un algoritmo o con un essere umano; così, la mancanza di un’etichettatura chiara può configurare una pratica ingannevole e, in certi casi, una violazione della dignità della persona ritratta.
C’è poi la questione della responsabilità: qualora il chatbot, basato sulle sembianze della modella o celebrity, produca contenuti diffamatori, sessisti o semplicemente offensivi, chi ne risponde? La modella che ha concesso l’immagine? La piattaforma che ha creato l’avatar? O l’azienda che lo distribuisce?
Last but not least l’aspetto privacy: per creare un avatar conversazionale è necessario raccogliere dati biometrici (espressioni facciali, micro-movimenti, tratti distintivi del volto, voce, gestualità), che rientrano nelle “categorie particolari di dati personali” previste dall’articolo 9 del GDPR, il cui trattamento richiede consenso esplicito, specifico e informato, ed è soggetto a principi di minimizzazione, limitazione delle finalità e diritto di revoca. Una modella o una celebrità che concedono la propria immagine devono avere la possibilità, in ogni momento, di revocare il consenso prestato ed impedire ulteriori utilizzi, cosa che nella pratica contrattuale non sempre accade.
La musica e la cantante fatti con l’AI
Il fenomeno si estende anche alla musica. In Giappone, una cantante interamente generata dall’IA ha raggiunto da anni le vette delle classifiche nazionali, nonostante non esista come persona reale. La sua voce è frutto di modelli text-to-speech avanzati, capaci di riprodurre inflessioni emotive, e la sua immagine è creata da algoritmi grafici. Ciò che colpisce davvero, oltre alla perfezione tecnologica, è il fatto che il pubblico abbia accettato, anzi premiato, un’artista inesistente, visualizzata come ologramma animato attraverso le più moderne tecnologie virtuali.
Hatsune Miku (“Prima voce del futuro”, questo il nome d’arte della cantante AI) è apparsa sulla scena nel lontano 2007 per il lancio di un software (“Vocaloid 2”) con cui chiunque può produrre il proprio disco, inserendo note e parole di una canzone per poterla vedere eseguita dalla diva virtuale e dalla sua band. Hatsune Miku, la cui voce è il risultato della campionatura di un’attrice e doppiatrice umana e scaturisce da un sintetizzatore vocale, è presto uscita dal videogioco per vivere di vita propria, con tanto di esibizioni in concerti dal vivo sold-out. Stesso fenomeno si verifica da tempo anche in Corea, con famosissime band K-pop che in realtà non esistono.
Cosa prevede la normativa
Qui il nodo giuridico riguarda la voce come bene immateriale. Sebbene la legislazione europea e italiana non riconosca ancora un diritto autonomo alla voce, la giurisprudenza ha più volte affermato che il timbro vocale rientra nei diritti della personalità, analogamente all’immagine. Il GDPR, inoltre, qualifica la voce come dato biometrico, soggetto quindi alle medesime tutele dei dati particolari. In Giappone, anche in reazione alla crescente diffusione di cantanti virtuali e cloni vocali, il Ministero dell’Economia, Commercio e Industria (METI) ha precisato che la clonazione vocale non autorizzata può configurare un atto di concorrenza sleale, poiché inganna il pubblico sull’identità reale dell’artista.
Sul piano del diritto d’autore, la questione si complica ulteriormente. L’opera musicale rimane infatti protetta, ma se la voce non appartiene a nessuno perché interamente sintetica, chi è l’autore? Il creatore dell’algoritmo? Il programmatore? O il pubblico stesso che accetta la finzione? Il rischio è che il diritto d’autore, fondato sull’espressione creativa della persona, venga eroso in favore di un prodotto industriale anonimo.
Una dismissione fisiologica o un impoverimento culturale
Alcuni osservatori sostengono che la sostituzione dell’umano con l’IA nei settori creativi sia un fenomeno fisiologico, analogo all’automazione industriale che ha sostituito il lavoro manuale o all’automobile che ha sostituito il cavallo. In quest’ottica, la comparsa di attrici, modelle e cantanti sintetiche non sarebbe altro che un passaggio inevitabile dell’evoluzione tecnologica.
Eppure, questa conclusione non convince, visto che l’attore, il cantante, la modella non sono strumenti funzionali come una macchina da scrivere o un cavallo da traino, ma corpi e voci reali, che incarnano emozioni, storie, identità. Sostituirli con l’obiettivo di rendere più efficiente un processo significa alterare la relazione culturale ed empatica che il pubblico intrattiene con l’arte e con la comunicazione.
È anche vero, tuttavia, che molti spettatori e fan accettano consapevolmente l’artificio: chi segue una cantante ologramma non può dimenticare che quell’artista non esiste, ma probabilmente desidera solo assistere a uno spettacolo tecnicamente perfetto e privo di sbavature. Poco importa se sul palco si trovi un’immagine 3D o una performer reale come Shakira, Jennifer Lopez o Beyoncé: anche queste ultime, di fatto, sono spesso filtrate da sintetizzatori vocali, correzioni digitali e coreografie rigidamente calibrate. In questo senso, ciò che viene assecondato è una cultura della performance impeccabile, senza imprecisioni, senza errori, senza difetti.
Musica ibrida
A dire la verità, nella musica non mancano esperimenti “ibridi” di co-creazione con AI, che cercano di far coesistere umano ed artificiale con testi e melodie create dall’essere umano ma eseguiti artificialmente, e ritengono questo fenomeno come una naturale evoluzione tecnologica, cioè una prosecuzione di quanto iniziato a partire dagli anni 50 con l’utilizzo di basi, campionatori, sequencer, sintetizzatori, playback, autotune e le altre tecnologie che si sono susseguite.
Il rischio però è che ci si abitui a un intrattenimento sterilizzato, in cui l’errore e l’imprevisto (da sempre linfa dell’esperienza artistica) vengano percepiti come difetto da eliminare, anziché come valore. Eppure, sono proprio le note stonate, le imperfezioni, gli inciampi, le improvvisazioni, a creare l’empatia e a ricordarci che dietro l’opera c’è un essere umano come noi.
Diritto di sapere e libertà di scegliere: lo scenario europeo
Non sembra corretto liquidare la comparsa di attrici, modelle e cantanti sintetiche come tappa fisiologica del progresso tecnologico, perché è una trasformazione che tocca i diritti fondamentali della persona, dal controllo sui propri dati biometrici alla tutela della propria immagine e della propria voce. Senza una cornice giuridica robusta, il rischio è che la simulazione diventi lo standard e l’autenticità l’eccezione.
La sfida più grande è infatti quella di costruire una cornice etica e giuridica che impedisca la riduzione dell’umano a semplice “opzione inefficiente”, senza per questo demonizzare la tecnologia. Il progresso non può essere certamente arrestato, però può essere orientato e, per farlo, servono obblighi chiari di trasparenza sull’origine sintetica dei contenuti, che permettano all’utente di riconoscere quando sta interagendo con un attore digitale, un avatar o un chatbot. Occorrono poi norme che garantiscano il diritto alla revoca per chi cede volto o voce, e che fissino regole di accountability sui contenuti generati artificialmente.
L’impatto delle norme europee
L’Europa, con l’AI Act e il Digital Services Act, ha aperto questa strada, ma sarà necessario andare oltre, creando strumenti realmente capaci di proteggere il diritto all’identità digitale e riconoscendo nuovi diritti della personalità, come il diritto al timbro vocale o all’avatar, oltre all’implementazione di sistemi di etichettatura obbligatoria dei prodotti dell’IA, così che lo spettatore o il consumatore possano decidere consapevolmente se fruire di un contenuto artificiale o cercare invece l’autenticità della performance umana.










