Deepfake e manipolazione dell'identità digitale: rischi e prospettive etico-giuridiche - Agenda Digitale

marketing

Deepfake e manipolazione dell’identità digitale: rischi e prospettive etico-giuridiche

La crescita di un mercato volto a creare nuove identità digitali tramite tecnologia deepfake presenta inedite prospettive per il marketing, ma anche notevoli e imprevedibili rischi, a fronte dell’inadeguatezza dei tradizionali rimedi giurisdizionali. Gli scenari

15 Ott 2021
Elisabetta Stringhi

Praticante Avvocato, Cultrice della materia “Trattamento dei dati sensibili” presso UniMi

La possibilità di alterare, modificare, duplicare la propria identità digitale con la libertà creativa offerta attualmente dall’intelligenza artificiale avrebbe potuto sembrare, fino a circa cinque anni fa, ancora appannaggio dei film di fantascienza – basti pensare all’iconico ologramma della Principessa Leia in Guerre Stellari: Una Nuova Speranza.

La ricerca iniziata a livello amatoriale da un utente anonimo di Reddit, “deepfakes”, che ha ricreato il celebre personaggio di Guerre Stellari, poi perfezionatasi nel campo delle cosiddette Generative Adversarial Networks, con lo sviluppo delle architetture Star Gan e Start Gan2, ha consentito che questa potenzialità si concretizzasse nella tecnologia  deepfake, oltre che divenisse un’opportunità di nascita e di crescita di un mercato altamente specializzato.

Deepfake, come affrontare attacchi sempre nuovi: evoluzioni e sfide future

Deepfake e marketing, presentatori e influencer che non ti aspetti

Come descritto in un recente articolo dell’MIT, la società israeliana Hour One è titolare di una piattaforma di creazione di contenuti video end-to-end di elevata qualità, ritraenti dei presentatori digitali, sintetizzati con immagini di persone fisiche rielaborate con tecniche di tipo deepfake e software text-to-speech. Così Liri, una presentatrice di Hour One intervistata dal MIT, è una cameriera a Tel Aviv, ma vende anche automobili, riceve ospiti in una hall di albergo, e così via. I presentatori divengono dei veri e propri “personaggi” ritratti nei contenuti video realizzati da Hour One, dopo aver concluso con quest’ultima un contratto di collaborazione e di cessione dei diritti relativi alle immagini. Perfezionata la cessione, stando alle condizioni contrattuali della società, Hour One è autorizzata a riprodurre l’immagine del presentatore, modificarla, alterarla, oltre che adattarne e cambiarne la voce, per realizzare i video destinati ai clienti finali, licenziatari della piattaforma. Ogni volta che un cliente finale di Hour One licenzia i contenuti della piattaforma, il presentatore riceve un compenso. Fatto salvo per contenuti di tipo pornografico, politico o relativo al gioco d’azzardo, il presentatore può ritrovarsi rappresentato in qualsiasi genere di video.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy

Non si tratta dell’unica società operante nel settore del deepfake per scopo di sintesi creativa con finalità di marketing.

La virtual influencer Rozy

È recente la notizia del lancio sul mercato sudcoreano da parte della società Sidus Studio X di “Rozy”, la prima Virtual Influencer che ha raccolto un centinaio di adesioni per contratti di sponsorizzazione. Rozy è una influencer interamente realizzata con tecniche di IA, che può quindi commercializzare prodotti e/o servizi sui canali social dedicati ininterrottamente, così abbattendo quelli che sono ritenuti, da un punto di vista commerciale, dei rischi come malattia, infortunio, ferie, controversie, scandali, espressioni di pensiero e/o manifestazioni sociopolitiche dell’influencer. All’operato di queste società sono sottese diverse criticità legate alla cybersecurity, oltre che questioni etico-giuridiche che non possono restare inevase.

De-umanizzazione del marketing: i rischi per i consumatori

La realizzazione di contenuti deepfake per sponsorizzare prodotti oppure interagire brevemente con il pubblico rischia di sostituire specifici settori del mercato del lavoro. Basti pensare alla produzione cinematografica o al reclutamento di attori e modelli, come alla riduzione di opportunità lavorative per receptionist, hostess, steward, ecc. L’eliminazione di interazione umana in determinati contesti potrebbe deteriorare le capacità relazionali a livello collettivo – come paventato nelle Ethics Guidelines for Trustworthy AI del Gruppo di Esperti di Alto Livello sull’Intelligenza Artificiale istituito dalla Commissione Europea. In determinati contesti di vulnerabilità sociale, l’impiego di assistenti deepfake potrebbe contravvenire a tali linee guida europee, soprattutto laddove l’interazione umana non potrebbe essere integralmente sostituita – tuttalpiù, adeguatamente supervisionata e monitorata. Ad esempio, in ambito di assistenza a persone anziane e/o soggetti psicologicamente vulnerabili. Si profila una prospettiva volta alla de-umanizzazione dei settori pubblicitari e/o del marketing in genere, con conseguenti rischi anche per i consumatori, per il pubblico, per la società nel suo insieme.

Deepfake e rischi di cybersecurity

La crescita di un mercato volto a creare nuove identità digitali tramite tecnologia deepfake rischierebbe, inoltre, di supportare la proliferazione di cyber attacchi – specialmente quelli fondati su ingegneria sociale. L’Europol ha difatti evidenziato come un contenuto video deepfake ben si presti primariamente alla commissione dei reati di furto di identità e sostituzione di persona (cosiddetta impersonation secondo la classificazione anglosassone). L’Europol ha poi sottolineato come il deepfake possa anche consentire l’aggiramento dei sistemi di riconoscimento facciale, oltre che la falsificazione dei documenti di identificazione, anche con tecniche sofisticate come quella di face morphing. Il rischio è che si venga a creare un nuovo mercato di lavoro digitale che possa aumentare significativamente i rischi sotto il profilo della cybersecurity, avente come principale obiettivo l’ambito corporate. Un caso scuola in tal senso è rappresentato dal tentativo di spionaggio industriale effettuato tramite social media, ricorrendo a Maisy Kinsley – un’identità deepfake.

A livello nazionale, l’Autorità Garante per la Protezione dei Dati Personali ha emanato una scheda informativa sui rischi dell’uso malevolo del deepfake (Deepfake: dal Garante una schedainformativa sui rischi dell’uso malevolo di questa nuova tecnologia, 28 dicembre 2020, [doc. web. n. 9512278]), con una particolare attenzione nei confronti della tutela dei diritti della personalità delle persone fisiche, stante la pericolosità di tale tecnologia nella sua potenzialità di travisarne le identità digitali, combinata alla capacità diffusiva dei social media.

Cessione dei diritti d’immagine: i rischi di compromissione dell’identità digitale

Non si può fare a meno di considerare come una persona fisica, acconsentendo ad una cessione dei diritti sulla propria immagine, implicitamente accetti di sopportare tali rischi di compromissione della propria identità digitale – che potrebbero risultare ben più estesi ed imprevedibili di quanto prospettato alla stipulazione del contratto, a causa di sviluppi tecnologici e sociali. In simili circostanze rimane, dunque, aperto il quesito di come, a lungo termine, le persone fisiche possano tutelare la propria identità online – e, quindi, offline.

Emerge con prepotenza questo tema, stante anche l’inadeguatezza dei tradizionali rimedi giurisdizionali ad effettivamente tutelare le persone fisiche, danneggiate nella propria identità. Nell’ordinamento italiano, il risarcimento del danno sarebbe liquidato in via equitativa, cioè rimesso ad una valutazione del giudice. La giurisprudenza tiene generalmente in considerazione una serie di fattori, come la riconoscibilità del soggetto rappresentato, la divulgazione del contenuto lesivo, i destinatari di tale contenuto e la capacità lesiva dell’eventuale testo correlato.

Vale il principio per cui il travisamento del patrimonio personale, nei relativi profili intellettuali, politici o sociali, configuri una violazione del diritto all’identità personale, protetto dall’articolo 2 della Costituzione. Tuttavia, l’incapacità dell’attuale ordinamento giudiziale a garantire l’effettività e la celerità della tutela, specialmente a fronte di nuove tecnologie come quella deepfake, compromette proprio questa necessità di protezione dell’identità digitale.

Liri, intervistata dall’MIT, afferma di riporre fiducia in Hour One, perché non utilizzi il proprio volto per contenuti che potrebbero metterla a disagio. Tuttavia, appare legittimo chiedersi se ci si possa unicamente affidare alla buona fede negoziale per tutelare interessi fondamentali, come la protezione dell’identità digitale e personale. Risulta, eppure, difficile allo stato attuale immaginare concreti meccanismi di tutela di questi interessi, soprattutto, come si possa garantire ad una persona fisica di mantenere un pieno ed effettivo controllo sulla propria identità digitale – anche dopo la morte.

La società MyHeritage, come noto, ha sfruttato la tecnologia deepfake per consentire agli utenti la possibilità di modificare ed animare le fotografie dei propri cari defunti, permettendo delle vere e proprie interazioni con questi tramite brevi video ad alta risoluzione. La funzionalità, conosciuta come “Deep Nostalgia”, solleva inevase questioni etico-giuridiche relative al destino dell’identità digitale dopo la morte della persona fisica. Difatti, il Regolamento 2016/679 nella sua formulazione attuale non troverebbe applicazione a tali fattispecie. Al contrario, potrebbero essere utili degli istituti giuridici di diritto interno degli Stati membri UE che consentano a dei soggetti individuati, come gli eredi del defunto, di intervenire richiedendo la cancellazione di tali contenuti (come quello italiano ex art. 2-terdecies del d.lgs. 196/2003 come modificato dal d.l. 101/2018). Anche in tal caso si porrebbe, comunque, il tema della celerità ed effettività del rimedio a disposizione degli eredi dell’interessato.

La governance della tecnologia deepfake

Rimane aperta la questione della governance della tecnologia deepfake. Un primo tentativo nella direzione di proteggere i consumatori dai suoi possibili abusi, fissando dei requisiti normativi per il suo uso e commercializzazione, si rinviene nella Proposta di Regolamento dell’IA, seppur vago ed incerto nella sua portata. In particolare, l’art. 52(3) della bozza impone ai creatori di contenuti deepfake che assomigliano a persone, oggetti, spazi o altre entità o eventi esistenti di indicare che si tratti di contenuto artificialmente generato o manipolato. Tuttavia, la stessa norma deroga a tale obbligo nel caso in cui la manipolazione e/o la generazione di tali contenuti sia funzionale all’esercizio della libertà di espressione e alla libertà delle arti e delle scienze. La natura e l’estensione di tale obbligo risultano vaghi ed incerti, ad esempio in relazione ai mezzi tecnici con cui assolvere alla trasparenza, mentre la portata della deroga risulta ampia ed ambigua. Peraltro, non sono state chiarite le conseguenze di una eventuale violazione di questi obblighi di trasparenza, come non sono state affrontate le questioni relative alla tutela dell’identità digitale da alterazioni, distorsioni, travisamenti di contenuti deepfake lesivi.

In attesa da parte del legislatore europeo di futuri chiarimenti umanizzanti la tecnologia deepfake, appare legittimo domandarsi fino a che punto, per perseguire finalità di marketing, sia etica e legittima la prospettiva di monetizzazione delle identità digitali – la proiezione della nostra identità umana.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4