Deepfake: così ti rovino la web reputation aziendale. Rischi e strategie di difesa - Agenda Digitale

cyber security

Deepfake: così ti rovino la web reputation aziendale. Rischi e strategie di difesa

La tutela dell’identità della persona giuridica online costituisce una protezione del marchio della stessa e si configura come vero e proprio asset intangibile. Il rischio e il danno reputazionale sono perciò elementi cruciali da considerare in ottica di cybersecurity. Come difendersi da attacchi deepfake e cosa si rischia

26 Mag 2021
Simone Bonavita

Professore a contratto in “Sensitive Personal data Processing”, Università degli Studi di Milano

Elisabetta Stringhi

Praticante Avvocato, Cultrice della materia “Trattamento dei dati sensibili” presso UniMi

Il fenomeno del deepfake si presta facilmente ad attacchi reputazionali a danno di una persona giuridica, così vanificando gli sforzi compiuti per curarne la web reputation, un asset oggi cruciale.

Ecco perché cercheremo di approfondire di seguito i rischi derivanti da un uso strumentale dell’IA per cagionare un danno reputazionale, nonché possibili strategie per prevenire e rimediare all’incidente.

Il deepfake e la minaccia alla web reputation 

Come noto, l’evoluzione dell’intelligenza artificiale (IA) consente allo stato dell’arte attuale di attaccare la reputazione online di una persona giuridica, con conseguenze notevoli per l’identità online, così vanificando gli sforzi compiuti fino a quel momento per proteggerla.

WEBINAR
18 Novembre 2021 - 15:00
PNRR: Cybersecurity e innovazione digitale (sicura).
Sicurezza
Cybersecurity

Le tecniche di IA di autoencoder (T. T. Nguyen et al., 2020; Hasson et al., 2020) o di Generative Adversarial Networks (I Goodfellow et al., 2014) consentono di sintetizzare file audio, fotografici e/o audiovisivi accurati e realistici agli occhi degli utenti.

Per quanto riguarda i file fotografici, la tecnologia StarGAN (Y. M. Choi et al., 2018) realizzava immagini facilmente riconoscibili come false. Tuttavia, le architetture StyleGAN (T. Karras et al., 2019) e StyleGAN 2 (T. Karras et al., 2020) hanno consentito di generare contenuti visivi estremamente credibili, come una sovrapposizione di volti su corpi differenti (“face swap”) o una sintesi di immagini originali (“image-generation”). Con tale tecnologia possono essere sintetizzati anche nuovi contenuti audio (“speech synthesis”). Inoltre, sono noti anche i “shallowfakes”, ossia i contenuti audio-visivi di rozza manifattura, mediante il ricorso a tecniche meno sofisticate di IA.

Questo fenomeno è comunemente definito con la parola inglese “deepfake”, termine che combina “deep” e “fake”, dal nome dell’omonimo utente di Reddit “Deepfakes” che ne ha reso popolare la creazione (H. Ajder, et al., 2019). Il deepfake è stato autorevolmente definito come una “tecnica che utilizza l’intelligenza artificiale per combinare e sovrapporre immagini o video originali, ritraenti una persona, con quelli ritraenti qualcun altro, o per generare immagini o video completamente falsi e difficilmente riconoscibili come falsi” (G. Ziccardi, P. Perri, 2020).

Tale tecnica si presta ad essere utilizzata per molteplici scopi come, a titolo illustrativo, la produzione creativa ed artistica (T. Shen et al., 2018).

In ambito cinematografico, il deepfake potrà consentire di agire in post-produzione per creare immagini di attori e/o attrici scomparse durante il corso della ripresa del film, andando a sostituire la tecnica di CGI. Difatti, l’utente anonimo “deepfakes” ha utilizzato le Generative Adversarial Network” proprio per ricreare celebri scene di “Guerre Stellari” ritraenti l’amato personaggio Leia Organa (H. Ajder, et al., 2019).

Risulta allora evidente come la tecnica deepfake possa essere utilizzata da potenziali attaccanti per ledere la web reputation non soltanto di persone fisiche, ma anche di persone giuridiche. Come altresì emerso dal Rapporto CLUSIT del 2020 (F. Bertoni, 2020), nel lungo periodo è stimato che gli attacchi fondati sulla combinazione di tecniche di ingegneria sociale e di intelligenza artificiale come il deepfake cresceranno in maniera sostenuta, prettamente a danno di organizzazioni economiche.

Lo scopo del presente contributo è di approfondire il ricorso alla tecnologia deepfake per attaccare la reputazione delle persone giuridiche, analizzandone lo stato dell’arte attuale, le prospettive tecniche e giuridiche, come possibili strategie preventive e rimediali all’incidente. Le tecniche deepfake possono essere utilizzate per perpetrare un attacco reputazionale al rappresentante legale e/o al CEO della persona giuridica, come per perfezionare una impersonificazione diretta della stessa, per lo svolgimento di operazioni di tipo bancario, anche di home-banking (Bonavita et al., 2021). In questa analisi, esamineremo la prima tipologia di attacco.

L’attacco reputazionale alle persone giuridiche tramite deepfake: tecniche e prospettive

Il rischio primario di attacco reputazionale alle persone giuridiche tramite deepfake è rappresentato dalla diffusione di immagini e/o video ritraenti una o più persone fisiche (riconducibili all’organizzazione economica), a seguito della combinazione e sovrapposizione di immagini o video originali oppure della generazione di immagini o video falsi e difficilmente riconoscibili come tali, in atteggiamenti o contesti lesivi della reputazione.

Nonostante sia ancora una tecnica relativamente poco diffusa, è ragionevole supporre che il deepfake sarà sempre più utilizzato dagli attaccanti in ragione di diversi fattori:

  • l’agevole ricorso a software gratuiti per sintetizzare tali file;
  • la presenza di un vero e proprio marketplace online nel quale è possibile acquistare o commissionare la realizzazione di immagini e/o video deepfake;
  • lo sviluppo e la distribuzione di applicativi per smartphone con cui si possono semplicemente creare (A. Robertson, 2018, A. Carman, 2019 Agence france-presse, 2019);
  • la mole di dati digitali disponibili online relativi alla persona, tali per cui risulta possibile ricostruire nel dettaglio ogni singolo aspetto della stessa, fino alla creazione di un vero e proprio “corpo digitale”, potenzialmente separato dal “corpo fisico” (cfr., inter alia, S. Bonavita, E. Stringhi, 2021; S. Bonavita, 2017; G. Ziccardi, 2017).

Per questo, è possibile parlare di un processo di commodification dei deepfake, se non, addirittura, di deepfake-as-a-service, essendosi venuto a creare un mercato illecito annesso (M. Rosario Fuentes, 2020). Sebbene sia stato evidenziato (EUROPOL, 2020) come, ad oggi, casi documentati di ricorso alla tecnologia deepfake per commettere attacchi informatici ai danni di organizzazioni economiche siano relativamente limitati per una serie di ragioni, come i) la durata breve di tali contenuti, segnalati celermente; ii) la necessità di competenze altamente tecniche, iii) la presenza di metodi alternativi “tradizionali” per perfezionare gli attacchi, comunque preme sottolineare tale fenomeno è in espansione. Quanto più tale tecnologia diviene nota al grande pubblico e capace di sintetizzare contenuti convincenti, tanto più gli attaccanti non necessiteranno di elevate conoscenze e competenze da un punto di vista tecnico e, dunque, i deepfake diventeranno degli efficaci strumenti di attacco della web reputation.

Alla luce di ciò, la tecnologia deepfake potrebbe essere agevolmente strumentalizzata da attaccanti organizzati al fine di perfezionare delle azioni di ingegneria sociale per danneggiare la reputazione di una società target e, quindi, manipolare il mercato azionario di riferimento ovvero realizzare degli schemi fraudolenti.

Basti pensare, ad esempio, al furto di identità di un amministratore delegato di una società che viene ritratto artificiosamente in un video, successivamente diffuso a mezzo social network, mentre rilascia dichiarazioni offensive, a carattere razzista, oppure false, in relazione a presunte perdite finanziarie subite o ad una violazione di dati mai avvenuta.

Ancora, in riferimento ad un episodio avvenuto concretamente, basti pensare alla diffusione sul social network Instagram di un video, sintetizzato con le GANs, ritraente Mark Zuckerberg mentre dichiarava di essere affiliato all’organizzazione criminosa “Spectre” (H. Ajder, et al., 2019). Seppur tale video fosse stato realizzato per scopi prettamente artistici e satirici, l’episodio è dimostrativo della reale potenzialità della tecnologia deepfake ad essere sfruttata per causare un danno reputazionale ad un’organizzazione economica. Nonostante tali contenuti messi in circolazione nei social media possano essere naturalmente riconosciuti e dichiarati come falsi, nonché eventualmente rimossi tramite procedura di notice-and-take-down, ove ne ricorrano i presupposti, in conformità all’art. 512 DMCA, bisogna comunque evidenziare come si registrerebbe una flessione del valore economico attribuibile alla società target a seguito di tale incidente.

Un altro ipotetico scenario di rischio reputazionale in ambito corporate vede l’estorsione tramite la prospettazione di un attacco alla web reputation dell’organizzazione economica con materiale deepfake, azione che peraltro potrebbe essere – secondo alcune teorie – combinata ad un attacco informatico di tipo ransomware verso il pagamento di un corrispettivo in valuta o, eventualmente, in criptovalute (M. R. Fuentes, 2020).

La pericolosità di un attacco reputazionale di tipo deepfake deve, pertanto, essere inquadrata alla luce delle tecniche di ingegneria sociale ben note dagli attaccanti nonché dagli stessi studiate e riadattate al particolare contesto dell’organizzazione economica target.

I danni conseguenti ad un incidente deepfake

Nel contesto attuale, la tutela dell’identità della persona giuridica online costituisce al contempo una protezione del marchio della stessa, pertanto, configurandosi come vero e proprio asset intangibile. Il rischio ed il danno reputazionale sono perciò elementi cruciali da considerare in ottica di cybersecurity in ambito corporate. Si intende, difatti, con “rischio reputazionale” quel pericolo, attuale o futuro, di flessione del capitale o degli utili derivante da una percezione negativa dell’immagine dell’organizzazione economica da parte di vari soggetti: clienti, controparti, azionisti, investitori, autorità di vigilanza.

Il rischio reputazionale costituisce dunque un rischio di cosiddetto secondo livello, perché derivante da eventi negativi, a loro volta causati da altri rischi verificatisi in concreto, come ad esempio irregolarità e perdite finanziarie, violazione di dati, incidenti di sicurezza, questioni e violazioni etiche. Secondo un report del World Economic Forum, almeno il 25% del valore di mercato di una società è direttamente attribuibile alla sua reputazione. Un’altra indagine del 2017 (KPMG, 2017) osserva come il rischio reputazionale sia il più temuto dagli amministratori delegati e dai consigli di amministrazione, in ben 10 paesi differenti e 11 diversi settori dell’industria. Analogamente, il Reputation Institute posiziona il rischio reputazionale al secondo posto tra i rischi per gli investitori (Reputation institute). Sempre secondo il Global Risk Survey (Aon, 2019), il danno da incidente reputazionale è al primo posto per quanto riguarda l’industria dei c.d. professional services, seguito dagli attacchi informatici e dall’incapacità di trattenere o attrarre valide risorse. Bisogna, infatti, sottolineare come, seppur il danno reputazionale sia sottovalutato a causa della propria natura “intangibile”, esso abbia un impatto diretto sul valore della società per gli azionisti, incidendo sostanzialmente sulle relative prospettive finanziarie.

Gli attacchi reputazionali perpetrati tramite deepfake sollevano, inevitabilmente, questioni e riflessioni connesse alla diffusione di notizie non veritiere, capaci di ledere l’identità online e la web reputation delle persone giuridiche e dei brand o, più sinteticamente, legate al tema delle fake news in ambito commerciale ed industriale (cfr. G. Ziccardi, S. Bonavita, A. Barchiesti, Fake news in ambito commerciale ed industriale, conferenza organizzata da ISLC e Reputation Manager). Se con l’espressione “fake news” si identifica una particolare fattispecie, in cui risulta determinante la trasmissione delle informazioni a mezzo Internet così connotando la notizia diffusa, con il depfake tuttavia si delineano scenari di distorsione della realtà ben più profonde e senza precedenti. Difatti, tali attacchi reputazionali non soltanto minano la capacità di chi osserva di distinguere il contenuto audio-visivo falso da quello vero, ma anche di fidarsi di immagini e/o video effettivamente reali, in quel paradosso definito come “liar’s dividend” (Chesney et al., 2020). Trattandosi di contenuti capaci di distorcere la rappresentazione dei fatti e di travisare un’identità online, la relativa diffusione costituisce fonte di responsabilità civile qualora sia cagionato un danno ingiusto.

A titolo esemplificativo, basti pensare alla condivisione tramite social network di un video deepfake relativo ad una finta sponsorizzazione di un brand che, anziché alla sua promozione, miri alla sua rovina, ad esempio esaltandone difetti e/o distorcendone le qualità. Si tratterebbe di informazioni false e diffamatorie relative ai prodotti e/o ai servizi offerti dalla persona giuridica attaccata, la quale patirebbe danni reputazionali ingiusti.

Un simile attacco potrebbe integrare il reato di diffamazione aggravata dall’uso dei social network per la diffusione dei contenuti audio-visivi diffamatori e non veritieri, nonché risultare suscettibile di tutela cautelare, come in un caso di lesione della reputazione tramite TripAdvisor (cfr. Tribunale di Venezia, ordinanza del 24 febbraio 2015) (L. Vizzoni). In circostanze analoghe, i giudici di merito hanno condannato l’autore del reato al risarcimento del danno conseguente alla condotta (Tribunale di Lecce, 12 settembre 2018).

Ad esempio, qualora le immagini di un CEO e/o di uno sponsor ufficiale siano distorte con tecnica deepfake e diffuse a mezzo social network, la diffusione di tali contenuti potrebbe configurare un atto di concorrenza sleale, perché il relativo brand potrebbe registrare una perdita finanziaria a seguito dell’incidente.

Come si evince da questi esempi, in questa sede trovano applicazione anche le norme relative alla disciplina della proprietà intellettuale ed industriale, come attinenti la tutela della concorrenza. Ciò è evidente soprattutto se si considera che ciascun utente in rete non fruisce passivamente dei contenuti online, ma al contrario è attivamente creatore e diffusore di post, foto, video ed informazioni – potenzialmente false. Così la diffusione di deepfake può alterare il comportamento economico, oltre che influenzare le scelte dei consumatori, a danno del brand vittima dell’attacco reputazionale.

Strategie per prevenire e rispondere a un attacco reputazionale deepfake

Dato che le conseguenze in termini reputazionali e finanziari di un attacco basato su deepfake possono essere quantitativamente ingenti e persistenti nel tempo, proteggere il brand e la reputazione online dell’organizzazione economica significa in primis adottare una strategia preventiva, che si articola in una serie di azioni.

Specialmente nella prospettiva di proteggere il bene intangibile della web reputation a lungo termine (Aon, 2019), sia in ottica di percezione pubblica del brand come di monitoraggio dell’andamento del mercato, è cruciale implementare un controllo costante dei canali comunicativi aperti: ciò ricomprende senz’altro un monitoraggio continuo delle pagine dei social network ufficiali del marchio, senza escludere tuttavia un’analisi di siti web di testate di giornale o di esperti del settore, come i profili social media di divulgatori, sponsor e/o influencer del settore. In tal senso, è opportuno che l’organizzazione economica adotti ed implementi, anche ricorrendo a società di consulenza e/o esperti esterni, capacità di intelligence nello svolgimento di tale attività di monitoraggio. È altrettanto utile che la reputazione online sia monitorata in modalità automatizzata, con il ricorso ad appositi software. L’attività di monitoraggio e di identificazione di eventuali contenuti deepfake lesivi del brand non possono prescindere da una preparazione tecnica nel campo dell’image processing (S. Aterno, 2019).

Una presenza attiva sui canali comunicativi social media è cruciale per mantenere il controllo sulla reputazione online dell’organizzazione e/o del marchio target. Difatti, la costruzione di un’identità online definita e solida in relazione al brand potrebbe ridurre il rischio che consumatori, utenti e stakeholder ritengano veritieri i contenuti deepfake diffusi, come potrebbe prevenire un sentimento di scetticismo nei confronti di contenuti pubblicati dagli account ufficiali. In particolare, l’avviamento di campagne comunicative mirate per coltivare e promuovere il sostegno degli stakeholder potrebbe minimizzare il rischio reputazionale derivante dalla diffusione di deepfake fortemente offensivi come, ad esempio, il rilascio di un video ritraente l’amministratore delegato in atteggiamenti razzisti.

Infine, è fondamentale che all’interno dell’organizzazione economica venga coltivata una cultura di consapevolezza del rischio reputazionale, soprattutto in relazione ad azioni coordinate di ingegneria sociale, tramite strumenti, formazione e simulazioni interne. Nello specifico, soci, dipendenti e collaboratori dovrebbero essere sensibilizzati all’uso cauto dei social network, perché non svelino dati personali e informazioni sensibili a potenziali attaccanti, come delle app di messaggistica, evitando di condividere immagini, video e/o audio personali più del dovuto. La consapevolezza, da un lato delle tecniche di ingegneria sociale, dall’altro del potenziale riutilizzo dei media condivisi per sintetizzare deepfake, dovrebbe essere al centro di questa cultura di consapevolezza del rischio reputazionale.

Per quanto concerne, invece, l’adozione di una strategia comunicativa successiva e conseguente al verificarsi di un incidente reputazionale basato sul deepfake, nonché durante tutto il corso della crisi reputazionale, è opportuno che l’organizzazione economica adotti una linea trasparente e proattiva. Anziché consentire ad altri soggetti, come attaccanti e/o concorrenti, di esprimersi sull’incidente, è bene che sia il brand stesso a spiegare l’avvenuto, smentendone la natura di falso profondo e chiarendo che non trattasi di contenuto ufficiale. Ad ogni modo, da tale comunicazione dovrebbero emergere una serie di elementi, in primis la volontà di esprimere pubblicamente delle scuse, per suscitare l’empatia nei confronti del destinatario della comunicazione; l’assunzione di responsabilità pubblica, senza risultare né impersonale né de-responsabilizzante, al fine di creare fiducia nei destinatari o, comunque, evitare una perdita di credibilità e affidabilità del brand; fornire le informazioni utili per illustrare il problema verificatosi ed eventualmente risolverlo, come contatti di riferimento e/o rimedi predisposti.

Infine, risulta ragionevole che le organizzazioni economiche inizino a valutare la stipulazione di un contratto assicurativo per essere mantenute indenni dalle perdite di profitto lordo causate dalla riduzione del volume di affari, nonché dall’aumento dei costi di esercizio, ivi incluse quelle spese imprescindibili per la comunicazione da svolgere nella gestione di una crisi; la comunicazione per ricostruire la reputazione online ed il brand; la cancellazione e la de-indicizzazione dei contenuti deepfake; la (eventuale) tutela in sede civile e/o penale; tenere monitorato il gradimento del marchio.

Considerazioni conclusive e prospettive future

Come approfondito, il deepfake si presta agilmente ad offendere la reputazione online di una persona giuridica e colpire i brand. Per fronteggiare al meglio le sfide che tale tecnologia ci riserva, soprattutto in ambito commerciale ed industriale, sarà essenziale compiere uno sforzo per accrescere la consapevolezza della sua esistenza deepfake ed attuare quelle strategie cruciali per proteggere il brand da tentativi di manipolazione e distorsione (Europol, 2019).

Bibliografia

A. Carman, 2019. The Verge. “FaceApp is back and so are privacy concerns”, disponibile al link https://www.theverge.com/2019/7/17/20697771/faceapp-privacy-concerns-ios-android-old-age-filter-russia (sito web online e consultato il 26 aprile 2021).

A. Robertson, 2018. The Verge. “I’m using AI to face-Swap Elon Musk and Jeff Bezos, and I’m really bad at it”, disponibile al link https://www.theverge.com/2018/2/11/16992986/fakeapp-deepfakes-ai-face-swapping (sito web online e consultato il 26 aprile 2021.

Agence france-presse, 2019. The Guardian. The Guardian. “Chinese deepfake app Zao sparks privacy row after going viral”, disponibile al link https://www.theguardian.com/technology/2019/sep/02/chinese-face-swap-app-zaotriggers-privacy-fears-viral (sito web online e consultato il 26 aprile 2021).

F. Bertoni (2020). “L’impatto dei deepfake sulla sicurezza delle organizzazioni economiche”. Rapporto CLUSIT 2020 sulla sicurezza ICT in Italia, pp. 155-171.

Chesney, Citron, Farid (2020). “All’s Clear for Deepfakes: Think Again”, Lawfare: Hard National Security Choices, disponibile all’indirizzo <https://www.lawfareblog.com/alls-clear-deepfakes-think-again> (sito web online e consultato il 27 aprile 2021).

D. Lee, Deepfake Salvador Dalí takes selfies with museum visitors,10 maggio 2019, sito web online, consultato e disponibile all’URL: https://www.theverge.com/2019/5/10/18540953/salvador-dali-lives-deepfake-museum.

Europol (2018). “French Coder Who Helped Extort British Company Arrested in Thailand”, disponibile all’indirizzo: <https://www.europol.europa.eu/newsroom/news/french-coder-who-helped-extort-british-company-arrested-inthailand>.

Europol European Cybercrime Centre (2019). DeepFake. Europol Platform for Experts – EPE.

Europol, Trend Micro, Unicri. (2020). Criminal Misuse of AI and Deepfakes, The Hague, The Netherlands.

G. Ziccardi (2017). “La morte nell’era dei “dati eterni”: che ne sarà del nostro corpo digitale”, in Agenda Digitale. Disponibile all’URL: <https://www.agendadigitale.eu/cultura-digitale/la-morte-nellera-dei-dati-eterni-che-ne-sara-del-nostro-corpo-digitale/>.

G. Ziccardi, P. Perri. Dizionario Legal Tech: Informatica Giuridica, Protezione dei Dati, Investigazioni Digitali, Criminalità Informatica, Cybersecurity e Digital Transformation Law, Milano, Giuffré Francis Levebvre, 2020, p. 333.

H. Ajder, G. Patrini, F. Cavalli, L. Cullen (2019). The State of Deepfakes: Landscape, Threats, and Impact.

I. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville, & Y. Bengio (2014). “Generative Adversarial Nets”. Advances in Neural Information Processing Systems, 2672–2680.

L. Vizzoni, Recensioni genuine su TripAdvisor: quali responsabilità? Responsabilità Civile e Previdenza, fasc. 2, 1 febbraio 2018, p. 706).

M. Rosario Fuentes. (2020). Trend Micro. Shifts in Underground Markets: Past, Present, and Future, disponibile all’indirizzo https://www.trendmicro.com/vinfo/us/security/news/cybercrime-and-digital-threats/trading-in-the-dark (sito web online e consultato il 26 aprile 2021). Si stima, inoltre, che sarà in crescita anche il mercato relativo all’offeta di strumenti e di servizi online di noleggio.

S. Aterno, Deepfake in tribunale: ecco come la digital forensics smaschera il falso. Agenda Digitale. 6 novembre 2019. Disponibile all’URL: <Deepfake in tribunale: ecco come la digital forensics smaschera il falso | Agenda Digitale>.

S. Barnes, Artist uses AI to generate realistic faces of subjects from world’s most iconic paintings, 15 luglio 2020, sito web online, consultato e disponibile all’URL: <https://mymodernmet.com/denis-shiryaev-neural-network-art/>.

S. Bonavita (2017). “Le ragioni dell’oblio”, in Ciberspazio e diritto, (1-2017), 85-111.

S. Bonavita, A. Cortina, E. Stringhi, (2021). “Conosci il tuo nemico”: un primo approccio tassonomico ai principali attacchi informatici nel settore del cybercrime bancario e finanziario”, in Ciberspazio e diritto, vol. 21, n. 66 (3-2020), 457-501.

S. Bonavita, E. Stringhi (2021). “Identità digitale e personalità on-line: i profili sostanziali di tutela”, in Orientamenti della giurisprudenza, Il Quotidiano Giuridico. Disponibile all’URL: <https://www.quotidianogiuridico.it/documents/2021/05/03/identita-digitale-e-personalita-on-line-i-profili-sostanziali-di-tutela>.

T. Karras, S. Laine, & T. Aila (2019). “A style-based generator architecture for generative adversarial networks”. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 4401–4410.

T. Karras, S. Laine, M. Aittala, A. Hellsten, J. Lehtinen, & T. Aila (2020). “Analyzing and improving the image quality of StyleGAN”. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 8110–8119.

T. Shen, R. Liu, J. Bai, Z. Li, “Deep Fakes” using Generative Adversarial Networks (GAN), ECE228 and SIO209 Machine learning for physical applications, vol. 16, Spring 2018.

T. T. Nguyen, C. M. Nguyen, D. T. Nguyen, S. Nahavandi, (2020). “Deep Learning for Deepfakes Creation and Detection: A Survey”, in Computer Vision and Pattern Recognition. Disponibile all’URL: <https://arxiv.org/pdf/1909.11573.pdf>.

Y. Choi, M. Choi, M. Kim, J.-W. Ha, S. Kim, & J. Choo. (2018). “Stargan: Unified generative adversarial networks for multi-domain image-to-image translation”. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 8789–8797.

WEBINAR
25 Ottobre 2021 - 17:00
Come diffondere la cultura del continuous feedback e integrarla nei processi lavorativi?
Istruzione
Risorse Umane/Organizzazione
@RIPRODUZIONE RISERVATA

Articoli correlati