Deepfake, dagli abusi all'arte critica: le conseguenze di una rivoluzione | Agenda Digitale

occhiello

Deepfake, dagli abusi all’arte critica: le conseguenze di una rivoluzione

I deep-fake non sono riducibili a una sola categoria. Ogni volta è possibile intravedere in essi un valore e un uso nuovi. Dipende da noi. Lo dimostrano i tanti, diversi per segno, utilizzi che stanno nascendo. Dal marketing alla satira all’arte. Non solo porno e diffamazione via deepfake, insomma

27 Ott 2020
Lorenza Saettone

Filosofa specializzata in Epistemologia e Cognitivismo. Collabora con l’istituto di Network Cultures. Tirocinante presso Scuola di Robotica


I deepfake sono una tecnologia buona? Molti sono sicura risponderanno di no, soprattutto in questi giorni in cui spopola su Telegram un servizio che permette con questa tecnologia di “spogliare” – per finta, ma in modo realistico – qualsiasi donna partendo dalla sua immagine.

Ma dovremmo chiederci: video e foto ottenuti con tecniche di Intelligenza artificiale sono una sola grande categoria? L’uso creativo nobilita il mezzo? A seconda del nostro fine, la risposta cambia.

Capiamolo assieme, con molti esempi, ma mi si permetterà da cominciare da un concetto. Anzi, da un mito.

Il fine trasforma il mezzo

La Nave di Teseo, dopo che un pezzo alla volta fu smontata e le furono sostituite parti nuove, conservò la sua identità o possiamo dire che si trattasse di un’altra triakonter (a trenta remi)? Aristotele propose di trattare il paradosso distinguendo le varie cause che fanno esistere gli oggetti.

In questo caso la Nave mitologica sarebbe diversa relativamente alla causa materiale, ma conserverebbe la sua identità nella forma. E a proposito della causa efficiente e di quella finale? Certamente in entrambi i casi l’artefice sarebbe l’uomo, nel ruolo o di creatore ex novo o di restauratore. Anche il fine, come la forma, conserva l’identità.

È fondamentale chiarire anche lo scopo della nostra domanda, suggerisce Luciano Floridi ne “La quarta rivoluzione”. Per quale motivo, insomma, vogliamo sapere se la nave è la stessa nave o è un’altra? Di nuovo, il fine qualifica la risposta.

Il santuario ricostruito nella cerimonia dello shikinen sengu è lo stesso e no contemporaneamente, senza che si violi il principio di non contraddizione. L’apparente paradosso è risolto esplicitando l’intenzione del “curioso”. Se ci interessa sapere se c’è una continuità con la tradizione, se vogliamo essere certi che si tratti ancora di un luogo sacro, allora sarà lo stesso edificio, al di là del restauro periodico; se invece ci preme conoscere la natura materiale del monumento, per monitorare quanto il legno sia resistito al tempo, allora si tratterà di un altro santuario. Ogni volta bisogna analizzare le domande da un punto di vista pragmatico, esplicitando la forma, sia della cosa, sia della domanda. Da una prospettiva generale, assoluta e cioè svincolata dal contesto, dai soggetti, dall’utile, le risposte resterebbero vuote, prive di significato.

Quando si parla di deepfake e di strumenti digitali il discorso vira su posizioni tranchant, eppure non è così semplice giudicare un oggetto. Un prodotto, un meme, una tecnologia non sono oggetti univoci. In essi coincidono e si sovrappongono tanti significati quanti sono i contesti, gli usi, le interpretazioni che potrebbero avere. Non è come porsi di fronte a una buccia di banana da categorizzare nel sacchetto dell’umido. Un deepfake a seconda di cosa sia, di come venga usato e di come possa essere recepito è infiniti deepfake da interpretare. Pertanto, anche il tempo per rispondere a cosa sia un oggetto si dilaterà all’infinito. Ecco perché il compito filosofico, cioè critico, non è affatto semplice e, soprattutto, è tutt’altro che inutile.

Insomma, i deepfakes per creare porno mai girati e quelli per generare memi sono e non sono la stessa tecnologia. Dal punto di vista materiale ed efficiente sì, l’ingegneria alla base è la stessa e il “mandante” è in entrambi i casi l’uomo. Per quanto concerne la forma e il fine, invece, si tratta di output completamente diversi. Bisogna imparare che nulla è o buono o malvagio in senso assoluto e nemmeno si può dire che qualcosa sia di per sé neutrale. In effetti, la neutralità nei conflitti è stata spesso una moneta di scambio ed è, in tutti i casi, una presa di posizione. Allora, ogni volta che ci “schieriamo” nei confronti di un ente, bisogna prima capire che posizione abbia quel prodotto rispetto a noi e a tutto il contesto. La realtà, a questo punto, ci apparirà come una faccenda estremamente complessa da inquadrare.

Deepfake, tutti gli utilizzi positivi: dalla Sanità all’istruzione

WEBINAR
Come aumentare il ROI e ottenere forecast sempre più precisi? AI & Deep Learning per il finance
Finanza/Assicurazioni
Intelligenza Artificiale

Deep fake, cosa succede se la sua tecnologia è alla portata di tutti?

Poiché la tecnologia dei deepfake è sempre più accessibile al volgo, in rete spopolano immagini e video ottenuti con il deep learning o con app come Impressions. Recentemente il MIT ha pubblicato un articolo nel quale si parlava proprio della facilità con cui sono ottenibili video fake. Su Youtube il tutorial che mostrava come crearne uno in poche mosse è diventato virale. Questa facilità di uso pone seri problemi in materia di testimonianza e di abusi. Fornire una prova video diventerà sempre meno cruciale in un mondo dove, con poco, chiunque potrà fornire “falsi d’autore”.

La scrittura già in passato diffuse documenti falsi e carichi di conseguenze come la Donazione di Costantino. A porre rimedio fu la filologia, che, solo in epoca di Umanesimo, seppe discriminarne la non autenticità del linguaggio. Recentemente, anche per i deepfake si sono aperte ricerche su algoritmi in grado di riconoscere i video fake. Per ora, tuttavia, non sono stati raggiunti risultati soddisfacenti. Per la maggior parte dei deepfake, comunque, è facile capire che sono video generati con il deep learning. I movimenti del viso sono spesso poco naturali, per quanto ben riusciti nella loro semplicità di creazione. Basta, però, avere capacità tecnologiche più sviluppate che i risultati diventano impressionanti. In questi casi, capire se il video è autentico o meno è un compito impossibile.

Esistono, inoltre, strumenti totalmente open come Avatarify che generano deepfake immediati, da usare durante video-chiamate o live. Il programma sostituisce la nostra faccia con quella di chiunque, senza “cuciture” visibili tra la nostra fisionomia e quella di destinazione. Compare Elon Musk nelle video chat di Zoom, pronto a spiegare la sua idea di conquista di Marte. Nelle live da una manciata di spettatori ecco che inspiegabilmente spuntano celebrities. Mi domando, allora, cosa potrebbe succedere nei casi di catfishing? Poter adattare sul nostro viso quello di qualunque persona, e in tempo reale, produce l’inconveniente di non essere in grado di controllare gli account con cui stiamo interagendo, per avere conferma della loro identità. Chiunque potrà indossare in streaming un deepfake.

Nella mitologia, era un super-potere di cui solo gli Dei potevano disporne. Si tratta, allora, di un desiderio umano atavico, ma finché è rimasto una costruzione immaginifica, gli esseri umani non erano salvi solamente nel mito. In ogni cultura la capacità di assumere più forme è sempre stata associata a diavoli e individui malvagi. Difatti, chi subiva l’inganno da parte di questi esseri mutevoli andava sempre incontro a esperienze estremamente nefaste. Ricordiamo la tragica avventura di Leda, violata da Zeus quando prese la forma di un cigno. Gli antichi, attraverso il mito, intendevano mettere in guardia gli esseri umani in merito alla pericolosità di questo sogno di mutare aspetto. Ciò dovrebbe farci riflettere oggi, sul potere che le persone hanno con i deepfake. Il fuoco è stato rubato. C’è però da dire che se da un lato attraverso esso abbiamo bruciato streghe e l’Amazzonia, dall’altro abbiamo anche potuto difenderci, cuocere il cibo e progredire. Anche per i deepfake vale lo stesso discorso. Oltre alle molestie e al dolo, con tale tecnologia si aprono possibilità straordinarie, in un continuum che va dall’innocenza dei memi fino all’arte.

Memi con deepfake

L’uso più semplice del deepfake è quello che riguarda i memi. Questi, per definizione, sono l’unità di base della cultura, l’equivalente ideogeno del gene. Insomma, ogni volta che uno di questi bit concettuali si diffonde nella rete è come se propagassimo un pezzetto di DNA, rendendo, così, più uniformi gli individui della specie. È provato che i memi si viralizzano quando contengono una forte carica emotiva, atta a suscitare sentimenti inequivocabili di disgusto, rabbia o divertimento. Nel caso dei deepfake l’obiettivo primario è quello di parodiare soggetti tipicamente seri, facendo sì che le loro immagini assumano espressioni, come dire, “derp”. Avete presente a scuola quando disegnavamo i baffi e i dentoni sulla scultura di Giulio Cesare riportata nel libro di testo? Il principio è più o meno lo stesso.

Chiunque si sarà, infatti, certamente imbattuto in video in cui la gioconda appare intenta ad ammiccare col pubblico o quelli dove Barak Obama canta Bakamitai, una canzone del videogioco Yakuza che ha reso virali questi contenuti, in particolare su TikTok, nota fucina di alienazione. Abbiamo visto qualunque personaggio cantare, in lip-sync, la canzone il cui titolo giustamente significa “come uno sciocco”. In effetti, la finalità di questi video è confinata a un ambito leggero. Non vengono costruiti con l’intenzione di aggiungere valore all’immagine presa a modello e nemmeno si ha il progetto di condurre il pubblico verso la riflessione critica intorno ai rischi che questa tecnologia apre. L’obiettivo è piuttosto quello di generare il cosiddetto “effetto wow”, o, tutt’al più, quello di condividere un dispetto innocuo.

Poco tempo fa mi sono imbattuta in un meme piuttosto interessante. C’erano Hitler e Stalin intenti a duettare sulla canzone “video killed the radio star”. A livello superficiale si trattava di un meme simpatico e ben costruito. L’idiosincrasia tra l’accostamento di due criminali e una musica lisergica rendeva il contenuto molto ben riuscito, ma oltre questo c’è di più. Se si scava più a fondo, se il pubblico applica la giusta cornice di riferimento, storica e ideologica, quello stesso meme diventa il veicolo di una quota informativa maggiore. In effetti, attraverso esso si può leggere il retroscena (in questo caso una dietrologia imbarazzante, “cringe”) della spartizione della Polonia, un duetto amichevole che potrebbe aver sorretto il patto Molotov-Ribbentrop. Basta poco, insomma, per trasformare una scenetta qualunque in un contenuto in grado di far riflettere e dare il là per ripassare il programma di quinta superiore. Non solo, la canzone è un messaggio, nemmeno così tanto criptato, con il quale rammentarci di come i video (in questo caso fake) possano uccidere le star.

Marketing

I deepfake sono stati applicati anche nei musei, per offrire al pubblico un’esperienza nuova. Mi riferisco al Museo Dalì in Florida, che ha impiegato l’Intelligenza Artificiale per ridare vita al grande artista spagnolo. Il museo afferma esplicitamente che il visitatore può, in questo modo, conoscere più a fondo Salvador Dalì, e direttamente dalla persona che più di tutte lo amò: se stesso. Certamente è una proposta accattivante, soprattutto se applicata a personaggi che già in vita seppero anticipare l’innovazione e che furono in grado di leggere la realtà con gli occhi del sogno.

Ultimamente questa tecnologia è stata usata anche nei film. Mi riferisco a The Irishman. Qui c’è un Robert De Niro giovane ottenuto proprio con le tecniche di deep fake! Mi domando se si stia aprendo una nuova frontiera per gli Stunt Men. Le celebrities, anche del passato, potranno essere riesumate in pellicole nuove. Nessuna stella di Hollywood invecchierà e i registi avranno, a costo quasi zero, facce di tutti i tempi, pronte a impersonare ruoli e sceneggiature senza più capricci e dinieghi. Sarà sufficiente disporre di un corpo che somigli all’attore e poi l’intelligenza artificiale farà il resto. La rete neurale sovrascriverà i movimenti della controfigura (perché è di questo che si tratta) adattandovi sopra la faccia nota. Insomma verrà il giorno in cui l’attore sarà immortale, divino e inutile.

Immaginiamo poi che uso potrebbero farne i brand. Nel marketing il cliente è ormai al centro di tutte le strategie pubblicitarie. Come è accaduto per l’educazione, sempre più puericocentrica e incline a rendere l’allievo attivo nelle esperienze di apprendimento, anche nell’economia si sta verificando lo stesso processo (e probabilmente non è un caso). L’acquirente è il creatore attivo della sua esperienza di acquisto. Le persone non desiderano i prodotti, bensì le esperienze che possono vivere con gli oggetti e con la firma. I deepfake potranno offrire. a tal proposito, nuovi livelli di interazione con i prodotti, contribuendo a far vivere quell’esperienza unica che il target brama. Possono aiutare il cliente nella scelta definitiva, adattando perfettamente l’abito al corpo della persona fisica. Non solo, saranno pure in grado di inserire il soggetto creato artificialmente in un contesto da sogno, in compagnia del proprio idolo, motivando oltremodo i consumatori a concludere l’acquisto. E cosa succede se poi questi video vengono condivisi? Pubblicità gratis per le aziende!

Arte e deepfake

Fake news? Deepfake? Sembra che la koiné, la lingua comune, di oggi sia proprio la menzogna. Il pensiero critico è stato sostituito dalle teorie cospiratorie e il Sé da una web reputation opportunamente costruita. L’identità non esiste e, se oggi le abbiamo dato esistenza, materialità, essa non potrà che essere una notizia falsa. Appare come una serie di informazioni confrontabili, controllabili, valutabili, eppure questa reputazione online non è ciò per cui è spacciata: non è l’essenza individuale. Si tratta, piuttosto, di una precisa strategia di marketing, avente minimi collegamenti col vero, o comunque tante omissioni. La nomea online è prodotto, pubblicità e pubblicitario. L’obiettivo in questo commercio è essere desiderabili e quindi consumabili. Ma da chi? I dati che creiamo interagendo con il web sono sfruttati in molteplici modi dalle aziende della rete e dalla politica. Somigliano ad amanti gelosi intenti a interrogarci e prima e dopo le “nostre” scelte. Il fine è che non si trasgredisca, che nessuno provi a disubbidire. A Samarcanda la Morte era già sul posto ad aspettare il protagonista perché aveva raccolto e analizzato i suoi Big Data?

Eppure criticare la tecnologia e la sorveglianza digitale dall’esterno non è abbastanza efficace. Il vaccino è il virus stesso benché inattivato, allo stesso modo perché il discorso intorno al web abbia la giusta potenza dovrà incarnare la forme del suo nemico. L’arte critica, infatti, è come un poliziotto infiltrato che, fingendosi parte del sistema malavitoso, trova le prove per distruggerlo. A tal proposito Bill Posters, nome d’arte di Barnaby Francis, usa il deep learning per accendere la nostra capacità di giudizio intorno al machine learning e alle sue conseguenze. Si tratta di un artista e attivista contemporaneo, con un passato da street artist, impegnato in pratiche di “subvertising”: trasformava, cioè, le pubblicità che tappezzavano gli ambienti urbani con contenuti che ne stravolgessero il significato. Ultimamente sta usando il deep learning per creare video in grado di sovvertire gli spazi digitali.

Perché usare la tecnologia per svelarne le ombre pare avere più forza? È come se il messaggio contenesse più verità, sembrando una deposizione liberamente offerta dal colpevole. Come il primo Wittgenstein distrusse la filosofia con la filosofia, anche in questo caso è il web a boicottare il web. I dati sorvegliano i dati. La connessione con il movimento dei Situaizonisti, fondati a Imperia negli anni Sessanta del Novecento, è palesata dallo stesso Barnaby. Anche loro, infatti, “agivano dall’interno”. Secondo gli esponenti di tale corrente artistica e concettuale è lo spazio esterno, culturale, che condiziona gli individui, tuttavia, secondo loro è possibile sfruttare questo potere manipolatorio a vantaggio della consapevolezza, impiegando e modificando quegli oggetti perché rivelino le loro volontà nascoste, le loro trame. Bill Posters assieme al collega Daniel Howe seguono più o meno lo stesso procedimento: propongono deepfake che auto-denunciano i deep-fake.

L’anno scorso in occasione dell’esposizione Alternate Realities, i due artisti hanno presentato il loro progetto Spectre. Nella mostra sono stati usati algoritmi e dati personali degli spettatori, per guidarli in una visita personalizzata (e non solo). La tecnologia era la vera protagonista, mentre il pubblico aveva lo stesso ruolo che cotidie assume nell’infosfera, con la differenza che qui tutte le trame erano volutamente messe in evidenza, L’obiettivo era far acquisire consapevolezza delle forze che normalmente ci muovono. L’agente, l’artigiano, la guida, l’opera d’arte, il concetto erano sempre la tecnologia digitale. Nell’installazione compaiono i deep fake di personaggi come Marc Zuckerberg, Donald Trump, Kim Kardashian e altri. Sono tutti video falsi, quasi indistinguibili dagli originali, se non fosse che i soggetti, oltre a nominare il progetto Spectre, parlano di questioni troppo calde. Sono troppo veri per essere veri. Non è un caso che il prossimo progetto di Bill e Howe si chiamerà Veridical Fakes!

Per trattare sorveglianza, Big Data, neuromarketing, profilazione OCEAN, design oscuro non poteva essere scelto testimonial migliore di Zuckerberg Sentire il proprietario di Facebook (noto per lo scandalo di Cambridge Analytica) che, in modo trasparente, discute del pericolo che gli utenti corrono con i loro dati ha un valore dirompente. Anche Kim Kardashian che parla di hater senza ipocrisie, discutendo dell’introito che il flame porta nelle sue tasche, e Trump che ammette di diffondere volontariamente fake news e odio per accrescere il suo potere sono strepitosi.

Di fronte a questi deep fake viene da pensare al potere che abbiamo volontariamente concesso a chiunque, distribuendo dati personali, fotografie, video, voci. Tutto potrebbe essere manipolato e usato contro di noi. Sarà sufficiente un video per perdere la nostra credibilità, come nel Cinquecento era sufficiente un “sentito dire” per essere accusati di stregoneria.

L’arte di Barnaby, tuttavia, non insegna a dismettere la tecnologia, piuttosto dimostra come attraverso essa sia possibile fare arte, e arte critica. La filosofia, quando è sulla scala di Wittgenstein, pronta per essere accantonata, poiché il suo pareva un percorso unilaterale e senza sbocchi, in realtà si trovava lassù di vedetta. Solo dall’alto è possibile avere uno sguardo universale, sistemico, critico, in grado di cogliere le proprietà emergenti. Analogamente, i deep fake nell’arte critica non smantellano se stessi, ma dilatano i propri usi.

Conclusioni

In conclusione, è chiaro come nulla sia intrinsecamente buono, cattivo, neutro e nemmeno significativo. Anche le buone intenzioni non sono sufficienti per fare della tecnologia uno strumento prosociale, educativo o ludico. Un dado nel gioco dell’oca e un dado nell’azzardo non sono lo stesso strumento, le conseguenze per gli utilizzatori sono ben differenti. E se quel dado venisse usato da popoli che non conoscono il sistema decimale? Sarebbe solo un oggetto con sovrimpressi sei glifi incomprensibili. La potenza dell’arte dipende sempre anche da chi la accoglie. L’ermeneutica è un gioco di squadra tra l’autore e i destinatari, a patto che questi ultimi condividano molto del terreno comune con l’artista, altrimenti non potrebbero cogliere i significati che l’opera veicola. Quando ciò accade, quando il pubblico non comprende, per distrazione o incapacità, ha potere di cestinare l’opera, esattamente come il creatore. Per questo l’arte è un mestiere estremamente rischioso.

I riceventi devono anche avere una certa dose di differenza con l’artista, altrimenti l’opera non li sconvolgerebbe. Invece, perché sia arte, nel pubblico deve sempre generarsi un’esperienza di insight, simile a quello descritto dalla Gestalt a proposito del problem solving. Ogni volta che un’opera viene ricevuta, deve verificarsi una ristrutturazione di campo tale che il mondo non sarà più come prima. È l’esistenza di uno scarto, di un significato non anticipabile che fa di un prodotto un’opera d’arte. I Situazionisti, per esempio, creavano lo scarto semantico accostando soggetti e temi dissonanti, come Zuckerberg che parla di protezione dei dati. Il pragmatismo nella linguistica ci insegna che un messaggio non ha un senso univo, dato solo da sintassi e semantica. Una stessa stringa di parole, inserita in contesti e storie diversi, o attribuita a individui distinti, avrà sempre un significato differente. Insomma, se Bill Posters avesse denunciato la sorveglianza su Facebook, mettendoci la sua stessa faccia, non avrebbe avuto la stessa forza del deep-fake con Zuckerberg. È interessante che questo fatto ricalchi lo stesso bias sfruttato dalle pubblicità. Negli spot vengono inseriti testimonial coerenti con il prodotto, perché sono più convincenti, come nell’arte critica viene usato l’antagonista perché il suo discorso attiri di più l’attenzione.

I deep-fake, insomma, non sono riducibili a una sola categoria. Ogni volta è possibile intravedere in essi un valore e un uso nuovi. Dipende da noi. Abbiamo la responsabilità di giudicare ed essere utilizzatori critici ed è nostra anche la responsabilità di non esserlo. L’interpretazione è un videogame interattivo che trasforma l’universo nel labirinto di cui parlava Borges.

WHITEPAPER
Data warehouse nel cloud: 6 considerazioni per un passaggio efficace
Big Data
Cloud

@RIPRODUZIONE RISERVATA

Articolo 1 di 4