l'analisi

Deepfake anche in Italia: mostro di una società senza più certezze

I deepfake, ora anche da noi, sono figli di due processi. Non solo di AI e big data. Ma anche di un ecosistema media in cui non è più possibile distinguere ciò che è vero da ciò che è falso e in generale di una società ostaggio di simulacri e finzioni, come aveva previsto Baudrillard. Ecco le conseguenze

26 Set 2019
Davide Bennato

docente di Sociologia dei media digitali all’Università di Catania

Il finto Renzi creato da Striscia la Notizia

Il deepfake nei giorni scorsi ha fatto irruzione nelle case degli italiani direttamente dalla Tv, sollevando non poche polemiche e un acceso dibattito. Ma, al di là del caso specifico – un finto fuori onda di Matteo Renzi trasmesso da Striscia la Notizia – non tutti conoscono l’origine, i vasti e inquietanti contorni e le rischiose conseguenze di un fenomeno in rapida crescita: sono raddoppiati i deepfake circolanti in un anno, secondo un rapporto che Deeptrace pubblicherà nei prossimi giorni.

Contro il fenomeno l’esercizio del dubbio e della verifica sembra essere al momento l’unico antidoto. E non solo contro i deepfake, verrebbe da dire: dato che questi sembrano l’ultima manifestazione di ecosistema mediatico e in generale di una società dove vero e falso si confondono.

Cosa sono i deepfake

Lo sviluppo di un antidoto passa dalla comprensione dei fenomeni. Partiamo quindi da Viktor Taransky, un regista che dopo una brillante carriera si ritrova ad affrontare la crisi di mezza età senza idee e con alle spalle una serie di pellicole poco fortunate, fino ad una profonda crisi artistica. Le cose sembrano peggiorare quando Hank Aleno, un cinefilo appassionato di computer, gli dona un software con il quale può costruire un attore sintetico completamente realistico. Sulle prime Taransky non dà molto peso al dono, finché stufo dei capricci degli attori con cui si trova a lavorare decide di giocherellare con il software. Questa tecnologia si presenta come un enorme database dei volti e delle espressioni di tutti i più importanti artisti di Hollywood con il quale inizia a dare vita ad una attrice perfetta nei modi e nella recitazione: Simone (crasi di simulation one).

Simone grazie al suo velo di mistero quasi come una diva della golden age hollywoodiana, alla manipolazione dei paparazzi da parte di Taransky, alla partecipazione ai talk show (rigorosamente in collegamento) e all’uso di ologrammi, viene considerata da tutti assolutamente reale, e nel momento in cui Taransky decide di sbarazzarsene, nessuno crederà alla non esistenza di Simone mettendo nei guai il novello Pigmalione.

È questa in breve la trama di S1m0ne (Andrew Niccol, USA, 2002) in cui il personaggio di Viktor Taransky – interpretato da Al Pacino – si trova a costruire e a restare ingabbiato in quella che potremmo considerare la prima rappresentazione cinematografica di un deepfake.

Ma cosa sono i deepfake? Il termine è stato inventato dall’utente di Reddit u/deepfake il quale ha creato un subreddit dallo stesso nome per discutere e sviluppare tecnologie di deep learning dedicate alla creazione di video in cui i soggetti vengono costruiti a partire da una collezione di fotografie. In pratica i deepfake sono video in cui i volti e i movimenti delle persone sono interamente simulati al computer creando video profondamente realistici. Finora i deepfake che sono circolati in rete hanno riguardato essenzialmente celebrità americane come l’inserimento di Nicholas Cage in film come Tutti insieme appassionatamente, Matrix, Fight Club oppure l’impressionante video in cui Jim Carrey interpreta Shining al posto di Jack Nicholson.

Molto realistici anche il video di Obama creato da Buzzfeed in collaborazione con Monkeypaw Studios per illustrare la potenza di questa tecnologia oppure il deepfake di Mark Zuckerberg creato dal collettivo artistico Brandalism all’interno del progetto Spectre in cui il fondatore di Facebook si lascia andare ad una serie di affermazioni sulla capacità della piattaforma di rubare i dati dei propri utenti.

WEBINAR
Intelligenza Artificiale, Data Analysis e Image Recognition: i vantaggi concreti per l’azienda
Big Data
Intelligenza Artificiale

Ma dal 23 settembre 2019 le cose sono cambiate per l’Italia quando Striscia la notizia ha diffuso un presunto fuori onda in cui Matteo Renzi si lascia andare ad una serie di affermazioni ironiche e poco rispettose verso alcuni dei suoi colleghi politici. Il video – ovviamente – era un deepfake. La vicenda ha sollevato un vespaio non solo a livello politico ma ha innescato anche un feroce dibattito su Twitter tanto che l’hashtag #deepfake è diventato trending topic nei giorni successivi.

Le conseguenze dei deepfake

Le conseguenze dei deepfake sono evidenti. Da un lato – quello che potremmo chiamare un uso legittimo – la possibilità di creare narrazioni video che vedono coinvolti attori di Hollywood in film in cui non siamo abituati a vederli (come nel caso di Jim Carrey). Oppure la possibilità di creare video artistici con intenti satirici che servono per svelare alcune dinamiche del mondo contemporaneo (come nel caso del falso video di Zuckerberg). Ma quello che spaventa è senza dubbio l’uso illegittimo dei deepfake, come la possibilità di creare video completamente falsi in cui politici o personaggi pubblici fanno delle affermazioni molto pericolose o controverse: in questo caso i video sarebbero uno strumento potentissimo nelle mani della disinformazione globale e nella costruzione delle fake news.

I numeri sui deepfake: il rapporto Deeptrace

Secondo il report The State of Deepfakes del progetto Deeptrace – in via di pubblicazione e che possiamo anticipare qui – un progetto per il monitoraggio dei deepfake attivo dal 2018, i video falsi costruiti con tecnologie di intelligenza artificiale sono poco meno di 15.000, un numero che è quasi raddoppiato dall’ultima rilevazione (dicembre 2018). Quello che rende tutto ciò inquietante è che ben il 96% di questi video sono porno (deep porn) mentre solo il rimanente 4% sono di altro genere. La cosa non deve sorprendere poiché il subreddit Deepfake era nato proprio per sviluppare un sistema di intelligenza artificiale che sovrapponesse i volti di attrici famose sulle scene prese da film porno (la tecnica usata è il faceswapping). Secondo il report di Deeptrace, il deep porn sta creando un vero e proprio segmento di mercato nel mondo della pornografia online. Infatti, stanno nascendo siti internet specializzati nel porno fatto con tecnologie deepfake e anche i portali più famosi di pornografia online stanno offrendo ai propri utenti questa nuova categoria di video.

L’antesignano di questo genere è un video di Scarlett Johansson che ha fatto molto discutere su come le dive possano difendersi da questi video, ma adesso circolano nei siti specializzati porno di quasi tutte le attrici più importanti (e desiderate) di Hollywood. Il problema però non è solo dei personaggi famosi: uno dei temi denunciati dall’analisi di Deeptrace è che il deep porn sta diventando un ecosistema con una serie di app che possono essere usate senza alcuna competenza tecnica e quindi alla portata di tutti. Molti fanno notare come questa situazione apra nuovi orizzonti per il revenge porn, ovvero video pornografici amatoriali fatti per ricattare o umiliare le donne che prima venivano girati a loro insaputa, adesso invece possono essere creati artificialmente. Emblematico in questo senso il caso di Deepnude, la web app lanciata lo scorso 23 giugno in grado di mostrare nude le donne fotografate con i vestiti, che grazie all’articolo della giornalista di Motherboard Samantha Cole è stata prima tolta da internet per poi essere ridistribuita attraverso fork di Github e siti torrent.

Deepfake e teorema di Thomas: le conseguenze reali dei video falsi

I deepfake sono la testimonianza di due processi che si stanno intrecciando: da un lato l’immenso sviluppo tecnologico basato su intelligenza artificiale e big data sta creando delle applicazioni il cui impatto sociale è assolutamente fuori controllo. Dall’altro lato stanno creando un ecosistema dei media in cui non è più possibile distinguere ciò che è vero da ciò che è falso, dando vita ad una società fatta da simulacri e simulazioni così come aveva intravisto alla fine degli anni ’70 il filosofo francese Jean Baudrillard. In questo gioco di specchi in cui tutto ciò che è rappresentazione è artificiale e tutto ciò che è artificiale è rappresentazione, la realtà è destinata a dissolversi in una serie di tecnologie destinate a confermare i propri pregiudizi o la propria ideologia. Secondo una classica legge sociologica conosciuta con il nome di teorema di Thomas, se gli uomini considerano le situazioni come reali, esse saranno reali anche nelle conseguenze.

Se io considero reale Matteo Renzi che distribuisce giudizi poco lusinghieri sui propri colleghi parlamentari, questo avrà delle conseguenze negative sul clima politico e avrà importanti conseguenze elettorali. Se io considero reale un video che ritrae la mia vicina di casa protagonista di una scena hot, non importa che sia un falso, sarà sempre fonte di umiliazione e di degradazione verso la donna in questione.

L’esercizio del dubbio e della verifica contro i deep fake

Le tecnologie della visione stanno creando un ambiente in cui lo sguardo non è più garanzia del nostro rapporto con il mondo circostante bensì è un momento del nostro vissuto che si trova sullo stesso piano del sogno o dell’immaginazione. L’unico antidoto a questa situazione non può essere solo tecnologico perché l’onere della prova non è più appannaggio dei nostri sensi: il meccanismo di resistenza a questa condizione è l’esercizio del dubbio e della verifica, gli stessi strumenti che ci difendono dalle fake news, che sembrano quasi strumenti preistorici rispetto ai deepfake. La questione con cui dobbiamo confrontarci è profondamente antropologica: siamo pronti a vivere in una condizione in cui non è più possibile dare per scontato il mondo circostante? Siamo pronti a dubitare di noi stessi quando la realtà intorno a noi è troppo bella per (non) essere vera? Siamo pronti ad essere paranoici in un mondo che complotta contro di noi?

@RIPRODUZIONE RISERVATA

Articolo 1 di 3