lotta alla disinformazione

Deepfake, perché bisogna prepararsi al peggio: le mosse di Facebook

I deepfake non sono al momento un grosso problema ma non bisogna mai essere colti alla sprovvista, e Facebook, come altri social media, vuole prepararsi a dovere per tutte le situazioni dannose che potrebbero accadere. Non è semplice. Ecco le tecnologie in campo

02 Lug 2020
Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza


Data la crescente diffusione dell’uso dei deepfake nella violenza di genere e nella disinformazione è meglio non farsi cogliere impreparati. La pensa così infatti Facebook, che sta cominciando a correre ai ripari per non lasciare spazio ai filmati manipolati sulla sua piattaforma. Il compito non è dei più semplici. Vediamo perché.

Deepfake e social network

Le società di social network e media temono che i deepfake possano presto inondare i loro “spazi”. Soprattutto in tempi di elezioni presidenziali americane, possono essere formidabili strumenti di manipolazione politica (come già successo in passato, del resto, ai danni di contestatori di Trump).

Tuttavia, individuarli in maniera “automatica” tramite l’Intelligenza Artificiale non è agevole. Per affrontare il problema, Facebook vuole usare l’Intelligenza Artificiale per aiutare a combattere i falsi generati dalla stessa Intelligenza Artificiale. Per addestrare l’Intelligenza Artificiale a individuare i video “manipolati”, Facebook sta rilasciando il più grande dataset mai realizzato relativo ai deepfake: oltre 100.000 clip prodotte utilizzando 3.426 attori e una serie di tecniche di face-swap (tecnica che permette lo “scambio dei volti”) esistenti.

A dirla tutta, per il CTO di Facebook, Mike Schroepfer, i deepfake non sono attualmente un grosso problema per l’azienda di Menlo Park. Ma pur non essendo un grosso problema nell’immediato Schroepfer ha affermato che non bisogna mai essere colti alla sprovvista, preparandosi a dovere per tutte le situazioni dannose che possono accadere. Si potrebbe dire, in pratica, che Facebook si stia preparando alla tempesta ora che il cielo è sereno.

Facebook ha recentemente annunciato il vincitore della sua Deepfake Detection Challenge”, in cui 2.114 partecipanti hanno presentato circa 35.000 modelli formati sul suo dataset. Il modello migliore, sviluppato da Selim Seferbekov, un ingegnere di esperto di Deep Learning presso l’azienda Mapbox, è stato in grado di rilevare se un video fosse un deepfake con una precisione del 65%. Il tutto partendo da un dataset di 10.000 clip inedite, tra cui un mix di nuovi video generati da Facebook con altri esistenti presi da Internet. Per rendere le cose più difficili, i training data e il dataset sottoposto a test includevano la possibilità che il sistema di rilevamento potesse essere confuso, includendo testi e immagini che andavano a “disturbare” i soggetti ritratti nel video, oppure includendo video con risoluzioni altalenanti, oppure ancora con velocità differenti e dal repentino cambiamento. Il tutto per identificare al meglio i deepfake.

Le reti neurali convoluzionali per riconoscere un deepfake

Piuttosto che imparare tecniche forensi, come la ricerca di impronte digitali nei pixel di un video lasciato dal processo di generazione del deepfake, le tecniche “vincitrici” del contest sembrano aver imparato a riconoscere quando qualcosa sembrava “spento”, esattamente al “livello” di un essere umano. Per fare questo, tutti i vincitori hanno utilizzato un nuovo tipo di Rete Neurale Convoluzionale (tipo di rete neurale ispirata alla corteccia visiva) sviluppata dai ricercatori di Google l’anno scorso, chiamata EfficientNets. Le Reti Neurali Convoluzionali sono comunemente usate per analizzare le immagini e sono ottime per riconoscere i volti ovvero gli oggetti. Tuttavia, il miglioramento della loro precisione oltre un certo punto può richiedere una messa a punto ad hoc. Gli EfficientNets forniscono un modo più strutturato per la “messa a punto”, rendendo più facile lo sviluppo di modelli più accurati. Ma esattamente ciò che li rende superiori ad altre reti neurali in questo compito non è chiaro.

WEBINAR
Blockchain, Iot, AI per una Supply Chain intelligente e più efficiente
Blockchain
Intelligenza Artificiale

Facebook ha dichiarato di prevedere di non utilizzare nessuno dei modelli vincenti della sua Deepfake Detection Challenge. Per prima cosa, il 65% di accuratezza non è ancora abbastanza accettabile per essere utilizzabile a pieno. Alcuni modelli hanno ottenuto più dell’80% di accuratezza con i training data, percentuale che è tuttavia calata quando si è posto il confronto con clip non viste precedentemente.

Deepfake, perché prepararsi al peggio

Per Seferbekov di Mapbox la sfida dei nuovi video, che possono includere diverse facce scambiate utilizzando tecniche diverse, è la parte più difficile in assoluto. Un modo per migliorare il rilevamento dei deepfake sarebbe quindi quello di concentrarsi sulle transizioni tra i vari fotogrammi video, tracciandole nel tempo. Per Seferbekov anche i deepfake di alta qualità hanno un certo sfarfallio tra un fotogramma e l’altro. Gli esseri umani sono bravi a individuare queste incongruenze, soprattutto nelle riprese dei volti. Ma la “cattura automatica” di questi difetti rivelatori richiederà training data più ampi e variegati, nonché molta più potenza di calcolo. Seferbekov ha provato a tracciare queste transizioni di fotogramma ma non ci è riuscito, rappresentando la CPU come un vero e proprio “collo di bottiglia”.

Facebook suggerisce che il rilevamento dei deepfake può essere migliorato anche utilizzando tecniche che vanno oltre l’analisi di un’immagine o di un video, come la valutazione del suo contesto o della sua provenienza. Sam Gregory, che dirige Witness, un progetto che supporta gli attivisti per i diritti umani nell’uso delle tecnologie video, accoglie con favore l’investimento dei Big dei Social nella lotta senza quartiere ai deepfake. Witness è membro di “Partnership on AI”, che ha consigliato Facebook sul suo progetto “di lotta”. Gregory è d’accordo con il CTO di Facebook Schroepfer, ribadendo che vale la pena prepararsi al peggio, ossia a quando i deepfake saranno un problema serio per i social network.

Ad esempio, il rapporto dei laboratori DeepTrace Labs ha rilevato che il 96% dei Deepfake riguardano la “pornografia non consensuale”, in cui i volti delle altre persone sono incollati su quelli degli artisti in clip porno mediante la tecnica del face-swap. Un esempio potrebbe essere quello del partner ritratto in un video fake a compiere atti sessuali con altri soggetti, il tutto con diverse finalità di natura (quasi sempre) criminale.

E se si pensa che vi sono milioni di persone al mondo che sono in grado di creare e condividere video del genere, la fiducia in ciò che vediamo su Internet e sui social è più importante che mai. Le fake news si diffondono ormai a macchia d’olio su Facebook, e la sola possibilità di avere a che fare con notizie false semina il dubbio nei lettori, rendendoli propensi a mettere in discussione sia le notizie e i filmati veri che quelli falsi.

Ciò che è palese è che il rilevamento automatico allo studio di Facebook potrebbe presto essere l’unica opzione per combattere il fenomeno dei deepfake e delle fake news in genere.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3