Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

tecnologia e società

Deepfakes, così evolve la minaccia all’informazione digitale (e alla democrazia)

Gli strumenti per creare deepfakes saranno presto utilizzabili anche senza competenze tecniche: una sfida cruciale per la sopravvivenza stessa delle democrazie. Una panoramica sugli algoritmi GANs e sulle soluzioni di detection efficaci; sui limiti e i rischi di certificati digitali e blockchain

13 Mar 2019

Francesco Cavalli

Founder Deeptrace

Giorgio Patrini

Founder Deeptrace


Deepfakes: sempre più evoluti, sempre più pericolosi. La loro creazione comporta rischi per la tenuta stessa dell’informazione sul digitale – e quindi un pericolo per la democrazia. I media e la politica dovrebbero riflettervi da subito, perché la soluzione al problema non potrà essere solo tecnologica.

Definizione del confine tra deepfake e frodi digitali

Non è un caso quindi che a partire dal 2018 il termine deepfake è entrato ufficialmente nel dibattito politico e giuridico statunitense. La circolazione virale di alcuni video ha stimolato la curiosità e l’attenzione dei media. Esempi ne sono il video dove Jordan Pelee replica alla perfezione il volto, voce ed espressioni facciali di Barack Obama, inscenando un discorso alla nazione che mai è stato pronunciato dall’ex presidente. Passiamo poi allo scandalo Scarlet Johanson, la quale ha pubblicamente denunciato la proliferazione di deepfakes che la vedono protagonista in scene hard. Fino al più recente video di Jennifer Lawrence sul palco dei Golden Globe, che risponde a domande dei giornalisti con le sembianze di Steve Buscemi.

Il senatore americano Ben Sasse ha firmato pochi giorni fa il “Malicious Deep Fake Prohibition Act”. Un primo passo verso la definizione del confine tra deepfakes e frodi digitali (violazioni di copyrights, privacy, cyberbullismo etc.), delle relative implicazioni giudiziarie e dell’attribuzione di responsabilità in termini di creazione e distribuzione di contenuti fraudolenti.

The state of deepfakes

Analizzando l’andamento dei deepfake, il team Deeptrace ha pubblicato “The state of deepfakes”: il report fornisce una panoramica dell’evoluzione dei deepfakes, partendo dai dati oggi disponibili e cercando di tracciare alcuni possibili scenari. Dai dati forniti da Google emerge che le ricerche della parola “deepfakes” hanno raggiunto il picco di 10 milioni nel solo mese di luglio 2018 e il numero di fake videos a sfondo pornografico ha sfiorato gli 8000 uploads alla fine dello scorso anno, con tre nuovi siti per adulti dedicati esclusivamente ai deepfakes. Numeri importanti, considerando che stiamo parlando di una tecnologia facilmente utilizzabile e open source solo da fine 2017, a partire da un gruppo di sviluppatori su Reddit.

Cosa sono i deepfakes, tecnicamente 

La parola Deepfake identifica qualsiasi contenuto audio-visual creato con l’aiuto del deep learning , una tipologia di apprendimento automatico in cui i computer addestrano grandi reti neurali, con un meccanismo simile a quello del cervello umano.

La sigla GAN  (generative adversarial networks) identifica una classe di algoritmi in cui rientrano sistemi composti da due reti neurali, ognuna delle quali addestrata ad apprendere attraverso il meccanismo della sfida: il generatore ha l’obiettivo di costruire immagini realistiche, mentre il discriminatore impara a distinguere immagini vere (ad esempio foto di persone) dalle immagini prodotte dal generatore. Addestrando le due reti in maniera concorrente, il generatore viene istruito a costruire immagini che via via assomiglieranno a quelle vere e su cui stiamo addestrando il discriminatore.

Fonte: Nvidia – “A Style-Based Generator Architecture for Generative Adversarial Networks

Mahmood duetta con Ultimo, ma sarà vero?

Tecniche simili e basate su GAN possono essere utilizzate per sostituire in maniera realistica la faccia di una persona con un’altra. Immaginiamo di voler creare artificialmente un video del vincitore di Sanremo Mahmood che invece di duettare con Guè Pequeno, canta con il secondo classificato, Ultimo. Questo è possibile tramite un algoritmo “face swap” (cambio faccia). Avremo innanzitutto bisogno di un dataset, ovvero un’ importante mole di filmati di Ultimo oltre al video del duetto dei due rapper milanesi. Le reti neurali vengono addestrate a mappare le espressioni facciali di Ultimo in quelle di Gue Pequeno e possono essere utilizzate per ricostruire il volto del giovane cantante romano in quello dell’ ex membro dei Club Dogo.

Perchè i deepfakes possono diventare pericolosi?

Oggi è possibile creare artificialmente immagini, video e audio perfettamente verosimili. Ciò apre la porta a diversi fattori di rischio:

  • Accessibilità: con una GPU e una discreta esperienza di coding chiunque può creare un deepfake.
  • Viviamo in un epoca in cui i contenuti audio-visual hanno un impatto fortissimo sul comportamento di cittadini e consumatori.
  • Inferiorità umana: difficoltà d’ individuazione da parte dell’occhio umano

Come individuare un deepfake

Per quanto preciso e realistico sarà il risultato per un osservatore, la tecnologia attuale è lontana dalla perfezione. Ogni alterazione lascia delle tracce che possono rivelare se un contenuto è stato creato o alterato tramite deep learning, ad esempio: incoerenze nell’ambientazione sullo sfondo, sbavature nei contorni dei visi e dei denti, battiti di ciglia poco realistici, oppure voci e suoni con volumi ed echo differenti.

In ambito deep learning, se vogliamo difenderci dai deepfakes, un’idea naturale è quella di addestrare reti neurali per fare detection di queste incongruenze audiovisive. Una ricerca che vede la collaborazione della Technical University of Munich, la Federico II di Napoli e l’University of Erlangen-Nuremberg, dimostra che questo approccio è promettente. È possibile accumulare immagini o video veri e le loro controparti falsificate (per esempio con un faceswap) e addestrare una rete neurale in grado di classificare una nuova immagine o video come vera oppure contraffatta.

L’esistenza di un metodo in grado di mettere fine in maniera definitiva al problema dei deepfake è improbabile. Ci troveremo presto in uno scenario da “corsa agli armamenti“ in stile Guerra Fredda, dove gli strumenti per fare detection verranno surclassati da algoritmi per video sintesi sempre più avanzati e viceversa, non appena la capacita’ di detection sara’ migliorata. Se ci poniamo in un ottica di cybersecurity, non dovrebbe sorprendere che una difesa venga continuamente aggiornata per far fronte a nuove minacce. Esattamente come un qualsiasi antivirus.

Certificati digitali e blockchain: soluzione parziale e nuovi pericoli

Soluzioni tecnologiche alternative spesso citate da esperti sono quelle basata su firme digitali o la blockchain. L’idea è che se possiamo firmare in maniera univoca un’immagine o video nel momento in cui lo acquisiamo, potremo sempre controllare in futuro se quello che stiamo vedendo è autentico (stessa firma di partenza) oppure se è stato alterato in qualche modo (la firma attuale non coincide con quella di partenza). Questo approccio presenta però due problemi sostanziali: forti limiti tecnologici e apre la strada a scenari di controllo sociale inquietanti. Immaginiamo di avere un’ app installata sui nostri devices (smartphone, tablet, pc etc) con cui scattare foto o acquisire filmati e audio. Un meccanismo di firma rilascerà un certificato di garanzia a conferma che quel contenuto è stato effettivamente ottenuto tramite la videocamera del nostro device e non creato artificialmente. Il limite di questa soluzione è subito evidente: cosa succederebbe se un video ci viene presentato senza alcuna firma digitale? Non è realistico pensare che tutti i devices del mondo utilizzeranno questa app per autenticare i contenuti acquisiti.

Non solo, immaginiamo che un malintenzionato entri in possesso di un video deepfake. Questo contenuto può essere riprodotto su un monitor ad alta risoluzione e filmato tramite smartphone. A questo punto, il video acquisito è autentico (è stato acquisito tramite il device) e può essere firmato digitalmente come tale!

Il secondo problema è di natura democratica. I servizi di sicurezza di paesi governati da regimi autoritari, potrebbero senza alcuna difficoltà setacciare i social media o siti web e risalire all’identità di chiunque carichi online contenuti audio visual in chiave anti-governativa. Infatti, meccanismi come la blockchain registrerebbero tutte le modifiche al video e permetterebbero di risalire al primo device che l’ha acquisito. Kalev Leetaru su Forbes, scrive: “sarebbe il sogno di ogni regime autoritario, avere il completo controllo sulle fonti di filmati che documentano la corruzione o le violenze della polizia”.

La soluzione non sarà solo tecnologica

Politica, cittadini e istituzioni hanno il dovere di ragionare su questi temi come una sfida cruciale per la sopravvivenza delle democrazie. Non è un segreto l’impatto devastante che le fake news stanno avendo in tutto l’occidente: articoli, immagini, meme e video palesemente identificabili come fasulli all’occhio umano, confezionati e dati in pasto ai socials per veicolare messaggi politici ben precisi. Cosa accadrà quando chiunque potrà creare deepfakes con semplicità? Fact checkers e professionisti saranno in grado di fronteggiare la minaccia? Come cambieranno I criteri per stabilire la bontà o meno di un contenuto?

Se l’uomo non sarà più’ in grado di distinguere i video veri da quelli falsi, avremo bisogno di soluzioni tecnologiche che ci difendano dove i sensi non potranno aiutare. In ogni caso, è improbabile che solo la tecnologia possa risolvere questo problema alla radice. Dobbiamo essere prima di tutto consapevoli che i deepfakes sono e saranno una minaccia reale al modo in cui utilizziamo i mezzi di comunicazione. E’ pertanto necessario e auspicabile cominciare a riflettere intorno potenziali modalità di rieducazione a pensare che immagini, video e audio non sono rappresentazioni fattuali della realtà.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4