Deepfake, la verità sta negli occhi: così l'AI ci aiuta a smascherare i falsi video | Agenda Digitale

la ricerca

Deepfake, la verità sta negli occhi: così l’AI ci aiuta a smascherare i falsi video

Le tecnologie per alterare o creare da zero immagini, video e audio in modi difficili da rilevare sono in costante e rapida evoluzione. Ma è la stessa tecnologia che accorre in nostro aiuto per renderli più facilmente smascherabili. Se all’occhio umano le differenze sono ormai quasi impercettibili, non è lo stesso per l’AI

04 Mag 2021
Francesca Michetti

PHD in Business and Behavioral Science - 'G.D'Annunzio' University; Master Degree in Law - LUISS Guido Carli University

Photo by Vince Fleming on Unsplash

Smascherare i deepfake con l’intelligenza artificiale oggi, si può. Il segreto è negli occhi. Gli informatici dell’Università di Buffalo hanno sviluppato uno strumento che identifica automaticamente i deepfake analizzando i riflessi di luce negli occhi del soggetto. Con risultati strabilianti: smascherato il 94% delle falsificazioni.

Deepfake, conoscerlo per non cadere nella trappola: rischi e potenzialità

L’analisi del bulbo. Come funziona?

Le tecnologie per alterare – o per creare da zero – immagini, video e/o audio in modi altamente realistici e difficili da rilevare sono in costante e rapida evoluzione[1]. Ma è la stessa tecnologia che accorre in nostro aiuto per renderli più facilmente smascherabili. Se all’occhio umano le differenze sono ormai quasi impercettibili, lo stesso non può dirsi per l’AI.

QUIZ
Bradipo, Orso o Ghepardo: quanto è flessibile e agile la tua azienda? Scoprilo nel Quiz
Datacenter
Digital Transformation

In generale, gli strumenti di rilevamento dei deepfake si basano sulla presenza di fattori innaturali quali movimenti facciali irregolari o un’eccessiva levigatura della pelle.

Hu e colleghi (2020)[2] propongono un nuovo metodo di rilevamento fisico/fisiologico dei volti sintetizzati da una rete GAN (Generative Adversarial Network) che analizza il riflesso della luce nelle pupille del soggetto ritratto.

Il motivo per cui l’algoritmo riesce con particolare efficacia a individuare le immagini fake è semplice: l’intelligenza artificiale, infatti, è – almeno fino a ora – incapace di creare riflessi oculari accurati e realistici.

Seppur impercettibili a prima vista, ci sono delle differenze nella forma, nell’estensione e nel colore del riflesso tra occhio destro e sinistro di un volto fake. Come spiega Siwei Lyu, professore presso la SUNY Empire Innovation e principale autore dello studio, «La cornea è quasi come una semisfera perfetta ed è molto riflettente. Pertanto qualsiasi emissione di luce che giunga all’occhio avrà una sua immagine sulla cornea».[3]

Deepfake, dagli abusi all’arte critica: le conseguenze di una rivoluzione

In una foto e/o video reale, i riflessi sugli occhi generalmente hanno la stessa forma e colore. Tuttavia, la maggior parte delle immagini generate da una rete GAN non riesce a sintetizzare accuratamente questa somiglianza – probabilmente a causa delle molte immagini combinate per generare il volto falso –; per cui genera riflessi incoerenti e disomogenei su ciascuna cornea[4].

Lo strumento di Lyu sfrutta questa lacuna: mappando il volto e confrontando in modo incredibilmente dettagliato le potenziali differenze di forma, l’intensità della luce e altre caratteristiche della luce riflessa, è possibile distinguere, con alta precisione, se la foto del volto è reale o è un deepfake[5].

Per condurre gli esperimenti, il team di ricerca ha combinato immagini reali ottenute da Flickr Faces-HQ e immagini false ottenute da thispersondoesnotexist.com, un repository di volti falsi generati dall’intelligenza artificiale. Tutte le immagini sono di tipo ritratto (persone reali e persone false che guardavano direttamente nella fotocamera con una buona illuminazione) e 1.024 per 1.024 pixel.

Il sistema, poi, genera un punteggio che serve come metrica di somiglianza: più è alto il punteggio, più è probabile che la foto sia reale; viceversa, più basso è il numero, maggiore è la probabilità che l’immagine sia falsa. I primi risultati sono già molto convincenti: il 94% delle falsificazioni sono state smascherate.

Limiti dello strumento

Seppur promettente, la tecnica di Lyu presenta alcuni limiti[6].

In primis, il sistema funziona correttamente solo in presenza di una sorgente di luce abbastanza evidente tale da generare un riflesso sulle cornee. In secondo luogo, c’è il rischio che un successivo lavoro di editing dell’immagine potrebbe correggere queste incongruenze, traendo così ugualmente in inganno l’algoritmo e rendendo inutile lo strumento.

Infine, è necessario che entrambi gli occhi siano presenti e ben in vista. Se il soggetto sbatte le palpebre, fa l’occhiolino o non guarda direttamente nella camera, la tecnica fallisce poiché si è dimostrata efficace solo nelle immagini a ritratto.

Lo strumento è ancora in fase di sviluppo ma rappresenta senz’altro un primo e valido ausilio per rilevare i contenuti fake che dilagano, ormai incontrollati, sul web.

L’era della post-verità

Il web ha da tempo, ormai, assunto i connotati di una dimensione di “post-verità” (Keyes, 2004)[7], in cui sfuma sempre di più il confine, già labile, tra realtà e finzione. Gli utilizzi notoriamente non sempre virtuosi della tecnologia deepfake – che spaziano dall’alveo della pornografia a quello della satira politica, passando per le frodi – destano sempre maggiori timori e perplessità.

Inoltre, l’ampia disponibilità di strumenti open-source per creare deepfake rappresenta una minaccia per l’affidabilità dei media online ed espone al rischio di una vera e propria “Infocalisse” – ossia una “apocalisse informativa”[8] – in cui la minaccia principale non sarà tanto venire ingannati, quanto arrivare a considerare tutto come un inganno. Quel che Aviv Ovadya, capo tecnologo del Center for Social Media Responsibility dell’Università del Michigan, definisce “l’ apatia per la realtà[9].

Lo sviluppo dell’algoritmo è parte integrante dell’impegno di sensibilizzazione che Lyu sta portando avanti, richiamando l’attenzione sulla necessità sempre più pressante di strumenti che consentano di rilevare i contenuti fake[10].

In proposito, si noti come Lyu abbia contribuito a creare anche il Deepfake-o-meter, una piattaforma online opern-source che aiuta gli utenti a verificare se il video che hanno guardato è un deepfake[11].

Conclusioni

La verità è negli occhi, ma anche il falso può celarsi proprio lì. Col tempo, è probabile che strumenti di questo tipo diventeranno sempre più efficaci nell’aiutarci a rilevare i contenuti fake, di pari passo con gli stessi deepfake che, presumibilmente, saranno sempre più sofisticati e in grado di ingannarci. Per il momento, occhi aperti. Ora che sappiamo cosa guardare, i volti fake possono essere (più facilmente) individuati. È proprio vero che «la lingua può nascondere la verità, ma gli occhi mai» (Michail Bulgakov).

______________________________________________________________________________________

Bibliografia

  1. Chesney R., Citron, D. K. (2019). Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security ,107 California Law Review, pp. 1753-1820.
  2. Shu Hu, Yuezun Li, and Siwei Lyu. (2020). Exposing GAN-generated Faces Using Inconsistent Corneal Specular Highlights. arXiv:2009.11924 [cs.CV].
  3. Bankead M. (2021). How to spot deepfakes? Look at light reflection in the eyes. Available at http://www.buffalo.edu/news/releases/2021/03/010.html
  4. Shu Hu, Yuezun Li, and Siwei Lyu. (2020). Exposing GAN-generated Faces Using Inconsistent Corneal Specular Highlights. arXiv:2009.11924 [cs.CV].
  5. Bankead M. (2021). How to spot deepfakes? Look at light reflection in the eyes. Available at http://www.buffalo.edu/news/releases/2021/03/010.html
  6. Shu Hu, Yuezun Li, and Siwei Lyu. (2020). Exposing GAN-generated Faces Using Inconsistent Corneal Specular Highlights. arXiv:2009.11924 [cs.CV].
  7. Keyes, R. (2004). The post-truth era: Dishonesty and deception in contemporary life. New York: St. Martin’s.
  8. Charlie Warzel, “He Predicted the 2016 Fake News Crisis. Now He’s Worried About An Information Apocalypse”. BuzzFeed News (blog), February 11, 2018, https://www.buzzfeednews.com/article/charliewarzel/the-terrifying-future-of-fake-news ; Franklin Foer, “The Era of Fake Video Begins,” The Atlantic, April 8, 2018, https://www.theatlantic.com/magazine/archive/2018/05/realitys-end/556877/
  9. Schwartz O. (2018). You thought fake news was bad? Deep fakes are where truth goes to die. The Guardian. Available athttps://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth
  10. Bai A. (2021). I deepfake non sono ancora perfetti! Ecco come scoprirli con i riflessi degli occhi. Harward Upgrade. Available at https://www.hwupgrade.it/news/scienza-tecnologia/i-deepfake-non-sono-ancora-perfetti-ecco-come-scoprirli-con-i-riflessi-degli-occhi_96237.html
  11. Li, Y., Zhang, C., Sun, P., Qi, H., & Lyu, S. (2021). DeepFake-o-meter: An Open Platform for DeepFake Detection. arXiv preprint arXiv:2103.02018.
EVENTO
[Evento, 10.06] Sai misurare il ROI delle tue strategie marketing? Partecipa DemandGeneretaionLAB
@RIPRODUZIONE RISERVATA

Articolo 1 di 4