Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

etica e tecnologia

Deepfake video: ecco perché serve una nuova coscienza etica sull’intelligenza artificiale

Considerare il problema delle deepfake news solo come una questione tecnologica è sbagliato e riduttivo: è necessario un nuovo approccio che tenga in considerazione anche nuove norme e soprattutto una nuova coscienza etica sull’intelligenza artificiale. Vediamo come evolve la tecnologia e i rischi

16 Lug 2019

Davide Giribaldi

data protection specialist


I deepfake video sono la nuova frontiera del pericolo che scorre online, sfruttano l’intelligenza artificiale in maniera perversa e rendono sempre più difficile distinguere le immagini reali da quelle false.

Come se non bastasse la loro qualità è cresciuta cosi rapidamente che non è più possibile ipotizzare soluzioni esclusivamente tecnologiche per contrastarle, occorre pensare a regole e immaginare soluzioni diverse perché gli obiettivi principali sono soprattutto i personaggi politici e i VIP le cui opinioni sono in grado di influenzare i pensieri di decine di milioni di cittadini del mondo. Alcuni governi se ne sono accorti e prevedono di correre ai ripari rapidamente, prima che video molto attendibili ma rigorosamente falsi, creino crisi diplomatiche su scala mondiale o possano influenzare, come mai fatto in precedenza, i prossimi appuntamenti elettorali.

La viralità dei deepfake video

Quando poco più di un anno fa Donald Trump, tramite un video, diede suggerimenti alla popolazione del Belgio su come affrontare i cambiamenti climatici, ci fu una sorta di indignazione collettiva su questa ingerenza e ci volle qualche giorno a capire che si trattava di un falso. La cosa clamorosa era che il video era talmente di scarsa qualità che sarebbe stata sufficiente un’analisi un po’ più attenta a considerare quell’episodio uno scherzo mal riuscito. In realtà per diverse ore prevalsero la viralità e l’indignazione prima che qualcuno iniziasse a verificare l’attendibilità della fonte il motivo è semplice: la nostra mente è tendenzialmente pigra ed ottimisticamente orientata a credere che un messaggio diffuso da qualcuno all’interno della nostra rete fidata di contatti online sia attendibile di default senza preoccuparci di verificarlo.

Cosi è successo anche quando alcune settimane fa è apparso un video postato su Instagram in cui Mark Zuckerberg con tono vagamente minaccioso diceva: “immaginate per un secondo che un solo uomo abbia il controllo totale dei dati rubati di miliardi di persone. Tutti i loro segreti, tutte le loro vite, il loro futuro” anche in questo caso ci sono volute diverse ore per accorgersi che fosse un falso, si trattava infatti di una provocazione a scopo pubblicitario per lo Sheffield Doc Festival all’interno di una mostra di video rigorosamente falsi di alcuni personaggi famosi, ma in molti per diverse ore hanno creduto che si trattasse della realtà fino a quando attraverso un’analisi più attenta non è stato possibile scoprire alcuni dettagli fondamentali: innanzitutto nel testo che accompagnava il post era presente il riferimento alla tecnologia VDR (video dialogue replacement) grazie alla quale con alcune ore di autoapprendimento era stato possibile riprodurre fedelmente la mimica e la gestualità di Zuckerberg adattandola alla voce registrata. Questa però è stata lasciata volutamente diversa dall’originale per enfatizzare che si trattasse di un falso.

E se invece il produttore del video avesse voluto ad ogni costo ingannarci, cosa sarebbe successo?

La tecnologia dietro i deepfake video

E’ difficile dirlo, ma è abbastanza intuitivo comprendere come sia la stessa tecnologia alla base delle deepfake news ad alimentare un sistema perverso in grado di apprendere sempre più velocemente. Dietro ai deepfake video ci sono due algoritmi chiamati GAN (Generative Adversarial Network) in stretta competizione tra di loro, entrambi sono istruiti tramite la stessa base dati, ma il primo chiamato “generatore” sfrutta il DB per generare immagini “realistiche”, mentre il secondo detto “discriminatore” deve giudicare se quanto “vede” sia frutto del lavoro del generatore suo antagonista o faccia parte del database originale ed ogni volta che il discriminatore si accorge della bravura del generatore, il sistema apprende e riparte da capo in una sorta di gara in cui a sua volta il generatore deve migliorarsi di continuo per poter ingannare il suo avversario e vincere.

In quest’ottica si genera una spirale di apprendimento sempre più rapida nella quale è facile intuire che entro pochissimo tempo sarà molto difficile se non impossibile distinguere il vero dal falso. Alcune ricerche dimostrano come le tecniche attuali di analisi forense siano in grado di individuare oltre il 97% di falsi video. In linea generale potrebbe essere considerato un successo, ma se pensiamo che ogni giorno solo su Facebook sono caricate 350 milioni tra immagini e video un margine d’errore del 3% significherebbe che oltre 10 milioni di documenti probabilmente falsi, si diffondano indisturbati per il web e soprattutto per quanto tempo saranno valide le attuali tecniche se alla base di questi sistemi di intelligenza artificiale c’è il machine learning ovvero una serie di algoritmi in grado di apprendere dai propri errori?

Se è vero che i social network sono il veicolo di diffusione principale delle deepfake news è altrettanto risaputo che la loro efficacia nel controllo di situazioni potenzialmente pericolose è decisamente limitata. L’esperienza del contrasto alla disinformazione od alla diffusione di immagini violente ci insegna che buona parte delle attività di fact-checking è affidata all’uomo con tutti i limiti che ne conseguono, non è pertanto plausibile contrastare un fenomeno sempre più affinato come i deepfake video con le tecniche attuali.

Come se non bastasse, lo stesso Zuckerberg, a proposito del suo recente video “volutamente” falso, ha dichiarato di non essere in grado di contrastare la questione, semplicemente dicendo che non violava le norme interne e che in ogni caso la verifica dei documenti prodotti da terzi è in carico a soggetti esterni che devono garantire la massima trasparenza nei confronti degli utenti e l’indipendenza dal social network.

Deepfake, una questione non solo tecnologica

E’ quindi sbagliato e riduttivo considerare il problema delle deepfake news solo come una questione tecnologica ed il motivo principale dipende proprio dal fatto che si tratta di algoritmi di machine learning in grado di auto apprendere e migliorarsi, per cui qualsiasi soluzione avrebbe una valenza via via più limitata nel tempo e sempre più complicata da attuare.

E’ necessario un nuovo approccio che tenga in considerazione tanto la tecnologia, quanto nuove norme quanto soprattutto una nuova coscienza etica sull’intelligenza artificiale.

Alcune istituzioni come il Governo inglese stanno muovendo i primi passi verso leggi che però possono presentare a loro volta potenziali limiti verso la censura, altri come il Congresso USA puntano a contenere il rischio di questa tecnologia con almeno 3 proposte di legge tra cui la più significativa porta il nome di “Deep Fakes Accountability Act” e che prevede l’apposizione di una marcatura sui documenti per dichiarare esplicitamente che si tratti di un falso.

Sempre negli USA lo Stato di New York ha presentato una norma che paragona coloro che diffondono video o immagini falsi per scopo ingannevole ai truffatori e lo Stato della Virginia ha introdotto un emendamento alla legge sul contrasto del revenge porn, introdotta già nel 2014, per punire chi diffonde immagini e video di persone falsamente riprese in atti sessuali.

Le norme da solo non bastano

L’Europa non è da meno, nello scorso mese di aprile sono state pubblicate le “linee guida etiche per un’intelligenza artificiale affidabile”. Il documento elaborato secondo 7 requisiti specifici, prevede che i sistemi di deep learning debbano essere “rispettosi della legge e dei valori etici ed in equilibrio con l’ambiente sociale”.

Ma purtroppo le norme da sole non bastano, è quanto mai urgente e necessario:

  • un nuovo approccio etico che garantisca imparzialità e trasparenza nella prevenzione delle discriminazioni che si nascondono tra le pieghe degli algoritmi d’intelligenza artificiale,
  • occorre migliorare la sensibilità sulla protezione dei nostri dati e sulla nostra privacy,
  • serve un nuovo senso di responsabilità globale e soprattutto è fondamentale garantire ad ogni costo il controllo umano della tecnologia.

Sono molti gli argomenti da trattare, la maggior parte di questi sono estremamente delicati e culturalmente non prevedono una risposta univoca, ma indipendentemente dall’approccio che sapremo adottare per affrontare le prossime sfide è fondamentale non dimenticare che le deepfake news, già oggi consentono di andare oltre la falsa notizia creando una realtà parallela cosi attendibile e realistica da sembrare vera, starà a noi, solo a noi, evitare di cadere in questa trappola.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4