Sempre più realistici e difficili da riconoscere, i deepfake rappresentano una delle sfide più complesse dell’era digitale.
Ma cosa sono esattamente, come vengono creati e quali strumenti abbiamo oggi per difenderci? Il mondo dei deepfake è un terreno in continua evoluzione, dove si intrecciano tecnologie d’avanguardia, rischi concreti e nuove frontiere normative.
Indice degli argomenti
Cosa sono i deepfake e come funzionano
Il termine “deepfake” nasce dalla fusione di “deep learning” e “fake”, indicando contenuti multimediali generati o manipolati tramite tecniche avanzate di intelligenza artificiale per apparire autentici. Questi contenuti possono includere video, immagini o audio in cui il volto, la voce o i movimenti di una persona vengono alterati o completamente generati da zero per farle dire o fare cose che non ha mai effettivamente detto o fatto.
Negli ultimi anni, le tecnologie alla base dei deepfake si sono evolute in modo esponenziale, rendendo queste manipolazioni sempre più realistiche e difficili da individuare anche per gli osservatori più esperti. Questo fenomeno mette a dura prova la fiducia nell’informazione visiva e sonora, alimentando interrogativi sulla veridicità dei contenuti digitali. E non si limita alle celebrità o ai politici: ogni individuo con una presenza online può diventare bersaglio, poiché bastano poche immagini pubbliche per alimentare modelli generativi capaci di creare contenuti manipolati. La democratizzazione di queste tecnologie, accessibili anche a utenti senza competenze tecniche, grazie a interfacce intuitive e app mobili, contribuisce a diffondere il fenomeno.
Le tecnologie alla base dei deepfake
La creazione di deepfake si basa su potenti modelli di apprendimento automatico. Tra i più utilizzati vi sono le Reti Generative Avversarie, architetture composte da due reti neurali che competono per produrre contenuti sintetici sempre più realistici. Le versioni più avanzate, come StyleGAN3 di NVIDIA, permettono un controllo minuzioso delle espressioni facciali e delle pose.
Parallelamente, tecniche come gli Autoencoder e i Variational Autoencoder comprimono i dati in rappresentazioni latenti, consentendo applicazioni di face swapping con una sorprendente fedeltà espressiva.
In parallelo, i modelli Transformer multimodali integrano testo, audio e immagini per generare video sincronizzati e coerenti. Esempi come OmniHuman di ByteDance permettono di creare avatar digitali iperrealistici, capaci di interagire con il pubblico in maniera naturale. A completare il quadro, le tecnologie di sintesi vocale neurale, tra cui Tacotron 2, WaveNet e VALL-E, riproducono fedelmente tono, accento e inflessioni vocali, contribuendo a rendere i deepfake vocali sempre più credibili.
Strumenti per creare deepfake: dalle app consumer alle piattaforme professionali
Oggi esistono numerosi strumenti che consentono anche ai non esperti di cimentarsi nella creazione di deepfake.
FaceSwap
FaceSwap è un altro progetto open source che permette lo scambio di volti sia in immagini statiche che in video.



Reface
App mobili come Reface permettono invece di creare deepfake in pochi secondi: l’utente carica un selfie che viene automaticamente mappato su clip video preesistenti di celebrità o meme. Il processo avviene interamente sul server dell’app, con risultati immediatamente condivisibili.


AKool
Nel panorama professionale, strumenti sempre più sofisticati consentono la creazione di video con avatar digitali personalizzati. Tra questi, AKool è una piattaforma versatile che offre soluzioni per il face swapping, la traduzione video con sincronizzazione labiale e la generazione di avatar fotorealistici. Gli utenti possono caricare un video e tradurlo in un’altra lingua, mantenendo la sincronizzazione perfetta delle labbra grazie all’intelligenza artificiale.

Synthesia
Synthesia è uno dei leader del settore: permette di creare video professionali a partire da un semplice testo. Il servizio mette a disposizione centinaia di avatar predefiniti oppure consente di creare un avatar personalizzato a partire dall’immagine dell’utente. Il video generato ha un aspetto naturale e può essere utilizzato per la formazione aziendale, il marketing o la comunicazione interna.

HeyGen
HeyGen segue un approccio simile, consentendo di trasformare un testo scritto o un file audio in un video con un avatar digitale iperrealistico. La piattaforma offre strumenti avanzati per il controllo delle espressioni facciali e del tono di voce, rendendola particolarmente apprezzata nei contesti educativi e di presentazione commerciale.

Strumenti per riconoscere e analizzare i deepfake
Riconoscere un deepfake diventa ogni giorno più complesso, ma esistono strategie e strumenti che possono aiutare. Anomalie nei movimenti delle labbra e degli occhi, artefatti visivi e incoerenze nell’illuminazione restano indizi utili per un occhio allenato. L’analisi audio, invece, permette di rilevare disallineamenti tra il parlato e i movimenti della bocca o incoerenze timbriche che possono tradire una manipolazione.
FakeCatcher
Strumenti basati su IA supportano l’analisi forense di questi contenuti. FakeCatcher di Intel è una delle soluzioni più avanzate: non si tratta di un’applicazione web o scaricabile dal pubblico, bensì di una tecnologia progettata per essere integrata in infrastrutture di piattaforme di social media o in flussi di lavoro aziendali. FakeCatcher rileva la presenza di deepfake analizzando i segnali biometrici sottili, come il flusso sanguigno naturale nel volto, invisibile a occhio nudo ma rilevabile grazie a specifici pattern di variazione cromatica della pelle. Il sistema funziona in tempo reale su server dotati di processori Intel Xeon e è rivolto principalmente a partner industriali, non è accessibile come servizio online diretto per i singoli utenti.
Microsoft Video Authenticator
Microsoft Video Authenticator è un’altra tecnologia rilevante sviluppata per rilevare contenuti multimediali manipolati, come i deepfake. Non si tratta di un’applicazione accessibile al pubblico tramite web o scaricabile. Inizialmente, Microsoft ha reso disponibile Video Authenticator esclusivamente attraverso il programma Reality Defender 2020 (RD2020), destinato a organizzazioni coinvolte nei processi democratici, come testate giornalistiche e campagne politiche. Non esiste dunque un’interfaccia pubblica o un’applicazione web per l’uso diretto da parte degli utenti finali.
Deepware Scanner
Deepware Scanner (https://deepware.ai/) offre una soluzione pratica e accessibile per utenti e professionisti dell’informazione. Si tratta di una piattaforma online che consente di caricare video sospetti o indicare un link, per poi ottenere un’analisi automatica sull’autenticità del contenuto. Il sistema mostra in modo trasparente i risultati della rilevazione, accompagnati da dettagli tecnici e percentuali di probabilità.
Le immagini che seguono illustrano il funzionamento di Deepware Scanner:
- La schermata iniziale permette di inserire un collegamento video o caricare direttamente un file.

- Durante la fase di elaborazione, il sistema mostra un’animazione di caricamento.


- A fine analisi viene presentato un report dettagliato che indica l’eventuale presenza di deepfake, con una dashboard che riporta i risultati percentuali per diversi modelli di rilevamento, oltre a informazioni tecniche sul video e sull’audio esaminati.
Questo strumento è immediatamente utilizzabile da browser ed è disponibile in versione beta gratuita per il pubblico generale.
Infine, le tecniche forensi, che comprendono l’analisi dei metadati e delle firme digitali, permettono di individuare manipolazioni nascoste. Parallelamente, è fondamentale promuovere l’educazione digitale: sensibilizzare il pubblico e fornire strumenti didattici adeguati aiuta a sviluppare un occhio critico verso i contenuti digitali e a contrastare l’impatto dei deepfake nella nostra società.
Rischi sociali e legali legati ai deepfake
L’espansione dei deepfake genera preoccupazioni significative sotto il profilo etico, sociale e legale. Queste tecnologie, sempre più sofisticate e accessibili, stanno ridefinendo i confini della realtà digitale, con implicazioni profonde sulla società.
Disinformazione e manipolazione
Uno degli aspetti più preoccupanti riguarda la disinformazione e la manipolazione dell’opinione pubblica. I deepfake possono infatti essere utilizzati per alterare la percezione collettiva, interferire nei processi elettorali o diffondere fake news con estrema facilità. Durante le elezioni presidenziali del 2024 negli Stati Uniti, ad esempio, sono circolati video manipolati di figure politiche creati ad arte per screditarle e influenzare il voto. Episodi analoghi si sono verificati anche in Indonesia, dove il partito Golkar ha impiegato un deepfake dell’ex presidente Suharto per sostenere i propri candidati, sollevando un acceso dibattito sull’uso etico di queste tecnologie.
L‘impiego dei deepfake nel cyberbullismo e nelle vendette pornografiche
Ancora più inquietante è l’impiego dei deepfake nel cyberbullismo e nelle vendette pornografiche. La creazione non consensuale di contenuti a sfondo sessuale rappresenta una violazione gravissima della dignità personale, con conseguenze devastanti per le vittime. Negli Stati Uniti, per contrastare questo fenomeno, è stato introdotto il “Take It Down Act”, che criminalizza la distribuzione di immagini intime false o manipolate e impone la rimozione tempestiva dei contenuti entro 48 ore dalla segnalazione.
L‘utilizzo dei deepfake per scopi fraudolenti
Non meno preoccupante è l’utilizzo dei deepfake per scopi fraudolenti. Attacchi di social engineering sempre più sofisticati sfruttano deepfake vocali per impersonare dirigenti aziendali, estorcere denaro o ottenere accesso a informazioni riservate. Un caso emblematico riguarda un’azienda britannica truffata per 243.000 dollari, dopo che dei criminali erano riusciti a ingannare i dipendenti utilizzando un deepfake audio che imitava perfettamente la voce del CEO.
Per rispondere a queste minacce, Stati Uniti, Unione Europea e numerosi altri paesi stanno lavorando alla definizione di quadri normativi specifici. Il Digital Services Act europeo introduce misure per garantire la trasparenza dei contenuti sintetici, mentre l’AI Act impone l’obbligo di etichettatura chiara per i contenuti generati dall’intelligenza artificiale. Negli Stati Uniti, il “NO FAKES Act” è stato concepito per proteggere l’identità delle persone da usi non autorizzati in contenuti digitali.
Opportunità e limiti dell’uso dei deepfake
I deepfake rappresentano dunque una delle più affascinanti e controverse frontiere dell’intelligenza artificiale. Da un lato offrono opportunità straordinarie in ambiti come l’intrattenimento, l’educazione e il marketing; dall’altro pongono rischi concreti alla sicurezza individuale, alla fiducia pubblica e alla tenuta democratica.
Per affrontare queste sfide è indispensabile un approccio multidisciplinare, che combini lo sviluppo di tecnologie avanzate per il rilevamento, l’adozione di normative efficaci e una diffusa alfabetizzazione digitale. Solo attraverso questo percorso sarà possibile sfruttare appieno i benefici dei deepfake, minimizzandone al contempo i potenziali abusi.