consigli

Come riconoscere i falsi video fatti con intelligenza artificiale



Indirizzo copiato

I video creati con l’intelligenza artificiale invadono i social e diventano sempre più realistici. Per riconoscerli contano meno gli errori “grossolani” e più coerenza visiva e contesto: mani, luci, ombre, movimenti di camera e dettagli tecnici spesso tradiscono l’origine sintetica

Pubblicato il 30 gen 2026

Alessandro Longo

Direttore agendadigitale.eu



video AI riconoscere

I video creati con l’intelligenza artificiale stanno diventando davvero difficili da distinguere da quelli reali. Ce ne siamo accorti tutti e le etichette AI che di regola dovrebbero distinguerli spesso mancano.

Circolano su TikTok, Instagram e Facebook come clip divertenti, scene emotive, finti incidenti o presunti appelli umanitari. Non si tratta più di un fenomeno marginale: secondo diversi centri di ricerca, i contenuti sintetici sono ormai una quota rilevante del traffico social (forse del 20 per cento circa), soprattutto nei formati brevi e virali.

Riconoscerli non è impossibile, ma richiede un cambio di approccio. I segnali più utili non sono più quelli “spettacolari” degli inizi, bensì dettagli di coerenza visiva, logica e contestuale. Le indicazioni che seguono derivano da analisi pubblicate di recente da esperti, dal MIT e da documenti tecnici diffusi da aziende come Google, oltre alle linee guida di istituzioni europee sulla disinformazione digitale.

Già perché questo fenomeno non provoca solo uno spostamento della nostra attenzione online (di per sé potenzialmente nocivo) da contenuti veri a intrattenimento artificiale; ma può alimentare anche truffe e disinformazione e in generale distrugge la nostra capacità di fidarci in ciò che vediamo.

Deep Fake: come riconoscerli?

Come riconoscere i video AI da mani, volti e corpi

Le mani restano un punto critico, anche se meno evidente rispetto a un anno fa. Le dita oggi sono quasi sempre cinque, ma possono piegarsi in modo innaturale, fondersi tra loro o cambiare forma durante il movimento. Lo stesso vale per orecchie, denti e profili del volto, soprattutto nei video con rapidi cambi di espressione.

I corpi, invece, possono “perdere” peso fisico: persone che afferrano oggetti senza applicare forza, animali che saltano senza una spinta coerente, contatti che non producono reazioni proporzionate. Sono imperfezioni difficili da notare a colpo d’occhio, ma ricorrenti.

Indizio di AIDove guardarePerché contaTest veloce
Inquadratura “troppo perfetta”inizio video, punto di ripresamanca un operatore reale“Chi avrebbe avuto la camera pronta?”
Mani deformi in movimentogesti, dita, presei modelli faticano con articolazionirallenta a 0,5x
Bocca e denti instabiliparlato, sorrisilip-sync e dettagli minutiguarda senza audio
Ombre incoerentipiedi, pareti, nasosimulazione luce complessametti pausa e confronta
Riflessi assenti/sbagliativetro, specchi, metalloerrore tipico di renderingcerca un riflesso “doppio”
Fisica irrealecontatti, cadute, saltipeso/inerzia non tornanoosserva mani-oggetti
Sfondo che “balla”scritte, pattern, bordicompressione + generazionezoom sullo sfondo
Camera che galleggiapan, zoom, trackingnon c’è intenzione umanachiediti “perché si muove?”
Audio troppo pulitovoce, ambientesintesi/denoise eccessiviascolta in cuffia
Mancanza di contestocaption, profilo, fontetipico di truffe/viral fakecerca conferme altrove

Luci e ombre nei video AI: quando il realismo non regge

Molti modelli AI gestiscono bene una singola fonte di luce, ma faticano con scenari complessi. Ombre che non seguono il movimento del soggetto, riflessi assenti su superfici lucide, illuminazione del volto che non cambia quando la testa ruota sono segnali frequenti.

Secondo analisi pubblicate dal MIT su dataset di video sintetici, l’incoerenza luminosa è uno degli indizi più stabili, perché richiede una simulazione fisica che i modelli generativi non padroneggiano del tutto.

Movimenti di camera: l’indizio di una ripresa senza operatore

Nei video autentici qualcuno decide dove puntare la camera e perché. Nei video generati dall’AI questa intenzione manca. Il risultato sono carrellate fluide ma prive di motivazione, zoom improvvisi, inquadrature “perfette” in situazioni che, nella realtà, sarebbero caotiche o imprevedibili.

Un esempio tipico sono le scene di incidenti domestici o salvataggi: la telecamera è già posizionata nel punto ideale, non trema, non viene mai abbandonata per intervenire. È una scelta narrativa plausibile per un algoritmo, meno per una persona reale.

Insomma, chiediamoci: ma questa cosa qui com’è stata filmata, da chi, come e perché? Se non c’è risposta, probabilmente è finta.

E’ anche una questione di buon senso. Davvero qualcuno si è messo a filmare un bambino salvato da animali invece di intervenire?

Contesti tecnici sbagliati: quando i dettagli tradiscono i video AI

I video AI spesso sbagliano ciò che richiede competenza specifica. Attrezzature mediche incomplete o montate in modo irrealistico, cantieri senza dispositivi di sicurezza, sport estremi praticati con equipaggiamento inutile o pericoloso.

Non serve essere specialisti: basta chiedersi se ciò che si vede sarebbe accettabile in quel contesto. In molti casi, la risposta è no.

Esempi di video finti AI sui social

Gli animali domestici sono protagonisti ideali per i video generati dall’AI. Funzionano perché suscitano empatia immediata e abbassano il livello di attenzione critica.

I segnali da osservare sono comportamenti poco realistici, tempi di reazione innaturali, interazioni fisiche che ignorano peso e spazio. Lo stesso schema vale per i video fortemente emotivi, come appelli per donazioni o storie di malattia: immagini credibili, ma dettagli contestuali vaghi o incoerenti.

https://leadstories.com/607f7452997599b12360fa1f3ecc8bc4245473aa.png
https://people.com/thmb/a8jWj_a5H-xbQ6DNJv4SGuHWMjo%3D/4000x0/filters%3Ano_upscale%28%29%3Amax_bytes%28150000%29%3Astrip_icc%28%29%3Afocal%28599x0%3A601x2%29/elderly-lady-with-bear-102125-2b282e7de0d046529ae12c2f18ae7129.jpg
https://www.popsci.com/wp-content/uploads/2025/11/bunnies-trampoline.png?h=864&w=1536

I “conigli sul trampolino” ripresi da una finta videocamera di sorveglianza (TikTok, estate 2025)

È diventato virale come se fosse un filmato notturno da “ring cam”: conigli che saltano su un trampolino in giardino. Diversi fact-check e articoli hanno poi indicato che il video era interamente generato e hanno segnalato glitch di continuità (un coniglio che sparisce/fonde, forme che cambiano) e dettagli “da overlay” incoerenti.

La “bodycam” con anziana che dà da mangiare a un orso sul portico (TikTok, ottobre 2025)

Un altro caso enorme per visualizzazioni: sembra un filmato da bodycam di un agente che rimprovera una donna anziana mentre un grosso orso le annusa i piedi. People ha ricostruito che si tratta di un video ai creato con Sora e ha indicato alcune incongruenze (elementi dell’ambiente che “non tornano”, oggetti sospesi, utensile con comportamento fisico innaturale).

I “quasi cloni” dello stesso incontro con l’orso (repliche seriali, 2025)

Dopo il successo del video del portico, sono comparsi online video molto simili, con variazioni minime (altra anziana, altro orso, stessa dinamica). Questo è un pattern tipico dell’“ai slop”: un format che funziona viene replicato in serie per macinare engagement, e nel feed sembra confermare che “succede davvero”. People lo segnala esplicitamente come indizio: quando vedi più clip quasi identiche, spesso non è cronaca, è produzione sintetica.

Zelensky che “invita alla resa” (2022)

Poi ci sono anche esempi di disinformazione e truffa. Un deepfake mostrava Volodymyr Zelensky mentre chiedeva ai militari ucraini di deporre le armi. È circolato online durante le prime settimane di guerra ed è stato smentito rapidamente, ma resta un caso scuola di uso “bellico” dei video sintetici.

https://news.virginia.edu/sites/default/files/Inline_01_Zelenskyy_Deepfake.jpg

Finta “NVIDIA Live”: deepfake di Jensen Huang per truffa crypto (2025)

Altre iniziative sono di truffa. Su YouTube è comparsa una finta diretta presentata come evento Nvidia: in video c’era un Jensen Huang generato con ai che spingeva una “iniziativa” crypto con qr code. Secondo le ricostruzioni, il falso ha attirato un pubblico enorme ed è stato perfino promosso sopra lo stream reale.

https://cdn.mos.cms.futurecdn.net/GtHKDB3HbHWUwXWMqDkHKU-1200-80.jpg

Inserzioni su Meta con finto Rishi Sunak e rimando a “BBC” fasulla (2024)

Più di cento video-ads deepfake con il primo ministro britannico sono stati pagati e distribuiti su Facebook. Il meccanismo tipico: endorsement “autorevole”, poi click verso una pagina che imita BBC News e porta a un investimento-truffa.

https://res.cloudinary.com/pai/image/upload/f_auto/q_auto/c_fill%2Ch_640/v1/reports/i.guim.co.uk/img/media/9d5e9162023d9ccd0cbd76fb9081df1df2fb2e4e/0_111_3000_1800/master/3000.jpg?auto=format&enable=upscale&fit=crop&height=630&overlay-align=bottom%2Cleft&overlay-base64=L2ltZy9zdGF0aWMvb3ZlcmxheXMvdGctZGVmYXVsdC5wbmc&overlay-width=100p&quality=85&s=6a61bf63ea624d265a9b9e202edf911b&width=1200

Il “Tom Cruise” di TikTok (2021)

Una serie di clip ultra realistiche ha ingannato molti utenti nello scorrimento, proprio perché sembravano riprese informali da smartphone. Qui l’inganno non era una raccolta fondi o un investimento, ma la dimostrazione di quanto la tecnica potesse diventare credibile in formato social.

https://a57.foxnews.com/cf-images.us-east-1.prod.boltdns.net/v1/static/694940094001/27f20c1d-51f1-492c-8be5-ac9872ffa85b/2c067d2f-f5e8-4364-8791-da11a7f2d1b7/1280x720/match/896/500/image.jpg?tl=1&ve=1

Etichette e watermark: cosa promettono le piattaforme e cosa manca

Le piattaforme dichiarano di voler etichet­tare con watermark i contenuti generati dall’AI e l’AI Act impone questa riconoscibilità. TikTok e Meta hanno policy in questo senso. Il limite è che l’etichettatura dipende spesso dai creator e non da controlli sistematici.

I watermark tecnici, visibili o invisibili, sono ancora parziali. Google e altre aziende stanno sperimentando firme digitali integrate nei pixel, ma funzionano solo all’interno dei rispettivi ecosistemi. Non esiste, oggi, un sistema universale di verifica accessibile agli utenti comuni.

Come riconoscere i video AI con il criterio più affidabile: il contesto

Le istituzioni europee che si occupano di contrasto alla disinformazione insistono su un punto: la tecnologia da sola non basta. Il filtro più efficace resta il giudizio umano. Chiedersi chi ha prodotto il video, con quale obiettivo e in quale contesto è spesso più utile che cercare il singolo difetto grafico.

Seguire creator riconoscibili, con una storia verificabile, riduce l’esposizione ai contenuti artificiali. Affidarsi solo al flusso automatico dei social, invece, aumenta il rischio di imbattersi in video progettati per sembrare reali senza esserlo.

Cosa aspettarsi nei prossimi mesi dai video AI

I modelli video miglioreranno ancora. Gli errori visivi diminuiranno, non scompariranno. La distinzione tra reale e sintetico diventerà sempre meno una questione tecnica e sempre più una competenza culturale.

Per chi guarda, la domanda utile non è “sembra vero?”, ma “ha senso che qualcuno abbia davvero ripreso questa scena?”. In molti casi, la risposta arriva prima dell’algoritmo.

Bibliografia essenziale

Parlamento europeo – EPRS (2025). Children and deepfakes (briefing con stime e rischi; include dati su crescita dei deepfake).

Lim, M.; Chang, A.; Intagliata, C. (17 dicembre 2025). Simple tricks to spot AI-generated videos in your social media feed. NPR / All Things Considered.

TikTok (s.d.). About AI-generated content (Centro assistenza TikTok: obblighi di etichettatura dei contenuti ai).

TikTok Newsroom (19 settembre 2023). New labels for disclosing AI-generated content.

Meta – About (5 aprile 2024; aggiorn. 1 luglio 2024). Our approach to labeling AI-generated content and manipulated media (“Made with AI”, disclosure e rilevamento).

Google DeepMind (s.d.). SynthID (watermark invisibile per contenuti generati da ai: principi e funzionamento).

C2PA – Coalition for Content Provenance and Authenticity (versione 2.3). C2PA Specifications (standard tecnico per provenienza/autenticità dei contenuti).

NIST – National Institute of Standards and Technology (s.d.). Open Media Forensics Challenge (OpenMFC) (valutazione e benchmark su rilevazione di manipolazioni in immagini e video).

Unione europea – Commissione europea (11 novembre 2025). Media literacy | Shaping Europe’s digital future (alfabetizzazione mediatica e resilienza alla disinformazione).

Unione europea – Commissione europea (2024). AI Act – Regulatory framework on AI (Regolamento (UE) 2024/1689) (quadro normativo e obblighi di trasparenza per specifici usi dell’ai).

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x