I video creati con l’intelligenza artificiale stanno diventando davvero difficili da distinguere da quelli reali. Ce ne siamo accorti tutti e le etichette AI che di regola dovrebbero distinguerli spesso mancano.
Circolano su TikTok, Instagram e Facebook come clip divertenti, scene emotive, finti incidenti o presunti appelli umanitari. Non si tratta più di un fenomeno marginale: secondo diversi centri di ricerca, i contenuti sintetici sono ormai una quota rilevante del traffico social (forse del 20 per cento circa), soprattutto nei formati brevi e virali.
Riconoscerli non è impossibile, ma richiede un cambio di approccio. I segnali più utili non sono più quelli “spettacolari” degli inizi, bensì dettagli di coerenza visiva, logica e contestuale. Le indicazioni che seguono derivano da analisi pubblicate di recente da esperti, dal MIT e da documenti tecnici diffusi da aziende come Google, oltre alle linee guida di istituzioni europee sulla disinformazione digitale.
Già perché questo fenomeno non provoca solo uno spostamento della nostra attenzione online (di per sé potenzialmente nocivo) da contenuti veri a intrattenimento artificiale; ma può alimentare anche truffe e disinformazione e in generale distrugge la nostra capacità di fidarci in ciò che vediamo.
Indice degli argomenti
Come riconoscere i video AI da mani, volti e corpi
Le mani restano un punto critico, anche se meno evidente rispetto a un anno fa. Le dita oggi sono quasi sempre cinque, ma possono piegarsi in modo innaturale, fondersi tra loro o cambiare forma durante il movimento. Lo stesso vale per orecchie, denti e profili del volto, soprattutto nei video con rapidi cambi di espressione.
I corpi, invece, possono “perdere” peso fisico: persone che afferrano oggetti senza applicare forza, animali che saltano senza una spinta coerente, contatti che non producono reazioni proporzionate. Sono imperfezioni difficili da notare a colpo d’occhio, ma ricorrenti.
| Indizio di AI | Dove guardare | Perché conta | Test veloce |
|---|---|---|---|
| Inquadratura “troppo perfetta” | inizio video, punto di ripresa | manca un operatore reale | “Chi avrebbe avuto la camera pronta?” |
| Mani deformi in movimento | gesti, dita, prese | i modelli faticano con articolazioni | rallenta a 0,5x |
| Bocca e denti instabili | parlato, sorrisi | lip-sync e dettagli minuti | guarda senza audio |
| Ombre incoerenti | piedi, pareti, naso | simulazione luce complessa | metti pausa e confronta |
| Riflessi assenti/sbagliati | vetro, specchi, metallo | errore tipico di rendering | cerca un riflesso “doppio” |
| Fisica irreale | contatti, cadute, salti | peso/inerzia non tornano | osserva mani-oggetti |
| Sfondo che “balla” | scritte, pattern, bordi | compressione + generazione | zoom sullo sfondo |
| Camera che galleggia | pan, zoom, tracking | non c’è intenzione umana | chiediti “perché si muove?” |
| Audio troppo pulito | voce, ambiente | sintesi/denoise eccessivi | ascolta in cuffia |
| Mancanza di contesto | caption, profilo, fonte | tipico di truffe/viral fake | cerca conferme altrove |
Luci e ombre nei video AI: quando il realismo non regge
Molti modelli AI gestiscono bene una singola fonte di luce, ma faticano con scenari complessi. Ombre che non seguono il movimento del soggetto, riflessi assenti su superfici lucide, illuminazione del volto che non cambia quando la testa ruota sono segnali frequenti.
Secondo analisi pubblicate dal MIT su dataset di video sintetici, l’incoerenza luminosa è uno degli indizi più stabili, perché richiede una simulazione fisica che i modelli generativi non padroneggiano del tutto.
Movimenti di camera: l’indizio di una ripresa senza operatore
Nei video autentici qualcuno decide dove puntare la camera e perché. Nei video generati dall’AI questa intenzione manca. Il risultato sono carrellate fluide ma prive di motivazione, zoom improvvisi, inquadrature “perfette” in situazioni che, nella realtà, sarebbero caotiche o imprevedibili.
Un esempio tipico sono le scene di incidenti domestici o salvataggi: la telecamera è già posizionata nel punto ideale, non trema, non viene mai abbandonata per intervenire. È una scelta narrativa plausibile per un algoritmo, meno per una persona reale.
Insomma, chiediamoci: ma questa cosa qui com’è stata filmata, da chi, come e perché? Se non c’è risposta, probabilmente è finta.
E’ anche una questione di buon senso. Davvero qualcuno si è messo a filmare un bambino salvato da animali invece di intervenire?
Gli stessi chatbot AI non riconoscono i video artificiali
I chatbot di intelligenza artificiale spesso non riescono a riconoscere i video generati dalla stessa IA.
Il paradosso è rilevato in una recente ricerca Newsguard.
L’analisi ha messo alla prova tre sistemi molto diffusi — Grok (xAI), ChatGPT (OpenAI) e Gemini (Google) — sottoponendo loro una serie di video creati con Sora, il generatore video di OpenAI capace di produrre clip realistiche a partire da prompt testuali.
Il risultato è netto: di fronte a contenuti senza watermark (cioè senza filigrana identificativa), i chatbot hanno fallito quasi sempre nell’identificazione del falso. In particolare, NewsGuard sostiene che Grok non li ha riconosciuti nel 95% dei casi, ChatGPT nel 92,5% e Gemini nel 78%.
Contesti tecnici sbagliati: quando i dettagli tradiscono i video AI
I video AI spesso sbagliano ciò che richiede competenza specifica. Attrezzature mediche incomplete o montate in modo irrealistico, cantieri senza dispositivi di sicurezza, sport estremi praticati con equipaggiamento inutile o pericoloso.
Non serve essere specialisti: basta chiedersi se ciò che si vede sarebbe accettabile in quel contesto. In molti casi, la risposta è no.
Esempi di video finti AI sui social
Gli animali domestici sono protagonisti ideali per i video generati dall’AI. Funzionano perché suscitano empatia immediata e abbassano il livello di attenzione critica.
I segnali da osservare sono comportamenti poco realistici, tempi di reazione innaturali, interazioni fisiche che ignorano peso e spazio. Lo stesso schema vale per i video fortemente emotivi, come appelli per donazioni o storie di malattia: immagini credibili, ma dettagli contestuali vaghi o incoerenti.
I “conigli sul trampolino” ripresi da una finta videocamera di sorveglianza (TikTok, estate 2025)
È diventato virale come se fosse un filmato notturno da “ring cam”: conigli che saltano su un trampolino in giardino. Diversi fact-check e articoli hanno poi indicato che il video era interamente generato e hanno segnalato glitch di continuità (un coniglio che sparisce/fonde, forme che cambiano) e dettagli “da overlay” incoerenti.
La “bodycam” con anziana che dà da mangiare a un orso sul portico (TikTok, ottobre 2025)
Un altro caso enorme per visualizzazioni: sembra un filmato da bodycam di un agente che rimprovera una donna anziana mentre un grosso orso le annusa i piedi. People ha ricostruito che si tratta di un video ai creato con Sora e ha indicato alcune incongruenze (elementi dell’ambiente che “non tornano”, oggetti sospesi, utensile con comportamento fisico innaturale).
I “quasi cloni” dello stesso incontro con l’orso (repliche seriali, 2025)
Dopo il successo del video del portico, sono comparsi online video molto simili, con variazioni minime (altra anziana, altro orso, stessa dinamica). Questo è un pattern tipico dell’“ai slop”: un format che funziona viene replicato in serie per macinare engagement, e nel feed sembra confermare che “succede davvero”. People lo segnala esplicitamente come indizio: quando vedi più clip quasi identiche, spesso non è cronaca, è produzione sintetica.
Zelensky che “invita alla resa” (2022)
Poi ci sono anche esempi di disinformazione e truffa. Un deepfake mostrava Volodymyr Zelensky mentre chiedeva ai militari ucraini di deporre le armi. È circolato online durante le prime settimane di guerra ed è stato smentito rapidamente, ma resta un caso scuola di uso “bellico” dei video sintetici.
Finta “NVIDIA Live”: deepfake di Jensen Huang per truffa crypto (2025)
Altre iniziative sono di truffa. Su YouTube è comparsa una finta diretta presentata come evento Nvidia: in video c’era un Jensen Huang generato con ai che spingeva una “iniziativa” crypto con qr code. Secondo le ricostruzioni, il falso ha attirato un pubblico enorme ed è stato perfino promosso sopra lo stream reale.
Inserzioni su Meta con finto Rishi Sunak e rimando a “BBC” fasulla (2024)
Più di cento video-ads deepfake con il primo ministro britannico sono stati pagati e distribuiti su Facebook. Il meccanismo tipico: endorsement “autorevole”, poi click verso una pagina che imita BBC News e porta a un investimento-truffa.
Il “Tom Cruise” di TikTok (2021)
Una serie di clip ultra realistiche ha ingannato molti utenti nello scorrimento, proprio perché sembravano riprese informali da smartphone. Qui l’inganno non era una raccolta fondi o un investimento, ma la dimostrazione di quanto la tecnica potesse diventare credibile in formato social.
Etichette e watermark: cosa promettono le piattaforme e cosa manca
Le piattaforme dichiarano di voler etichettare con watermark i contenuti generati dall’AI e l’AI Act impone questa riconoscibilità. TikTok e Meta hanno policy in questo senso. Il limite è che l’etichettatura dipende spesso dai creator e non da controlli sistematici.
I watermark tecnici, visibili o invisibili, sono ancora parziali. Google e altre aziende stanno sperimentando firme digitali integrate nei pixel, ma funzionano solo all’interno dei rispettivi ecosistemi. Non esiste, oggi, un sistema universale di verifica accessibile agli utenti comuni.
Come riconoscere i video AI con il criterio più affidabile: il contesto
Le istituzioni europee che si occupano di contrasto alla disinformazione insistono su un punto: la tecnologia da sola non basta. Il filtro più efficace resta il giudizio umano. Chiedersi chi ha prodotto il video, con quale obiettivo e in quale contesto è spesso più utile che cercare il singolo difetto grafico.
Seguire creator riconoscibili, con una storia verificabile, riduce l’esposizione ai contenuti artificiali. Affidarsi solo al flusso automatico dei social, invece, aumenta il rischio di imbattersi in video progettati per sembrare reali senza esserlo.
Cosa aspettarsi nei prossimi mesi dai video AI
I modelli video miglioreranno ancora. Gli errori visivi diminuiranno, non scompariranno. La distinzione tra reale e sintetico diventerà sempre meno una questione tecnica e sempre più una competenza culturale.
Per chi guarda, la domanda utile non è “sembra vero?”, ma “ha senso che qualcuno abbia davvero ripreso questa scena?”. In molti casi, la risposta arriva prima dell’algoritmo.
Bibliografia essenziale
Parlamento europeo – EPRS (2025). Children and deepfakes (briefing con stime e rischi; include dati su crescita dei deepfake).
Lim, M.; Chang, A.; Intagliata, C. (17 dicembre 2025). Simple tricks to spot AI-generated videos in your social media feed. NPR / All Things Considered.
TikTok (s.d.). About AI-generated content (Centro assistenza TikTok: obblighi di etichettatura dei contenuti ai).
TikTok Newsroom (19 settembre 2023). New labels for disclosing AI-generated content.
Meta – About (5 aprile 2024; aggiorn. 1 luglio 2024). Our approach to labeling AI-generated content and manipulated media (“Made with AI”, disclosure e rilevamento).
Google DeepMind (s.d.). SynthID (watermark invisibile per contenuti generati da ai: principi e funzionamento).
C2PA – Coalition for Content Provenance and Authenticity (versione 2.3). C2PA Specifications (standard tecnico per provenienza/autenticità dei contenuti).
NIST – National Institute of Standards and Technology (s.d.). Open Media Forensics Challenge (OpenMFC) (valutazione e benchmark su rilevazione di manipolazioni in immagini e video).
Unione europea – Commissione europea (11 novembre 2025). Media literacy | Shaping Europe’s digital future (alfabetizzazione mediatica e resilienza alla disinformazione).
Unione europea – Commissione europea (2024). AI Act – Regulatory framework on AI (Regolamento (UE) 2024/1689) (quadro normativo e obblighi di trasparenza per specifici usi dell’ai).













