newsguard

Iran, record di disinformazione AI: così muore la verità



Indirizzo copiato

Nel contesto del conflitto in Iran, la testata specializzata in verifica dei fatti NewsGuard riscontra un record assoluto di disinformazione con AI. Ma ci sono anche attori malevoli che segnalano come falsi contenuti veri. E’ la morte della verità, senza appello

Pubblicato il 2 apr 2026

Tommaso Diddi

analista Hermes Bay

Luisa Franchina

Presidente Associazione Italiana esperti in Infrastrutture Critiche



intelligence iraniana
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

La proliferazione di contenuti generati dall’intelligenza artificiale in questi giorni di guerra in Medio Oriente sta producendo un effetto collaterale imprevisto e per certi versi più insidioso della minaccia originale: la sfiducia sistematica nei confronti di immagini e video autentici. Non si tratta di un fenomeno marginale.

Nel contesto del conflitto in Iran, avviato circa un mese fa, la testata specializzata in verifica dei fatti NewsGuard ha registrato il volume più alto di contenuti AI-generati mai monitorato in un periodo comparabile nei suoi otto anni di attività.

Video falsificati di attacchi missilistici, immagini sintetiche di distruzioni urbane, deepfake di figure politiche presentati come morti o gravemente feriti: una produzione massiva, tecnicamente raffinata, progettata per manipolare la percezione pubblica del conflitto e capace di raggiungere milioni di visualizzazioni su più piattaforme social.

Quando i deepfake e la disinformazione colpiscono il vero

Ma è l’altra faccia di questo fenomeno a meritare attenzione specifica dal punto di vista della sicurezza dell’informazione. Accanto alla disinformazione classica in cui il falso è spacciato per vero, si sta affermando una dinamica opposta e complementare: il vero accusato di essere falso.

Filmati autentici vengono sistematicamente etichettati come deepfake, sia da attori che operano in malafede con l’obiettivo di screditare prove scomode, sia da utenti comuni che, ragionevolmente condizionati dall’esperienza quotidiana con i contenuti sintetici, hanno sviluppato una diffidenza generalizzata verso qualsiasi materiale visivo proveniente da zone di conflitto.

L’effetto cumulativo di questa doppia pressione, ossia il falso creduto vero e il vero creduto falso, è una corrosione profonda della capacità collettiva di costruire una rappresentazione condivisa della realtà.

Il caso Netanyahu nella disinformazione da deepfake

Il caso più emblematico documentato da NewsGuard riguarda un video pubblicato direttamente sul profilo X del primo ministro israeliano Benjamin Netanyahu. A seguito di voci diffuse dai media iraniani sulla sua morte o su gravi ferite riportate in un attacco missilistico, Netanyahu aveva pubblicato un filmato di sé stesso in un caffè di Gerusalemme, in quello che può essere definito un classico “proof-of-life“: una prova visiva della propria presenza e integrità fisica. Nel giro di poche ore, numerosi account social hanno definito il video un deepfake, sostenendo che il premier fosse in realtà morto o incapacitato.

Come i deepfake e la disinformazione sfruttano i falsi positivi

La dinamica che ha alimentato questa narrativa falsa è tecnicamente significativa. Diversi utenti hanno caricato il video su Hive, uno strumento di rilevamento AI ampiamente utilizzato, anche come verifica preliminare dagli stessi analisti di NewsGuard, che ha restituito una probabilità del 96,9% che il contenuto fosse generato artificialmente.

Quel dato si è propagato rapidamente, citato come prova definitiva della manipolazione governativa israeliana. Il risultato di uno strumento pensato per contrastare la disinformazione era diventato esso stesso vettore di disinformazione. NewsGuard ha poi verificato l’autenticità del video attraverso un secondo strumento di rilevamento, che ha identificato il filmato come reale, trovando riscontro anche in foto pubblicate dal caffè e nel confronto tra lo sfondo del video e altre immagini disponibili dello stesso luogo effettuato dall’agenzia Reuters.

I limiti degli strumenti contro deepfake e disinformazione

Questo episodio solleva questioni di metodo che riguardano direttamente chi si occupa di sicurezza informatica e verifica delle informazioni. Gli strumenti di rilevamento AI non sono infallibili, e la loro adozione acritica come unico elemento di valutazione dell’autenticità rappresenta un rischio. Hive, a fronte delle richieste di commento di NewsGuard, ha scelto di non rispondere: una postura che solleva interrogativi per un’azienda il cui stesso slogan recita “Non fidarti di noi, mettici alla prova”. La mancanza di trasparenza sui falsi positivi, sulla metodologia di analisi e sui margini di errore degli strumenti di detection costituisce essa stessa una vulnerabilità nell’ecosistema informativo.

Perché la verifica conta più dei rilevatori di deepfake

Dal punto di vista operativo, la questione impone una riflessione sulle catene di verifica. Nessun singolo strumento automatizzato dovrebbe essere utilizzato come unica fonte di validazione per contenuti ad alto impatto. I rilevatori AI vanno inseriti in un processo più ampio che includa la verifica delle fonti primarie, la corroborazione da parte di agenzie di stampa con metodologie documentate, l’analisi del contesto geopolitico e la ricerca di riscontri indipendenti sull’evento rappresentato, non soltanto sull’artefatto visivo in sé. Se il primo ministro di un paese fosse effettivamente morto o gravemente ferito in un attacco missilistico, quell’evento avrebbe una copertura giornalistica globale verificabile indipendentemente dal video.

La scalabilità dei deepfake e della disinformazione nelle crisi

L’aspetto più rilevante del fenomeno descritto è la sua scalabilità. La logica osservata nel caso Netanyahu – usare l’incertezza sull’autenticità come leva per mettere in dubbio prove reali – è replicabile in qualsiasi contesto di crisi, conflitto o competizione politica. Non è nemmeno necessario produrre un deepfake convincente: è sufficiente sollevare il dubbio, possibilmente amplificato da uno strumento di detection che restituisce un falso positivo, per innescare una catena di diffusione che la correzione successiva non riuscirà a fermare con la stessa velocità.

Un metodo pratico contro deepfake e disinformazione

Sul piano delle competenze individuali, gli esperti di NewsGuard suggeriscono un cambio di approccio metodologico: verificare l’evento, non solo il materiale visivo. Elementi come la coerenza geografica verificabile, la presenza di copertura giornalistica indipendente sull’evento sottostante e la disponibilità di riscontri corroborativi pubblicati da soggetti distinti offrono un ancoraggio alla realtà che nessun rilevatore automatico può sostituire. Anomalie tecniche visibili, come testo incomprensibile, geometrie facciali distorte, incongruenze nell’illuminazione, restano segnali utili, ma la loro assenza non garantisce l’autenticità così come la loro presenza non la esclude automaticamente.

Il ruolo delle piattaforme nella disinformazione da deepfake

In questo scenario, il ruolo delle piattaforme social rimane centrale e irrisolto. La velocità con cui un risultato di detection errato si trasforma in narrativa virale dipende anche dalle scelte algoritmiche di amplificazione che premiano l’engagement emotivo, e poche cose generano più engagement del dubbio sull’autenticità di un’informazione di guerra. Interventi strutturali come la moderazione proattiva dei contenuti che citano strumenti di detection come fonte esclusiva, o l’obbligo di contestualizzare i risultati di tali strumenti con indicatori di affidabilità, restano per ora assenti dalle policy pubbliche delle principali piattaforme.

Oltre i deepfake e la disinformazione: la crisi della fiducia

La sfida che si pone, in ultima analisi, non è puramente tecnologica. Riguarda i criteri con cui si costruisce la fiducia in un’informazione, le istituzioni e le pratiche che rendono possibile distinguere il reale dal sintetico in un ambiente in cui entrambi sono prodotti in scala industriale.

Gli strumenti di detection AI sono risorse utili, non oracoli. La loro utilità è proporzionale alla consapevolezza dei loro limiti e alla disponibilità dei loro produttori a rendere conto pubblicamente degli errori.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x