scenario

Disinformazione sulla guerra con l’Iran, il ruolo di Grok e dell’IA



Indirizzo copiato

La guerra tra Usa, Israele e Iran mostra quanto l’intelligenza artificiale possa amplificare propaganda e contenuti falsi. Tra errori di Grok, monetizzazione su X e moderazione inefficace, immagini e video sintetici rendono più difficile distinguere i fatti dalla manipolazione

Pubblicato il 12 mar 2026

Antonino Mallamaci

avvocato, Co.re.com. Calabria



New Delhi Declaration on AI Impact (1); ai act; AI antiriciclaggio
iperammortamento software industriale

Grok, la chatbot di intelligenza artificiale generativa di Elon Musk, sta dando un grosso contributo alla disinformazione diffusa sulla guerra scatenata da USA e Israele contro l’Iran.

Tal Hagin, specializzato in analisi della disinformazione e verifica dei media generati dall’IA, ha più volte testato Grok in quest’ambito, con esiti molto deludenti. Quando ha chiesto al chatbot di verificare un video, postato su X da un’agenzia statale di stampa iraniana, su missili iraniani che avrebbero colpito Tel Aviv, Grok ha sbagliato luogo e data. Poi ha operato, come spesso succede, per non deludere il suo utente: la prova per dimostrare che non era incorso in un errore era però un’altra immagine generata dall’intelligenza artificiale.

Quando Grok sbaglia e alimenta la disinformazione

Il risultato dell’incapacità di Grok è che X, dal 28 febbraio, è letteralmente inondata di contenuti falsi che riguardano la guerra. E la situazione è peggiorata giorno dopo giorno. Immagini create dall’intelligenza artificiale vengono condivise da account a pagamento, con la spunta blu, e da funzionari del governo iraniano. Spesso, l’obiettivo è di accrescere i danni prodotti dalle azioni della repubblica islamica.

Tutto ciò è ovviamente favorito dalla facilità di accesso a strumenti per la generazione di immagini e video, sempre più sofisticati, basati sull’intelligenza artificiale. Il 2 marzo funzionari e media statali iraniani hanno condiviso video generati dall’intelligenza artificiale di un grattacielo in Bahrein in fiamme. Per tantissimi utenti i contenuti sono molto credibili, tanto che un’immagine di un B-2 statunitense abbattuto dall’Iran, con truppe statunitensi detenute, è stata visualizzata oltre un milione di volte prima di essere eliminata, e quelle dei membri della Delta Force catturati oltre 5 milioni.

I fake più virali diffusi sulla piattaforma

Anche quando i post sono più facilmente individuabili come fake, tuttavia, non manca chi li crede veri. Come accaduto per un video nel quale sono rappresentati soldati iraniani che costruiscono missili in una grotta, condiviso da diversi account e visualizzato circa un milione di volte.

I ricercatori dell’Institute of Strategic Dialogue (ISD) hanno verificato che l’intelligenza artificiale viene utilizzata da account riconducibili al governo iraniano per diffondere narrazioni antisemite. Ad esempio, raffigurano ebrei ortodossi che guidano soldati americani in guerra o ne celebrano la morte.

Disinformazione sulla guerra Iran Usa Israele e propaganda del regime

La rete di profili attivata dal regime degli ayatollah ha toccato un altro tema sensibile per il presidente Donald Trump, quello del suo legame col pedofilo suicida Jeffrey Epstein. In un filmato, molte adolescenti camminano in fila davanti a lui indossando solo biancheria intima. Quasi sette milioni di persone lo hanno visualizzato prima che fosse rimosso, secondo l’ISD, ma è ancora condiviso da altri su X.

Tal Hagin, sentito da Wired, esprime una certezza: fino a quando non si interverrà normativamente lo stato delle cose non potrà che aggravarsi: “Ciò che rende questa guerra unica è il drammatico aumento dei contenuti generati dall’intelligenza artificiale che mi ritrovo a smentire”, perché “l’intelligenza artificiale è sufficientemente avanzata da ingannare i giornalisti e per la facilità con cui gli utenti possono creare questa roba senza conseguenze. Più a lungo resteremo senza normative contro l’abuso dell’intelligenza artificiale, maggiori saranno i danni”.

Le contromisure di X e i limiti della moderazione

Quando giorni fa la piattaforma è stata inondata di falsi contenuti generati dall’intelligenza artificiale, X ha annunciato che avrebbe temporaneamente demonetizzato gli account con la spunta blu se avessero pubblicato video di conflitti armati generati dall’intelligenza artificiale senza etichetta. X però non ha successivamente fornito notizie sugli esiti di tale provvedimento, tanto meno dati sugli account effettivamente demonetizzati.

Fino a poco tempo fa, diversi funzionari iraniani sembravano pagare X per il servizio premium. Grazie ad esso, ricevuta la spunta blu, aumentava l’interazione e la possibilità di guadagnare denaro per i post.

Disinformazione sulla guerra Iran Usa Israele oltre l’intelligenza artificiale

Nel frattempo, anche le fake news fabbricate senza l’ausilio dell’IA sono aumentate in maniera esponenziale su X. Dopo l’attacco a una scuola elementare in cui sono state uccise 168 persone, di cui 110 bambini, gli account pro-Trump hanno riutilizzato filmati provenienti da altre parti del conflitto per allontanare i sospetti dagli USA e riversarli sull’Iran, che avrebbe lanciato il missile che ha provocato la carneficina.

Alla fine, un video pubblicato da un’agenzia di stampa iraniana, e verificato dal New York Times, ha dissipato ogni dubbio: si vede un missile Tomahawk colpire una base navale vicino alla scuola. Trump ha affermato che apparteneva all’Iran, ma i Tomahawk sono notoriamente utilizzati solo dagli USA in questa guerra.

Meta, NewsGuard e BBC Verify davanti ai contenuti generati dall’IA

I social di Meta, Facebook e Instagram, non sono esenti da questi problemi, tanto che il suo Consiglio di Sorveglianza ha criticato l’approccio dell’azienda nell’etichettare altri contenuti generati dall’intelligenza artificiale: “Meta non è né abbastanza solida né abbastanza completa da gestire la portata e la velocità della disinformazione generata dall’intelligenza artificiale, in particolare durante crisi e conflitti”. Con una nota, la Big Tech di Mark Zuckerberg ha dichiarato di aver accolto con favore le conclusioni del consiglio.

Secondo invece Isis Blachez, analista di NewsGuard, “Dato che le immagini e i video generati dall’intelligenza artificiale sono sempre più sofisticati, gli utenti potrebbero non mettere in discussione immagini che vengono spacciate per “prove” a sostegno di affermazioni pro-Iran, quando sembrano così reali. Anche le risorse a disposizione per valutare l’autenticità di tali contenuti presentano delle lacune. Ad esempio, gli strumenti di rilevamento dell’intelligenza artificiale non sono sempre efficaci nel riconoscere i contenuti generati dall’intelligenza artificiale”. (Grok docet).

BBC Verify è un servizio della BBC che utilizza intelligence open source, immagini satellitari, analisi dei dati e tecniche forensi per verificare i fatti e combattere la disinformazione. Secondo esperti interpellati da BBC Verify, un’ondata senza precedenti di disinformazione sulla guerra tra Stati Uniti e Israele e l’Iran viene monetizzata dai creatori online con un accesso crescente alla intelligenza artificiale generativa.

Disinformazione sulla guerra Iran Usa Israele e nuove forme di manipolazione

Timothy Graham, esperto di media digitali presso la Queensland University of Technology: “La portata è davvero allarmante e questa guerra ha reso impossibile ignorarla. Ciò che prima richiedeva una produzione video professionale, ora può essere fatto in pochi minuti con gli strumenti di intelligenza artificiale. La barriera alla creazione di filmati sintetici di conflitto convincenti è sostanzialmente crollata”.

Una novità di questo conflitto, secondo BBC Verify, sono le immagini satellitari generate dall’intelligenza artificiale. Alcuni video reali mostrano attacchi missilistici e con droni iraniani contro il quartier generale della Quinta Flotta in Bahrein nel primo giorno di guerra. Una foto falsa, condivisa su X dal “Tehran Times”, ha iniziato a diffondersi il giorno dopo mostrando ingenti danni alla base. La foto sembra basarsi su immagini satellitari reali di una base navale statunitense in Bahrein, scattate nel febbraio 2025 e disponibili online.

Secondo il rilevatore di filigrane SynthID di Google, l’immagine falsa è stata generata o modificata con uno strumento d’intelligenza artificiale di Google. Veo di Google sta nella crescente lista delle piattaforme di intelligenza artificiale più diffuse, come Sora di OpenAI, la cinese Seedance e Grok. “Il numero di strumenti disponibili, accessibili, facili da usare ed economici, per manipolazioni altamente realistiche non ha precedenti”, afferma Henry Ajder, esperto di intelligenza artificiale generativa.

Monetizzazione, incentivi e business dei contenuti falsi

Naturalmente c’è di mezzo anche tanto denaro. Secondo un portavoce di X, il 99% degli account che diffondono video generati dall’intelligenza artificiale cerca di “ingannare la monetizzazione pubblicando contenuti molto coinvolgenti in cambio di un pagamento tramite il programma Creator Revenue Sharing. La piattaforma non pubblica quanti account fanno parte del programma, né quanti soldi possono guadagnare, ma si ritiene che X potrebbe pagare “dagli otto ai dodici dollari per ogni milione di visione di utenti verificati.

Per essere idonei, i creatori devono raggiungere cinque milioni di visioni in tre mesi e avere un abbonamento premium X. Una volta dentro, i contenuti virali generati dall’intelligenza artificiale sono fondamentalmente una stampante di denaro. Hanno creato l’impresa di disinformazione definitiva”.

Gli esperti, su sollecitazione di BBC Verify, non hanno dubbi nell’affermare che, sebbene molte aziende di social media affermino di stare cercando di modificare i propri sistemi di moderazione e rilevamento per far fronte alla portata e alla velocità con cui si diffondono i contenuti generati dall’intelligenza artificiale, non esiste una soluzione semplice al problema. Timothy Graham non ha dubbi: “tra monetizzazione, basata sul coinvolgimento, e informazione accurata, c’è un evidente conflitto. Nessuna piattaforma lo ha mai risolto completamente e forse non lo farà mai”.

Oltre Grok, il nodo strutturale della disinformazione

La questione, com’è facile comprendere, non si limita perciò all’incapacità di Grok, dimostrata da Tal Hagin, di individuare i video falsi. C’è tanto altro, compresa la resa economica, per piattaforme e utenti, della diffusione e della visualizzazione dei contenuti.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x