l’allarme newsguard

Disinformazione, così l’AI inquina i pozzi della politica



Indirizzo copiato

L’intelligenza artificiale ha rivoluzionato la produzione di contenuti falsi. Deepfake sempre più realistici e siti automatizzati diffondono disinformazione su scala industriale, trasformando anche i chatbot in amplificatori involontari di notizie false, con un peso ormai su elezioni ed equilibri politici

Pubblicato il 2 ott 2025



disinformazione chatbot e disinformazione

Disinformazione e intelligenza artificiale formano oggi un binomio sempre più stretto e preoccupante. I progressi tecnologici hanno reso più semplici e realistici i deepfake e hanno permesso la creazione di contenuti automatizzati in grado alimentare campagne di manipolazione sempre più sofisticate, anche attraverso strumenti che utilizziamo ormai quotidianamente, come i chatbot.

L’evoluzione dei deepfake: da rozzi tentativi a opere convincenti

Era marzo 2022 quando, durante il nostro lavoro di monitoraggio delle notizie false sulla guerra in Ucraina, ci siamo imbattuti in un video che mostrava il presidente ucraino Volodymyr Zelensky mentre, in apparenza, invitava i suoi soldati ad arrendersi. Il filmato era palesemente falso; la figura di Zelensky era sfocata, i movimenti della testa innaturali, il corpo immobile: si trattava di un deepfake realizzato con l’aiuto dell’intelligenza artificiale.

Solo un anno e mezzo dopo, nel novembre 2023, ne è circolata una nuova versione, decisamente più realistica: ambientazione curata, voce più naturale, gesti più credibili. Per noi di NewsGuard, che ci occupiamo di monitorare la diffusione delle informazioni false online e di valutare l’affidabilità delle fonti, è stato un segnale chiaro: l’intelligenza artificiale avrebbe reso il fenomeno della manipolazione informativa ancora più complesso e difficile da contrastare.

Content farm e automazione della disinformazione

Negli ultimi anni abbiamo studiato da vicino queste dinamiche. Ci siamo resi conto che creare contenuti falsi – testi, audio, video o immagini – è diventato un esercizio rapido ed economico, quasi alla portata di chiunque. I deepfake, che esistevano già prima dell’IA generativa, oggi sono infinitamente più realistici e facili da produrre.

Abbiamo visto inoltre che l’IA non si limita a falsificare singoli contenuti: può anche essere usata per costruire interi siti web, capaci di pubblicare migliaia di articoli al giorno senza alcuna supervisione umana. Si tratta di vere e proprie “content farm”, fabbriche di contenuti, che possono facilmente trasformarsi in macchine automatizzate di propaganda o disinformazione.

L’IA nelle campagne di influenza straniera

Ma non è solo un problema di tecniche: l’IA è sempre più un’arma nelle mani di attori malintenzionati, anche legati a governi stranieri, che la impiegano per orchestrare vere e proprie campagne di influenza o manipolazione dell’informazione. I dati lo dimostrano: quando abbiamo monitorato la disinformazione circolata sulle elezioni presidenziali americane del 2024, abbiamo riscontrato che il 24% delle notizie false che avevamo identificato tra settembre e novembre 2024 era emerso da campagne di influenza straniera, e nel 22% dei casi l’IA aveva avuto un ruolo centrale nella loro creazione.

Storm-1516 e le operazioni del Cremlino

Un esempio concreto è Storm-1516, una delle più sofisticate operazioni di influenza legate al Cremlino. Una delle tattiche principali di cui questa campagna si serve è proprio l’uso di siti e contenuti prodotti con l’IA: deepfake che impersonano inesistenti giornalisti o informatori che accusano (falsamente) i principali avversari della Russia di qualche scandalo o atto di corruzione; siti generati con l’intelligenza artificiale che assomigliano a innocui siti di news locali, ma che in realtà sono stati creati appositamente per far circolare disinformazione filo-russa dissimulandone l’origine.

Obiettivi europei delle operazioni russe

Gli obiettivi di operazioni come Storm-1516 e Matrioska, un’altra operazione di influenza russa molto attiva di recente che prende il nome dalle tradizionali bambole russe, sono stati diversi nel tempo e hanno riguardato l’Europa da vicino. Tra questi, le elezioni tedesche del febbraio 2025; l’Ucraina, nell’ambito della guerra con la Russia; la Francia, per via del suo sostegno all’Ucraina; e la Moldavia, in vista delle elezioni di fine settembre.

Manipolazione domestica e casi occidentali

Naturalmente, l’uso dell’IA per la manipolazione delle informazioni non è limitato ad operazioni di influenza straniera, ma è un fenomeno in crescita anche all’interno delle nostre società democratiche. Un esempio recente mostra come l’IA possa alterare la percezione degli eventi per fini politici: immagini generate artificialmente hanno fatto apparire molto più numerosa la folla presente a una manifestazione di estrema destra a Londra, e una di queste immagini è stata addirittura rilanciata dal proprietario di X Elon Musk.

Il circolo vizioso dell’informazione nell’era IA

Analizzando più a fondo questi fenomeni, ci siamo resi conto che, nell’era dell’IA, il percorso stesso dei contenuti di disinformazione è cambiato: non è più lineare – da chi li produce a chi li fruisce –, ma si è fatto circolare, perché non riguarda soltanto i contenuti online, ma anche l’affidabilità degli strumenti che sempre più persone utilizzano per informarsi: i chatbot. Tali strumenti vengono addestrati su dati presenti sul web e si basano sulle fonti disponibili online per costruire le loro risposte: proprio per questo, più numerosi sono i contenuti di disinformazione o le fonti inaffidabili che circolano in rete – compresi i contenuti e le fonti che l’IA ha contribuito a creare –, tanto più è probabile che i chatbot ripropongano nelle loro risposte informazioni false o citino fonti inaffidabili come se fossero autorevoli.

L’audit sui chatbot occidentali

Lo scorso anno, abbiamo condotto un audit sui 10 principali chatbot occidentali attualmente sul mercato con domande basate su notizie false emerse all’interno dell’operazione Storm-1516. Abbiamo riscontrato che in circa un terzo delle risposte i chatbot riproponevano la narrazione falsa, anche citando siti inaffidabili coinvolti nell’operazione come fonti a supporto.

Chatbot come nuovi obiettivi della disinformazione

Risultati di questo tipo evidenziano come i chatbot non siano più soltanto vittime collaterali della diffusione di informazioni false online, ma stiano diventando essi stessi obiettivo di chi le diffonde, soprattutto nell’ambito di operazioni di influenza straniera.

La strategia della rete Pravda

La strategia è chiara: inondare motori di ricerca e web crawler con contenuti falsi provenienti da fonti inaffidabili, in modo che la disinformazione finisca nelle risposte dei modelli e le fonti inaffidabili vengano presentate come autorevoli. Sembra essere questa la finalità della rete Pravda, un network pro-Russia di oltre 150 domini che pubblica milioni di articoli ogni anno, pur con un traffico quasi inesistente. Il loro obiettivo non sembra essere quello di raggiungere direttamente gli utenti online o sui social network, ma quello di infiltrare i chatbot con i contenuti falsi fatti circolare dalla rete. I nostri audit confermano questa dinamica: interrogando i 10 principali chatbot occidentali con domande basate sulle narrazioni diffuse dalla rete Pravda, in circa un terzo delle risposte i modelli hanno riproposto informazioni false senza smentirle, citando i siti di Pravda come se fossero fonti affidabili.

Il peggioramento delle prestazioni dei modelli IA

Uno dei dati più preoccupanti è che non sembra esserci un miglioramento significativo nelle prestazioni dei modelli. Da un bilancio degli ultimi 12 mesi di audit condotti dal team di NewsGuard sui principali 10 chatbot occidentali emerge che, nonostante gli evidenti progressi tecnologici nel campo dell’IA, i modelli commettono quasi il doppio degli errori rispetto a 12 mesi fa in uno dei compiti più basilari: distinguere i fatti dalle falsità. Nell’agosto 2025, i 10 principali sistemi di IA hanno infatti ripetuto informazioni false su argomenti legati all’attualità nel 35% dei casi, contro il 18% dell’agosto 2024. Il motivo è legato all’accesso alla ricerca di informazioni in tempo reale: fino a poco tempo fa, i chatbot non avevano questa capacità e, quando non disponevano di dati sufficienti per rispondere a una domanda, si rifiutavano di rispondere. Oggi, con l’accesso alla ricerca web in tempo reale, tendono a fornire sempre una risposta, anche ricorrendo a fonti inaffidabili come Pravda.

Verso sistemi più resilienti

Questi dati evidenziano un quadro preoccupante: l’IA, pur rappresentando un enorme potenziale tecnologico in moltissimi settori, può facilmente diventare un amplificatore della disinformazione quando viene sfruttata da attori malintenzionati. In questo contesto, la sfida non riguarda più solo la qualità dei contenuti, ma anche l’affidabilità degli strumenti con cui ci informiamo ogni giorno. Parlarne e sensibilizzare è fondamentale, ma non basta: costruire sistemi più resilienti è oggi essenziale per proteggere l’integrità dell’informazione e la fiducia del pubblico.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati