La guerra cognitiva russa non è un fronte astratto: accompagna e amplifica il conflitto armato tra Mosca e Kiev, puntando direttamente alle emozioni e alle percezioni dei cittadini europei.
Mentre proseguono le trattative per una tregua, campagne di disinformazione, deepfake e operazioni online mirate continuano a colpire Italia ed Europa. Anche in caso di cessate il fuoco, questo livello di scontro non si fermerà: è destinato anzi a intensificarsi, imponendo nuove risposte politiche, informative e tecnologiche.
Indice degli argomenti
La minaccia invisibile che non cesserà con la pace
In questi giorni di trattative serrate per arrivare alla pace, o almeno a un cessate il fuoco, tra Russia e Ucraina, e al di là degli esiti delle stesse, emergono due importanti elementi di dibattito e di preoccupazione: la guerra condotta sul campo è stata potentemente affiancata da quella ibrida, e in particolare da quella cognitiva; per l’Italia e per l’Europa, anche in caso di risultati positivi del negoziato, questi due ultimi tipi di conflitto non solo non cesseranno, ma sono destinati ad aumentare d’intensità, soprattutto da parte del regime putiniano.
Il Consiglio supremo di difesa e la strategia di Crosetto
Non per niente l’argomento “guerra cognitiva” è stato tra quelli che la Presidenza della Repubblica ha sottolineato con maggiore forza durante il Consiglio supremo di difesa di qualche giorno addietro.
Questo genere di conflitto comprende non soltanto la dezinformatzija, alla russa, o disinformazione: deepfake, bot, fake news, attacchi coordinati sui social. Il Cremlino, con un vero e proprio salto di qualità rispetto ai vecchi sistemi di propaganda, è in grado di mobilitare o anestetizzare le emozioni pubbliche. Il dominio e la guerra cognitivi (insieme agli altri elementi che compongono la guerra ibrida) sono trattati nel “non paper” del ministro della Difesa Guido Crosetto, presentato all’organismo presieduto da Sergio Mattarella, dal titolo “Il contrasto alla guerra ibrida: una strategia attiva”.
“È una guerra combattuta con ‘bombe’ meno visibili di quelle fisiche”, scrive il ministro della difesa. “Chi ci muove quotidianamente attacchi ibridi, in particolare sul piano della disinformazione, della guerra cognitiva e nel dominio cyber, oggi sa che l’Occidente spesso sceglie di non reagire”.
La riforma della Difesa proposta dal ministro prevede 4 direttrici, una delle quali consiste in un Centro per il Contrasto alla Guerra Ibrida “dotato di comando e controllo, meccanismi di condivisione rapida di best practice per contrastare la disinformazione e le azioni ostili nel campo della guerra cognitiva“. Questa viene combattuta da Stati non democratici ed è portata avanti, con la complicità delle piattaforme social, mediante fake news, disinformazione attraverso anche politici ed esperti di geopolitica, deepfake mirati a influenzare il dibattito democratico.
L’obiettivo del Cremlino contro l’Occidente
L’obiettivo è creare crepe all’interno dei Paesi Occidentali e tra di loro, mettendo in discussione le politiche governative e sovranazionali. La disinformazione perpetrata dalla Russia ai danni dell’Occidente, in primis dell’Europa, è stata studiata a fondo da diversi organismi, privati e pubblici.
Una delle operazioni, attribuite alla Federazione Russa nel 2024, è stata chiamata “Doppelgänger“. In sostanza, venivano doppiate, creati sosia (da qui il nome) di siti web di testate giornalistiche come Le Monde, Der Spiegel e La Repubblica, diffondendo notizie false e contenuti manipolati per minare la fiducia dell’opinione pubblica nelle istituzioni democratiche e nel sostegno all’Ucraina.
Le operazioni di disinformazione russe in Europa
Un’altra è stata denominata False Façade (Falsa facciata), o anche Tempesta-1516, ed è stata lanciata alla fine del 2023 con una rete di 230 siti web non autentici, attivi o dormienti. Imita i media occidentali incorporando nomi di città nel suo marchio, ad esempio Boston Times o London Crier.
La campagna è incentrata sul riciclaggio di informazioni di contenuti appositamente selezionati tra fonti attribuite e non attribuite. Portal Kombat, o rete Pravda (verità) è stato creato nel 2022 e gestisce almeno 200 organi di stampa non autentici destinati ad Europa, Africa e Asia e si affida alla ripubblicazione automatica ad alta frequenza di contenuti FIMI (Foreign Information Manipulation and Interference, Manipolazione e Interferenza di Informazioni Straniera), russi provenienti da fonti selezionate quali enti governativi russi ufficiali, media affiliati allo Stato, influencer russi di Telegram e organi di stampa locali anti-establishment).
Overload e Matrioska: saturare i fact-checker
L’Operazione Overload (Sovraccarico) aveva come scopo quello di sovraccaricare la capacità dei fact-checker nelle redazioni e nei media di tutto il mondo con richieste di verifica di affermazioni dubbie che indebolivano, tra gli altri, Ucraina, Francia e Germania.
Questo era il risultato dell’invio di migliaia di immagini, screenshot e video falsificati alle redazioni, supportata da un’azione su Telegram e X per diffondere artificialmente contenuti inventati. L’Operazione Overload operava in tandem con quella detta Matrioska. Quest’ultima prendeva il nome dalla matrioska russa, poiché i contenuti ingannevoli generati riguardavano personaggi pubblici e organi di stampa nordamericani ed europei. Eppure, uno sguardo più attento rivela che la maggior parte dei contenuti è stata pubblicata inizialmente sui canali Telegram in lingua russa, già identificati in altre operazioni di informazione pro-Cremlino.
Dall’era sovietica all’intelligenza artificiale
Le campagne FIMI del Cremlino esistono sin dalla Guerra Fredda. Ma l’avvento di Internet e di altre tecnologie di comunicazione ha consentito maggiore flessibilità e maggiore impatto con meno risorse.
ChatGPT sostituisce Google: il nuovo campo di battaglia
L’utilizzo sempre più massiccio dell’intelligenza artificiale ha trasformato la strategia del Cremlino. Invece di limitarsi a proporre ai lettori narrazioni su misura, la Russia si è adeguata ai tempi. Questo è avvenuto in quanto ormai moltissimi utenti oramai trovano più comodo e veloce usare, in luogo dei motori di ricerca, LLM come ChatGPT. Secondo un sondaggio condotto da Adobe Express su 1.000 persone, l’utilizzo di ChatGPT di OpenAI al posto del motore di ricerca di Google sta diventando sempre più comune negli Stati Uniti. Oltre tre quarti (77%) degli intervistati afferma di utilizzare ChatGPT per le ricerche, il 25% come prima scelta. Ciò accade soprattutto per bambini e ragazzi, in quanto possono ottenere risposte a domande quotidiane o trovare ispirazione creativa. Gli utenti hanno affermato di apprezzare anche la possibilità di ottenere riassunti di argomenti complessi ed evitare di dover cliccare su molti link. Tre persone su 10 intervistate hanno affermato di fidarsi più di ChatGPT rispetto ad altri motori di ricerca, e il 47% dei professionisti del marketing e dei titolari di aziende utilizza ChatGPT per promuovere la propria attività.
LLM grooming: addestrare l’AI alla propaganda
L’apparato di disinformazione russa si è adeguato ai tempi. Invece di veicolare la disinformazione direttamente sui social, adesso inonda il web con milioni di articoli e contenuti fuorvianti e di bassa qualità, però appositamente progettati per essere elaborati da strumenti e applicazioni basati sull’intelligenza artificiale. Il Cremlino sta attuando quello che gli esperti chiamano “LLM grooming” (toelettatura): addestrando modelli linguistici di grandi dimensioni (LLM) a riprodurre narrazioni manipolative e disinformazione.
Pravda infiltra i chatbot più diffusi al mondo
Il gruppo di analisi NewsGuard rivela che una rete di disinformazione russa chiamata Pravda (“Verità”) ha influenzato l’output dei principali chatbot di intelligenza artificiale pubblicando numerosi articoli che sono finiti nei dati di addestramento dei bot. Questo non è stato un effetto collaterale dell’inondazione del web da parte di Mosca con false narrazioni, ma l’obiettivo principale dell’iniziativa. Ecco le modalità di funzionamento del sistema. Pravda ha pubblicato 3,6 milioni di articoli lo scorso anno, molti dei quali sono stati poi elaborati da chatbot come ChatGPT-4o di OpenAI, Claude (Anthropic), Meta AI, Gemini (Google) e Copilot (Microsoft).
Come i chatbot sono diventati amplificatori di falsità
Questi chatbot avrebbero riprodotto le narrazioni diffuse da Pravda nel 33% delle loro risposte. L’analisi di NewsGuard sui 10 principali strumenti di intelligenza artificiale generativa, e sulla loro propensione a ripetere false affermazioni su argomenti di attualità, rivela che il tasso di pubblicazione di informazioni false è quasi raddoppiato in un anno, con la fornitura di false affermazioni in più di un terzo dei casi.
Nonostante i progressi nel settore dell’IA, gli strumenti di intelligenza artificiale generativa falliscono a un tasso quasi doppio nel distinguere i fatti dalle falsità. I 10 principali strumenti di intelligenza artificiale hanno ripetuto informazioni false su argomenti di attualità nel 35% dei casi nell’agosto 2025, contro il 18% dell’agosto dell’anno precedente.
L’ecosistema informativo inquinato dalla disinformazione
Questo è avvenuto anche perché, con le ricerche in tempo reale, i chatbot non rifiutano più di rispondere alle domande. I loro tassi di mancata risposta sono scesi dal 31% nell’agosto 2024 allo 0% nell’agosto 2025. Quindi la probabilità di ripetere informazioni false è quasi raddoppiata. Invece di citare limiti di dati o rifiutarsi di intervenire su argomenti sensibili, essi attingono a un ecosistema informativo online inquinato – a volte deliberatamente alimentato da vaste reti di attori malevoli, come nel caso di operazioni di disinformazione russe – e trattano le fonti inaffidabili come se fossero credibili. Gli attori malevoli stanno sfruttando questa nuova ansia di rispondere alle domande sulle notizie per riciclare falsità attraverso siti web a basso coinvolgimento, post sui social media e content farm (fabbriche di contenuti) generate dall’intelligenza artificiale, tutte fonti che i modelli non riescono a distinguere da quelle credibili. In breve, la spinta a rendere i chatbot più reattivi e tempestivi li ha resi più propensi a diffondere propaganda.
La rete globale di Pravda e le sue narrazioni false
Anche l’organizzazione no-profit americana American Sunlight Project (ASP) ha scoperto che manipolare le tecnologie di intelligenza artificiale, piuttosto che raggiungere gli utenti umani, era probabilmente l’obiettivo principale della rete russa.
L'”LLM grooming“, come Pravda, si infiltra deliberatamente nei dati recuperati dai chatbot di intelligenza artificiale, pubblicando false affermazioni e propaganda allo scopo di influenzare le risposte dei modelli di intelligenza artificiale sugli argomenti di attualità. Pravda non produce contenuti originali, ma amplifica materiale proveniente da fonti pro-Cremlino, inclusi i media statali russi, attraverso una rete di vari siti web. Lo studio di NewsGuard ha identificato 150 siti in questa rete, circa 40 dei quali pubblicano contenuti rivolti all’Ucraina, 70 si concentrano sull’Europa e 30 si rivolgono a un pubblico di riferimento in Africa, nella regione del Pacifico, in Medio Oriente, in Nord America, nel Caucaso e in Asia. I contenuti sono redatti in diverse lingue.
Le false narrazioni che diventano credibili nel tempo
Molti dei loro nomi di dominio includono nomi di città e regioni dell’Ucraina, come News-Kiev.ru, Kherson-News.ru e Donetsk-News.ru. Secondo NewsGuard, dall’invasione russa dell’Ucraina Pravda ha diffuso almeno 207 narrazioni di disinformazione, tra cui affermazioni su “laboratori biologici segreti statunitensi in Ucraina” e accuse di “abuso degli aiuti militari statunitensi da parte di Zelensky”. A lungo termine, più narrazioni false circoleranno sui media online, maggiore sarà la probabilità che i modelli linguistici inizino a trattarle come credibili e a incorporarle nelle loro risposte.
La corsa senza fine tra difesa e attacco digitale
Insomma, come succede sempre, soprattutto per tutte le vicende che concernono il web e le nuove tecnologie, le contromisure assunte, anche a livello legislativo, per contrastare i fenomeni negativi, s’imbattono in ulteriori problemi per la velocità con la quale gli attori malevoli in capo si adattano adeguando le loro azioni al nuovo contesto. È necessaria perciò la più alta e variegata vigilanza per scongiurare il pericolo che le menti al servizio del male abbiano la meglio.











