tecnologia e società

Interferenze e propaganda: ecco come agiscono le reti filorusse FIMI



Indirizzo copiato

La guerra Usa-Israele-Iran amplifica propaganda e disinformazione. In rete il dubbio diventa uno strumento di costante destabilizzazione, dalle elezioni locali francesi a quelle ungheresi, sino ai social e ai siti pseudo-informativi, le campagne FIMI sfruttano crisi, insicurezza e saturazione informativa per manipolare percezioni, polarizzare il dibattito e rafforzare narrazioni filorusse

Pubblicato il 24 mar 2026

Arije Antinori

Professore di Criminologia, Sapienza Università di Roma

Nicoletta Pisanu

Giornalista professionista, redazione AgendaDigitale.eu



Screenshot di AgendaDigitale.eu da un video diffuso su Instagram da diversi account filorussi dedicati al presidente Putin
Screenshot di AgendaDigitale.eu da un video diffuso su Instagram da diversi account filorussi dedicati al presidente Putin
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Tentativi di interferenze filorusse nelle elezioni comunali francesi e presidenziali ungheresi, ma anche di Paesi extra UE, manipolando la realtà attraverso tecniche di disinformazione: è la minaccia FIMI – Foreign Information Manipulation and Interference, che sembra vivere un momento di particolare intensità.

Del resto, instabilità e incertezza creano online un ambiente particolarmente favorevole alla proliferazione del dubbio, e i professionisti della propaganda e della disinformazione lo sanno bene. La guerra non fa che accentuare questa dinamica. Se il fenomeno è ormai strutturale, la fase geopolitica, sociale ed economica attuale, tra l’altro segnata da un’insicurezza diffusa su scala globale, ha determinato sia un incremento dei contenuti propagandistici sia una maggiore spregiudicatezza nei tentativi di manipolazione del reale, anche attraverso l’impiego dell’AI.

Il problema non è soltanto “la menzogna”, ma l’architettura che la rende credibile, condivisibile e politicamente utile. Il fenomeno FIMI non coincide con la sola diffusione di contenuti falsi o fuorvianti, ma si tratta di una forma di pressione informativa più ampia. Combina, infatti, manipolazione narrativa, interferenza, occultamento delle regie, amplificazione semi-sintetica o semi-artificiale, riciclaggio dei contenuti attraverso attori intermedi e sfruttamento delle vulnerabilità socio-cognitive delle audience, i cittadini, tutti noi. Le elezioni, in questo senso, costituiscono una finestra di opportunità privilegiata, perché concentrano attenzione, emotività e conflitto simbolico.

La minaccia FIMI e le reti di disinformazione russe: cosa sta succedendo

Un esempio recente è l’impersonificazione, da parte della campagna russa di influenza Matryoshka, del network di factchecking NewsGuard per colpire, mediante una falsa narrazione, le elezioni comunali francesi chiuse domenica 22 marzo, nonché avviare un’azione di contaminazione delle prossime elezioni parlamentari armene di giugno. Un video falsamente attribuito al network sosteneva infatti che strategist politici armeni si fossero recati in Francia per apprendere tecniche di manipolazione del voto. Il caso è rilevante non solo per il contenuto, ma anche per la tecnica, ossia l’imitazione di un soggetto percepito come affidabile per trasferire a qualcosa di falso il prestigio del vero. E nel mirino ci sono anche le presidenziali ungheresi del 12 aprile 2026.

Proprio il ruolo delle reti di disinformazione russe colpisce in queste settimane, soprattutto in relazione alla guerra Usa-Israele-Iran. Da una parte si osserva lo sfruttamento dell’attualità per mettere in cattiva luce l’Ucraina e i suoi alleati; dall’altra emergono fenomeni di interferenza che investono il calendario elettorale e il dibattito pubblico in diversi Paesi europei. I singoli episodi, tuttavia, acquistano pieno significato solo se collocati nel quadro più ampio del FIMI: un insieme di pratiche che non mira soltanto a convincere, ma anche a confondere, polarizzare, delegittimare e destabilizzare, anche per sovvertire e stabilizzare in modo malevolo.

Come funziona una campagna di interferenza FIMI

Per risultare efficace, una campagna FIMI richiede risorse economiche, capacità organizzative e competenze comunicative. I fondi servono, ad esempio, per sponsorizzazioni, promozione dei contenuti, acquisto di infrastrutture digitali, registrazione di domini, impiego di proxy e moltiplicazione dei punti di diffusione. Allo stesso tempo, il digitale e gli strumenti basati sull’AI hanno ridotto i costi di scala, rendendo le attività di interferenza relativamente economiche, rapide da organizzare e facili da distribuire su larga scala. Insomma, non si tratta solo di “advertising”, ma di infrastruttura operativa.

Le competenze richieste non sono soltanto computazionali. Contano, spesso di più, la padronanza delle tecniche di comunicazione, la conoscenza delle dinamiche dei sistemi/sottosistemi mediali e la comprensione dei processi di formazione del consenso. A ciò si aggiunge un elemento decisivo, l’interpretazione dinamica dei comportamenti umani. Per essere efficaci, i contenuti devono innestarsi, in modo artatamente aderente, su paure, risentimenti, traumi, identità e aspettative già presenti nello spazio pubblico.

In questo quadro, lo storytelling manipolativo, oggi sempre più visuale e sintetico, tende a fare leva sulle emozioni più attivanti: paura, indignazione, umiliazione, senso di minaccia, nostalgia, desiderio di protezione, traducendole in framework narrativi semplici, riconoscibili e culturalmente compatibili con il pubblico di riferimento. È così che riemergono topoi classici dell’immaginario propagandistico: l’uomo forte che protegge il popolo, la comunità assediata, il tradimento delle élite, la superiorità morale di modelli alternativi, la rappresentazione idealizzata della vita quotidiana nei Paesi presentati come antagonisti dell’Occidente.

Le fasi di una campagna FIMI

Operativamente, una campagna FIMI tende a svilupparsi per fasi. Prima individua una vulnerabilità: una crisi, un’elezione, una tensione identitaria, una paura collettiva. Poi confeziona un frame narrativo semplice ma ad alta intensità emotiva. Successivamente lo semina in ambienti favorevoli, account anonimi, reti ideologicamente predisposte, siti opachi, community già polarizzate, e quindi lo fa circolare su più piattaforme, sia mainstream che fringe.

Infine, il contenuto viene “domesticato” da relè locali, Il messaggio viene mediato da snodi locali di rilancio, che lo rendono coerente con i repertori discorsivi del pubblico destinatario, il contenuto viene ri-semantizzato da attori locali che ne rendono possibile l’integrazione nei quadri interpretativi del contesto culturale/subculturale ricevente: pagine, commentatori, pseudo-testate, influencer o attori politici che lo ripresentano come tema interno, spontaneo e plausibile. È in questo passaggio che l’interferenza esterna diventa conflitto domestico.

Il messaggio viene quindi calibrato con notevole abilità, spesso in modo sottile, per inserirsi nelle fratture già esistenti del dibattito pubblico senza apparire immediatamente come propaganda. Più che imporre apertamente una visione, queste campagne cercano spesso di orientare percezioni, rafforzare la sfiducia, polarizzare le opinioni e accrescere la credibilità di narrazioni alternative, facendole apparire spontanee, autentiche o semplicemente controcorrente.

Interferenza nelle elezioni: il caso ungherese

Un caso significativo è quello delle azioni di disinformazione collegate alle prossime elezioni ungheresi. NewsGuard ha ricondotto alla campagna russa Matryoshka alcuni contenuti fake, in particolare sulla piattaforma X, destinati a colpire l’Ucraina e, al contempo, a danneggiare Peter Magyar, candidato avversario del presidente uscente Viktor Orbán, considerato vicino al Cremlino. Tra le false narrazioni diffuse vi è quella di una presunta “HIV squad” di donne ucraine inviate da Zelensky per contagiare uomini ungheresi; in un altro caso, mediante l’uso illecito del logo Microsoft, si sosteneva che hacker ucraini stessero attaccando i siti governativi ungheresi.

Questi esempi sono particolarmente interessanti perché mostrano tre tratti tipici del FIMI:

  • la sessualizzazione e/o biologizzazione della minaccia, che punta a suscitare disgusto e allarme morale;
  • l’appropriazione di marchi e/o simboli istituzionali per trasferire autorevolezza al falso;
  • l’uso di piattaforme veloci e altamente visibili per accelerare la circolazione del frame prima che intervengano verifiche o smentite.

Sono inoltre emersi account anonimi su TikTok, non esplicitamente riconducibili a un singolo Stato, con contenuti fake e AI-generated volti al sostegno di Orbán. Il punto, in questo caso, non è soltanto l’anonimato, ma la difficoltà attributiva tipica delle operazioni contemporanee di influenza. Una parte delle campagne lavora infatti in aree grigie, dove la relazione tra mandante, intermediario, opportunista locale e semplice amplificatore resta deliberatamente opaca.

Peter Magyar ha accusato apertamente Orbán e il suo partito di aver promosso, con la complicità dei servizi segreti russi, una campagna di disinformazione ai suoi danni. Al di là delle accuse politiche, il punto strutturale resta il seguente: le campagne di influenza hanno maggiore efficacia quando riescono a innestarsi su un conflitto politico già acceso, perché in quel contesto il falso non entra nel vuoto, ma si appoggia a schieramenti, sospetti e comunità interpretative preesistenti. In tal senso occorre ricordare che per molti aspetti ci troviamo ancora in uno scenario post-pandemico sul quale tra l’altro si sono accumulate diverse crisi ancora aperte.

Il Centro Pompidou come rifugio per migranti: il falso sulle comunali di Parigi

Nei giorni scorsi NewsGuard ha individuato un sito contraffatto, costruito per imitare quello ufficiale della campagna di Pierre-Yves Bournazel, candidato a sindaco di Parigi per Horizons/Renaissance. Il 4 marzo 2026, quel sito falso sosteneva che Bournazel intendesse trasformare il Centro Pompidou in una struttura destinata ad accogliere migranti senza fissa dimora.

La tecnica del cloning reputazionale

Il caso è particolarmente significativo perché mostra una delle tecniche più efficaci delle campagne FIMI: il cloning reputazionale. Non si produce soltanto un contenuto ingannevole, si costruisce un contenitore credibile, che imita l’identità visiva, il tono e la legittimità di un attore reale. In questo modo il bersaglio non è solo il candidato, ma il rapporto fiduciario tra cittadino, fonte e spazio pubblico.

In vista del voto, le autorità francesi avevano già segnalato il rischio di operazioni di influenza e disinformazione riconducibili alla Russia, avvertendo che anche (ed in modo sempre più centrale) le elezioni locali possono costituire un target utile per attori stranieri interessati a destabilizzare il confronto pubblico nell’ecosistema cyber-sociale. L’interesse per il livello locale non è secondario: al contrario, si tratta di target particolarmente appetibili sul piano delle vulnerabilità da sfruttare. Le competizioni territoriali presentano spesso costi di difesa più bassi, minore attenzione internazionale e una forte esposizione a temi emotivamente sensibili, come immigrazione, sicurezza urbana, degrado e identità civica.

Tale attività sarebbe riconducibile alle operazioni di influenza Storm-1516, già spin-off della celebre fabbrica russa di troll IRA, ma ormai infrastruttura operativa autointegrata. Bournazel non ha assunto in campagna posizioni pubbliche particolarmente nette sulla Russia e/o sulla guerra in Ucraina, ma la sua candidatura è sostenuta da Renaissance, il partito del presidente Emmanuel Macron, da tempo esposto a operazioni di influenza riconducibili a network pro-Cremlino. Anche questo è un aspetto tipico del FIMI: non sempre viene colpito il soggetto più visibile o ideologicamente più esposto, ma sempre più spesso viene colpito l’anello reputazionale e/o coalizionale che consente di targetizzare, indirettamente, un avversario più ampio.

Il sito da cui è partita la falsa affermazione risulta registrato in forma anonima il 26 febbraio 2026 e comparso online pochi giorni prima della pubblicazione del contenuto ingannevole. Questo tipo di temporalità rapida è tipico delle operazioni opportunistiche: dominio recente, finestra di attacco breve, elevata intensità di diffusione, possibile abbandono o sostituzione dell’asset una volta esaurita la sua utilità.

Disinformazione russa e piattaforme: cosa mostra il report Meta

Le tecniche e, più in generale, l’evoluzione multiforme del fenomeno FIMI emerge con chiarezza anche dal report Adversarial Threat Report – First Half 2026 di Meta. Oltre alle analisi di dettaglio, il documento mostra la persistenza di reti di coordinated inauthentic behavior riconducibili a Russia, Cina e Iran, e dunque conferma che le piattaforme restano uno dei principali teatri di interferenza informativa.

Tra gli schemi ricorrenti rilevati da Meta vi sono l’appropriazione dell’identità di media apparentemente indipendenti, l’impiego di marchi e testate localizzate per sembrare attori nazionali e una presenza distribuita su più piattaforme per rafforzare la credibilità dell’operazione. Questo punto è decisivo: la credibilità, oggi, non nasce soltanto dall’autorevolezza della singola fonte, ma dalla convergenza apparente di più fonti, più formati e più spazi di circolazione.

Dal punto di vista analitico, conviene distinguere le funzioni dei diversi ambienti digitali:

  • alcune piattaforme servono ad accelerare e rendere virale il frame;
  • altre a normalizzarlo presso pubblici più ampi;
  • altre ancora a dargli profondità narrativa, memoria audiovisiva e/o persistenza nel tempo.

A queste si aggiungono siti pseudo-informativi e domini opachi, che svolgono una funzione essenziale di content-laundering, trasformando il contenuto propagandistico in un apparente articolo, rendendolo indicizzabile, citabile e riutilizzabile da altri attori.

Le reti smantellate da Meta: obiettivi Africa sub sahariana, Moldavia, Ucraina e Armenia

Nel report, Meta spiega di aver smantellato una rete riconducibile alla Russia che prendeva di mira il pubblico dell’Africa subsahariana, presentandosi come insieme di fonti informative locali e/o popolari. La campagna amplificava risentimenti storici nei confronti delle ex potenze coloniali, promuoveva narrazioni antioccidentali e rappresentava la Russia come unica valida alternativa economica e politica. Il caso mostra in modo evidente come il FIMI non impone sempre temi completamente estranei ai contesti locali, più spesso seleziona fratture già esistenti e le organizza in un sistema di narrazioni coerente, emotivamente efficace e geopoliticamente orientato.

La rete ha inoltre utilizzato contenuti generati con l’AI per rafforzare la credibilità degli account, delle immagini profilo, dei post e dei contenuti di influenza. È qui che l’AI acquista rilievo strategico, non solo perché consente di creare falsi audiovisivi, ma perché abbassa il costo della distanza linguistica, della moltiplicazione dei contenuti, della variazione dei registri, della personalizzazione dei messaggi e del test – in tempo reale – di formati diversi su pubblici differenti. Si tratta, quindi, di MUAI come moltiplicatore industriale della manipolazione, non solo riduttivamente come fabbrica di deepfake.

Meta ha inoltre smantellato un’altra rete, sempre attribuita alla Russia, attiva verso circa venti Paesi tra Ucraina, Moldavia, Armenia e diversi Stati africani e mediorientali. L’operazione si distingueva per l’enfasi sui video brevi, per la capacità di diffusione organica e per il ricorso all’impersonificazione di entità diplomatiche e testate giornalistiche. Anche in questo caso emerge una caratteristica strutturale del FIMI contemporaneo, ossia la combinazione tra contenuti sintetici e/o manipolati, identità imitate, distribuzione multi-piattaforma e infrastrutture tecniche pensate per eludere rilevamento e attribuzione.

La costruzione simbolica di Putin sui social

In questo contesto, da quando la prima bomba è caduta sull’Iran, la rappresentazione di Vladimir Putin nei contenuti circolanti online sembra aver conosciuto una nuova intensificazione. Nei discorsi social il presidente russo viene spesso raffigurato come il vero vincitore simbolico della crisi, non solo per ragioni geopolitiche o energetiche, ma soprattutto per il modo in cui viene narrato.

Nei contenuti propagandistici Putin viene costruito come figura di forza, controllo, stile e padronanza di sé, al contempo però come uomo capace di tenerezza verso bambini e animali, galanteria verso le donne, compostezza pubblica ed eleganza personale. Si tratta di un repertorio classico della propaganda personalistica attraverso l’umanizzazione del potente senza privarlo della sua aura di comando, così da renderlo insieme eccezionale e vicino all’ordinario, al popolo.

I contenuti utilizzati per questa costruzione possono essere genuini, decontestualizzati e/o sintetici. Talvolta si tratta di semplici raccolte di frame provenienti da apparizioni pubbliche reali; in altri casi si ricorre a prodotti più apertamente manipolati o deepfake, anche in chiave satirica o pseudo-satirica, per consolidare familiarità, simpatia e riconoscibilità. Infatti nel FIMI contemporaneo il confine fra propaganda seria, ironia, meme culture e manipolazione sintetica è spesso intenzionalmente poroso.

Screenshot di AgendaDigitale.eu da un account Instagram che diffonde contenuti pro-Cremlino

Numerosi influencer contribuiscono inoltre alla circolazione di narrazioni filorusse. Alcuni sono persone reali, altri potrebbero essere identità sintetiche e/o profili dalla trasparenza limitata. Anche qui il nodo non è solo “chi parla”, ma la funzione svolta nel circuito in termini di legittimazione, normalizzazione, desiderabilità o apparente spontaneità di una determinata visione del conflitto e dell’ordine internazionale.

Oltre il contenuto falso

In conclusione, il FIMI non opera soltanto attraverso la falsificazione puntuale di un contenuto, ma mediante la costruzione di un’infrastruttura cyber-sociale, un ambiente informativo favorevole alla manipolazione. Per questo le campagne più efficaci non sono necessariamente quelle che inventano di più, bensì quelle che sanno riconoscere meglio le vulnerabilità preesistenti di una determinata società, come sfiducia, polarizzazione, sovraccarico informativo, dipendenza dalle piattaforme, crisi della mediazione giornalistica, disponibilità di attori locali pronti a rilanciare ciò che conviene loro.

In tale prospettiva, l’AI, in particolare il MUAI, malicious use of AI, non rappresenta una rottura assoluta, ma un potente acceleratore che rende la manipolazione più economica, più rapida, più adattabile ai contesti locali – talvolta più desiderabile – e più difficile da attribuire. Il rischio, dunque, non è soltanto vedere più propaganda, ma assistere a una sua progressiva industrializzazione.

Per questa ragione, comprendere il FIMI significa andare oltre il singolo post virale o la singola fake news. Significa chiedersi chi costruisce il frame, chi lo rilancia, chi lo rende credibile, chi lo adatta al contesto locale e chi, infine, riesce a trasformarlo in un fattore di potere, di pressione o di destabilizzazione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x