La guerra ibrida combina metodi convenzionali e non convenzionali, inclusi strumenti politici, economici, psicologici e cibernetici, con l’obiettivo di influenzare i processi decisionali di una nazione avversaria mantenendo una plausibile negabilità. Una componente cruciale di questa strategia è la manipolazione dello spazio informativo online attraverso la diffusione di disinformazione e messaggi polarizzanti, mirati a influenzare l’opinione pubblica e generare instabilità politica.
Indice degli argomenti
Le interferenze straniere come minaccia alla democrazia
L’Unione Europea ha riconosciuto la gravità di queste minacce con l’adozione del Digital Services Act. Tale regolamentazione impone alle principali piattaforme online il monitoraggio attivo dei rischi associati alla diffusione di contenuti che possono compromettere i processi democratici negli stati membri. Parallelamente, il World Economic Forum ha classificato, sia nel 2024 che nel 2025, la disinformazione e la misinformazione come i principali rischi globali.
Le interferenze straniere nel dibattito socio-politico online hanno radici profonde, risalendo alle elezioni presidenziali americane del 2016. Il rapporto Mueller del Dipartimento della Giustizia americano ha documentato operazioni “ampie e sistematiche” da parte della Internet Research Agency (IRA). Detta organizzazione, con sede a San Pietroburgo, ha creato migliaia di account sui social media per influenzare l’elettorato statunitense. Si stima che solo su Facebook queste operazioni abbiano raggiunto circa 126 milioni di persone, quasi l’intero numero di votanti delle elezioni del 2016 (~128 milioni).
Dal 2016, sia istituzioni governative che piattaforme online hanno identificato svariate e celate campagne di influenza in tutto il mondo. Facebook, ad esempio, pubblica regolarmente report sui tentativi di manipolazione rilevati dal loro team di sicurezza. La Relazione al Parlamento 2025 dei servizi segreti italiani ha dedicato un intero capitolo ai rischi della guerra ibrida online, mappando le interferenze registrate nell’ultimo anno.
Casi concreti di interferenze straniere in Europa
Un caso emblematico è rappresentato dalle elezioni presidenziali romene del 2024, annullate dalla corte costituzionale romena a seguito di un report dei servizi segreti locali che evidenziava un’operazione di influenza russa su TikTok a favore del candidato filo-russo Georgescu.
Questa decisione ha spinto la Commissione Europea a indagare sulle misure adottate da TikTok per garantire l’integrità delle informazioni sulla propria piattaforma durante il periodo elettorale.
Inoltre, nel 2023, la Commissione ha istituito il FIMI-ISAC, un organismo volto a riunire i principali gruppi europei di ricercatori ed esperti nella rilevazione di campagne di influenza online, sottolineando l’importanza di un approccio coordinato nella lotta alla disinformazione.
La ricerca IA per proteggere i cittadini europei dalle interferenze straniere
La rilevazione di interferenze straniere online richiede la capacità di analizzare vasti volumi di contenuti in uno spazio informativo altamente dinamico. Tuttavia, sfide significative emergono da un lato per l’enorme quantità di dati generati quotidianamente e dall’altro per le politiche restrittive delle piattaforme social sull’accesso ai dati da parte dei ricercatori.
L’intelligenza artificiale offre strumenti promettenti per affrontare queste sfide, permettendo l’identificazione automatica di potenziali interferenze straniere. L’ICAR-CNR, istituto di ricerca con sede a Rende (CS), è impegnato nello sviluppo di metodologie IA per la rilevazione automatica di interferenze sui social media. In collaborazione con la University of Southern California e l’istituto CENTAI, ha recentemente prodotto studi pubblicati in contesti scientifici internazionali. Uno di questi studi ha sviluppato una metodologia per rilevare interferenze multi-piattaforma, applicata ai dati raccolti prima delle elezioni presidenziali americane del 2024. Questo approccio ha consentito l’identificazione di un migliaio di account attivi su Telegram e Twitter con cui venivano amplificati artificiosamente sia l’engagement verso contenuti legati al governo russo, sia teorie del complotto come QAnon e sia testate di estrema destra, note per la diffusione di informazioni poco accurate. I risultati di questi studi sono stati citati anche da testate americane di rilievo, evidenziando l’importanza della ricerca in questo settore.
Modelli fondazionali di intelligenza artificiale contro le interferenze
Un altro studio, svolto sempre dall’ICAR-CNR in collaborazione con la University of Southern California, ha focalizzato la propria attenzione sulla creazione di un modello fondazionale per rilevare la presenza di interferenze straniere online. A tal fine i ricercatori, ispirandosi alle capacità generaliste dei modelli come ChatGPT, hanno ipotizzato che si potesse sviluppare un unico modello in grado di individuare account malevoli nell’ambito di diversi scenari geopolitici online. Utilizzando modelli linguistici e reti neurali su grafo, hanno proposto un primo modello fondazionale in grado di rilevare campagne di manipolazione che si svolgono in diversi contesti e con l’adozione di tattiche eterogenee. Detta ricerca è stata presentata nel mese di marzo 2025 alla conferenza internazionale AAAI, una delle più importanti conferenze accademiche sull’IA, tenutasi a Philadelphia. Le attività di ricerca si inseriscono nel contesto dei progetti PNRR, focalizzati sullo sviluppo di modelli di IA per garantire uno spazio online più sicuro e affidabile per gli utenti.
Prospettive per la ricerca IA nell’ambito della protezione dello spazio informativo online
Il contesto geopolitico attuale evidenzia la crescente minaccia rappresentata dalle interferenze straniere sui social media. È essenziale rilevare e contrastare efficacemente queste operazioni per preservare l’integrità del dibattito pubblico e la legittimità dei processi democratici.
In tale scenario, l’intelligenza artificiale può rappresentare uno strumento chiave per potenziare le capacità di analisi e intervento delle istituzioni e delle stesse piattaforme digitali. Tuttavia, affinché queste tecnologie possano esprimere pienamente il loro potenziale, è necessario garantire un accesso a dati adeguati, una proficua collaborazione tra attori pubblici e privati, e un solido quadro normativo di riferimento.
Solo attraverso un approccio coordinato tra ricerca scientifica, policy e responsabilità industriale sarà possibile costruire uno spazio informativo più sicuro e resiliente, in grado di resistere alle manipolazioni, tutelando nel contempo la qualità dei processi di sviluppo democratici.