Per molto tempo la guerra psicologica è stata associata a forme tradizionali di propaganda: volantini lanciati oltre le linee nemiche, trasmissioni radiofoniche, campagne di influenza costruite attorno alla paura, alla persuasione, alla menzogna o alla demoralizzazione dell’avversario.
Indice degli argomenti
Dalla propaganda classica alla guerra psicologica digitale
Oggi, però, quella stessa logica ha cambiato scala, velocità e profondità. Non si combatte più soltanto per occupare territori, distruggere infrastrutture o neutralizzare apparati militari. Si combatte per orientare il significato degli eventi, per alterare la percezione della realtà, per erodere fiducia, per modellare emozioni collettive e per spingere società intere verso stati di incertezza, polarizzazione o paralisi decisionale. È questo il cuore della guerra psicologica nell’era digitale.
La guerra psicologica come fenomeno multidimensionale
La guerra psicologica contemporanea è divenuta un fenomeno multidimensionale, alimentato dalla convergenza tra social media, intelligenza artificiale, data analytics, cyber warfare e tecniche di manipolazione cognitiva. L’informazione, in questo scenario, non è più solo un bene da proteggere o un mezzo per comunicare, ma una vera arma strategica. Chi controlla la narrativa, chi riesce a spingere una falsa percezione dentro il circuito emotivo e cognitivo di una popolazione, può ottenere vantaggi politici, militari, economici e geopolitici senza necessariamente ricorrere a un confronto cinetico diretto.
La fiducia è sotto attacco
La novità radicale del nostro tempo non è dunque soltanto la presenza di nuove tecnologie, ma il fatto che esse consentono di colpire il bersaglio più sensibile di ogni sistema democratico e di ogni struttura sociale: la fiducia. Fiducia nelle istituzioni, nei media, nei processi elettorali, nelle autorità pubbliche, nei leader, nelle fonti informative, perfino nei propri sensi quando la realtà audiovisiva può essere alterata con un deepfake quasi indistinguibile dal vero.
La guerra psicologica digitale è tanto più insidiosa quanto più riesce a rendere opaca la distinzione tra vero e falso, autentico e manipolato, spontaneo e artificiale.
La guerra psicologica digitale, un fenomeno collaterale del cyberspazio
In questo quadro, il tema non riguarda soltanto i conflitti aperti tra Stati, bensì la tenuta delle democrazie, la sicurezza nazionale, la resilienza sociale, la stabilità del dibattito pubblico e la capacità dei cittadini di esercitare un giudizio autonomo in ambienti informativi fortemente contaminati.
Per questo la guerra psicologica digitale non può essere letta come un fenomeno collaterale del cyberspazio: è ormai uno dei teatri principali della competizione strategica globale.
La trasformazione del conflitto: dal dominio fisico al dominio cognitivo
L’elemento cruciale della questione risiede nel fatto che i moderni conflitti non si consumano più in modo separato tra dominio fisico e dominio informativo, poiché i due livelli si compenetrano. L’azione militare, la pressione diplomatica, la coercizione economica, le campagne cyber e l’influenza mediatica fanno parte di un’unica architettura operativa, all’interno della quale la dimensione cognitiva assume un ruolo decisivo perché precede, accompagna e consolida tutte le altre.
Prima ancora di vincere sul terreno, un attore ostile mira a creare disorientamento, divisione, confusione e sfiducia nell’opinione pubblica dell’avversario. Ciò significa che la vittoria non coincide più soltanto con la capacità di imporre una superiorità materiale. Può coincidere con la capacità di far dubitare una società della propria leadership, di esasperarne le fratture identitarie, di moltiplicare narrazioni contraddittorie, di produrre affaticamento cognitivo.
Quando i cittadini smettono di distinguere il vero dal falso o iniziano a credere che ogni verità sia manipolata, si genera un effetto corrosivo che favorisce l’attore aggressore. Non serve convincere tutti di una singola menzogna; spesso basta far credere che nulla sia verificabile. Ed è esattamente in questo scenario che la guerra psicologica digitale si mostra particolarmente efficace: non sempre costruisce consenso, ma quasi sempre può demolire coesione.
Questa evoluzione si sviluppa enormemente grazie alla crescita di strumenti come intelligenza artificiale, big data analytics, social networking platforms e tecnologie di generazione sintetica dei contenuti. Tali strumenti consentono campagne molto più mirate rispetto al passato.
Se la propaganda novecentesca era tendenzialmente massiva e parlava a tutti con messaggi simili, quella algoritmica contemporanea segmenta, profila, personalizza, adatta il contenuto a comunità specifiche, intercetta vulnerabilità emotive e pregiudizi cognitivi. In altre parole, la guerra psicologica non colpisce più soltanto le masse: entra nel dettaglio delle micro-comunità e delle identità digitali. Questa mutazione produce un cambiamento anche nel rapporto tra attori statali e non statali.
Se in passato la capacità di condurre operazioni psicologiche su larga scala era quasi monopolio degli apparati pubblici, oggi gruppi estremisti, cybercriminali, reti ideologiche, organizzazioni ibride e soggetti opportunistici possono sfruttare piattaforme globali e strumenti a basso costo per influenzare il discorso pubblico. Il risultato è una guerra cognitiva più diffusa, frammentata e persistente, nella quale la linea tra ostilità militare, sabotaggio informativo, attivismo radicale e criminalità cyber può diventare estremamente sottile.
Disinformazione e misinformation: il potere destabilizzante delle narrazioni false
Uno dei cardini su cui si basa la guerra psicologica è rappresentato dalla distinzione tra misinformation e disinformation.
La differenza tra misinformation e disinformation
La prima riguarda contenuti falsi o fuorvianti diffusi senza un intento necessariamente malevolo; la seconda consiste invece in informazioni deliberatamente ingannevoli, costruite e diffuse con l’obiettivo di manipolare percezioni e comportamenti. Questa distinzione è cruciale, poiché nella guerra psicologica digitale spesso i due fenomeni si alimentano a vicenda. Un’operazione di disinformazione pianificata da un attore ostile può trasformarsi, attraverso la viralità delle piattaforme, in un’enorme ondata di misinformation spontanea prodotta dagli utenti che condividono senza verificare.
Le narrazioni false come leva di destabilizzazione
La forza destabilizzante della disinformazione risiede nella sua capacità di inserirsi dentro fratture sociali già esistenti. Non crea sempre da zero le divisioni, ma più spesso le intercetta, le amplifica e le radicalizza. Se una società è già polarizzata su temi politici, identitari, sanitari, etnici o geopolitici, la campagna informativa ostile troverà terreno oltremodo fertile.
I contenuti che confermano convinzioni pregresse o che suscitano indignazione morale tendono infatti a diffondersi con maggiore facilità. Questo processo produce implicazioni enormi per la sicurezza nazionale. Una campagna ben congegnata, ad esempio, può mettere in crisi la credibilità delle istituzioni democratiche, delegittimare il processo elettorale, alimentare proteste, orientare segmenti dell’opinione pubblica contro misure governative o contro alleanze internazionali.
Un esempio a tal proposito è quello del caso dell’interferenza russa nelle elezioni presidenziali statunitensi del 2016, citato come paradigma di operazioni d’influenza che utilizzano social media, bot, contenuti divisivi e targeting politico per alterare il contesto decisionale. Al di là del singolo caso, il punto centrale è che la guerra psicologica digitale può incidere sugli esiti politici senza bisogno di occupare fisicamente alcun territorio.
Questo significa che il dibattito sulla disinformazione non può essere ridotto a una questione di fact-checking o moderazione dei contenuti. Siamo davanti a un problema strutturale di sicurezza cognitiva. Una democrazia con un ecosistema informativo compromesso è una democrazia esposta a manipolazioni sistemiche. Quando la sfera pubblica si trasforma in un’arena dove la verità compete ad armi impari con contenuti emotivamente più efficaci, la vulnerabilità non è solo comunicativa: è istituzionale.
Social media, algoritmi, echo chamber e intelligenza artificiale: l’architettura tecnica della manipolazione
Va evidenziato che le piattaforme digitali non sono semplici canali neutri. Il loro design, i loro algoritmi di raccomandazione, i modelli di engagement e le logiche economiche della visibilità contribuiscono a rendere l’ambiente informativo particolarmente permeabile alle operazioni psicologiche. In un ecosistema in cui l’attenzione è la risorsa scarsa e l’interazione emotiva viene premiata, contenuti polarizzanti, scandalistici o fuorvianti tendono a performare meglio di contenuti complessi, equilibrati e verificati. La guerra psicologica digitale prospera proprio in questa architettura. Un contenuto non deve essere vero per essere efficace; deve essere memorabile, virale, capace di attivare rabbia, paura, risentimento o senso d’urgenza. Gli algoritmi, ottimizzati per massimizzare permanenza e coinvolgimento, possono finire con l’amplificare messaggi che aumentano la frizione sociale.
Echo chamber, filter bubble e segmentazione del pubblico
Il fenomeno delle echo chamber e delle filter bubble, evidenziano come questi ecosistemi digitali siano in grado di esporre gli utenti a contenuti coerenti con le proprie convinzioni, riducendo il contatto con il dissenso e rafforzando la chiusura cognitiva. Queste dinamiche hanno due conseguenze strategiche: la prima è che rendono le popolazioni più segmentabili e più prevedibili: gruppi diversi reagiscono a stimoli diversi, e gli attori ostili possono testare quali narrazioni generano maggiore impatto; la seconda è che trasformano la manipolazione in un fenomeno adattivo: non si diffonde un solo messaggio uguale per tutti, ma una costellazione di messaggi calibrati per comunità differenti: a ciascun gruppo viene offerta la versione del mondo più adatta a confermarne paure, sospetti o ostilità.
Governance delle piattaforme e accountability
Per questa ragione, parlare di guerra psicologica nell’era digitale vuol dire anche interrogarsi sulla governance delle piattaforme. A tal proposito si rende necessaria l’adozione di framework regolatori e di accountability per i social media, anche se la questione è ancora più ampia e riguarda la trasparenza degli algoritmi, la tracciabilità delle campagne coordinate, la rilevazione dei comportamenti inautentici, la limitazione delle reti automatizzate e la capacità di intervenire in modo efficace senza compromettere la libertà di espressione. La sfida non è semplice, perché la stessa infrastruttura che consente la partecipazione democratica può essere sfruttata per condurre offensive cognitive su vasta scala.
Deepfake, credibilità e crisi della prova visiva
Se la disinformazione testuale ha già prodotto danni rilevanti, l’ingresso massiccio dell’intelligenza artificiale generativa apre una fase ancora più critica.
È noto a tutti il massiccio utilizzo dei deepfake, ossia contenuti sintetici audio e video generati con tecniche di machine learning capaci di simulare volti, voci e comportamenti in modo estremamente realistico.
Il problema epistemico dei contenuti sintetici
Il problema non è soltanto tecnologico, ma epistemico. Per decenni l’immagine e il video hanno goduto di un valore probatorio superiore rispetto al semplice racconto verbale. Attualmente questo presupposto è messo fortemente in discussione. Un deepfake può essere impiegato per fabbricare discorsi politici, simulare dichiarazioni mai pronunciate, produrre falsi ordini operativi, danneggiare reputazioni, innescare tensioni diplomatiche, alterare mercati finanziari o creare panico in situazioni di crisi.
Tali contenuti possono minare la credibilità dei media digitali e rendere sempre più difficile, per i cittadini, distinguere tra autentico e manipolato. Il rischio non si limita all’inganno immediato; investe anche il medio periodo, perché la diffusione di contenuti sintetici genera una cultura del sospetto generalizzato.
Il liar’s dividend e la crisi della prova audiovisiva
In termini strategici, questo comporta almeno tre effetti.
Il primo è l’aumento della velocità della manipolazione: un contenuto falso ma plausibile può circolare globalmente in pochi minuti.
Il secondo è l’abbassamento dei costi di produzione dell’inganno: strumenti che un tempo richiedevano risorse elevate diventano progressivamente accessibili.
Il terzo è il cosiddetto “liar’s dividend”: quando la manipolazione sintetica diventa diffusa, anche contenuti veri possono essere smentiti come falsi, offrendo ai soggetti colpiti uno spazio di negazione plausibile. In altre parole, i deepfake non danneggiano solo perché producono falsi credibili; danneggiano anche perché rendono meno credibili i veri.
Per un Paese democratico, ciò rappresenta una questione di sicurezza pubblica e istituzionale. In un contesto di emergenza, una falsa dichiarazione del capo del governo, di un ministro della Difesa o di una figura militare apicale potrebbe produrre effetti immediati su mercati, opinione pubblica, catene decisionali e ordine pubblico. Per questo motivo sarebbe auspicabile l’adozione di strumenti di verifica automatizzata, sistemi AI-driven di detection e meccanismi robusti di autenticazione dell’informazione, anche se va evidenziato che la tecnologia da sola non basta e senza un corretto percorso di alfabetizzazione critica e resilienza cognitiva ogni risposta sarà parziale.
Social engineering: quando la guerra psicologica entra nella cybersecurity
Un aspetto particolarmente risiede nello stretto legame in essere tra la guerra psicologica e la cyber security. Troppo spesso si pensa alle operazioni psicologiche come a qualcosa di separato dagli attacchi informatici. In realtà, le due dimensioni sono sempre più intrecciate.
Phishing, urgenza e manipolazione comportamentale
Il social engineering ne è la dimostrazione più evidente: tecniche come phishing, spear phishing, impersonificazione e coercizione psicologica sfruttano vulnerabilità umane per ottenere accesso a dati, sistemi o credenziali. Il punto cruciale risiede nel fatto che l’anello debole non è quasi mai soltanto tecnico, ma soprattutto cognitivo ed emotivo. L’attaccante non deve per forza violare una rete con sofisticati exploit se riesce a indurre un soggetto a cliccare, fidarsi, obbedire o condividere informazioni sensibili.
L’uso di contenuti apparentemente credibili, la costruzione di un senso di urgenza, la simulazione di autorità, l’attivazione della paura o dell’empatia sono tutte leve psicologiche in grado di trasformare un attacco cibernetico in un’operazione di manipolazione comportamentale.
Sicurezza cognitiva e difesa delle organizzazioni
In questo scenario si inseriscono le pratiche coercitive come ransomware e molestie digitali coordinate. Qui la dimensione psicologica è addirittura evidente: l’obiettivo non è semplicemente cifrare dati o bloccare servizi, ma generare pressione, ansia, panico, senso di impotenza e urgenza negoziale.
La cyber security, dunque, non può essere considerata efficace se resta confinata alla protezione delle infrastrutture tecniche; deve includere la protezione della capacità decisionale degli utenti e delle organizzazioni. Per imprese, amministrazioni pubbliche, università e infrastrutture critiche, questa indicazione risulta determinante: il perimetro di difesa va ridisegnato includendo awareness, formazione comportamentale, simulazioni, addestramento al riconoscimento di pattern manipolativi, protocolli di verifica delle identità e delle comunicazioni.
La sicurezza cognitiva è ormai parte integrante della sicurezza informatica. E ciò vale ancora di più in una fase storica in cui l’IA rende possibile costruire esche più personalizzate, realistiche e persuasive.
Effetti psicologici, emotivi e sociali: ansia, radicalizzazione, paranoia, frammentazione
La manipolazione informativa non produce solo errori di valutazione; produce effetti emotivi, identitari e relazionali.
Ansia, overload cognitivo e radicalizzazione
L’esposizione prolungata a narrazioni false, contenuti manipolativi, campagne d’odio, molestie coordinate o propaganda estremista può aumentare ansia, dissonanza cognitiva, sospettosità, sfiducia e radicalizzazione, poiché in un ecosistema informativo saturo, l’utente non è sottoposto soltanto a singoli messaggi.
Egli risulta immerso in flussi continui che possono generare overload cognitivo e affaticamento mentale, conducendolo all’interno di una condizione psicologica all’interno della quale la capacità di discernimento si abbassa. Le persone tendono a semplificare, a cercare scorciatoie interpretative, a rifugiarsi in comunità identitarie rassicuranti.
Proprio qui le operazioni psicologiche trovano terreno fertile: sfruttano la fatica cognitiva, offrono spiegazioni totali, individuano nemici, costruiscono appartenenza e forniscono una grammatica emotiva semplice per leggere il caos.
Polarizzazione e perdita di una realtà condivisa
Sul piano sociale, ciò si traduce in polarizzazione, conflittualità permanente, perdita di fiducia reciproca e indebolimento della sfera pubblica.
Se gruppi diversi abitano universi informativi incompatibili, la possibilità di deliberazione razionale si riduce. La guerra psicologica digitale, in questo senso, non mira solo a convincere o a ingannare: mira a rendere impossibile una base comune di realtà condivisa, e quando una società perde quella base comune, ogni processo democratico, ogni gestione della crisi, ogni politica pubblica diventa più fragile.
Guerra psicologica digitale e controllo delle narrative
Tale scenario è tipicamente quello riscontrabile nei regimi autoritari, nei quali gli strumenti digitali possono essere usati per sorveglianza, censura algoritmica e controllo sociale, anche se è possibile riscontrarlo anche nelle democrazie. L’infrastruttura digitale può essere usata per disciplinare il comportamento collettivo, silenziare dissenso, incentivare conformità o selezionare la visibilità di determinate narrative. L’effetto finale è sempre cognitivo: modellare ciò che gli individui percepiscono come pensabile, dicibile, credibile.












