Negli ultimi anni si parla costantemente di cybersecurity, che grazie al cielo è diventata una priorità istituzionale, oltre che normativa e industriale. Direttive europee, strategie nazionali, investimenti in resilienza digitale e protezione delle infrastrutture critiche hanno consolidato l’idea che la sicurezza coincida principalmente con la protezione tecnica dei sistemi.
Parallelamente, si è sviluppata una nuova dimensione apparentemente meno visibile, ma altrettanto strategica e pericolosa e parlo della sicurezza cognitiva. Attacchi informativi, disinformazione coordinata, manipolazione algoritmica e saturazione dello spazio comunicativo incidono sui processi decisionali collettivi con effetti che possono risultare più profondi rispetto a un attacco tecnico tradizionale. Le vulnerabilità contemporanee eravamo abituati a collocarle soltanto nelle reti o nei server, oggi invece è necessario fare un passo in avanti e andarle a cercare nei meccanismi attraverso cui si forma la conoscenza, si costruisce una narrativa e si orienta la percezione del rischio.
Indice degli argomenti
Come la sicurezza cognitiva ridefinisce lo spazio informativo
Il punto di partenza è che un’informazione non produce effetti esclusivamente per il suo contenuto. Un’informazione produce effetti soprattutto per la sua distribuzione, per la sua ripetizione e per la contestualizzazione. Questo significa che la percezione di verità può derivare non tanto dal contenuto stesso, quanto dalla diffusione capillare di un messaggio, dalla sua presenza simultanea su più piattaforme e dall’apparente convergenza di fonti diverse.
L’industrializzazione della produzione comunicativa tramite sistemi di intelligenza artificiale ha abbattuto i costi marginali della persuasione su larga scala con l’effetto che milioni di interazioni sintetiche possono simulare consenso, generare tendenze artificiali e possono perfino orientare conversazioni pubbliche. La tecnica dell’astroturfing digitale consente di presentare come spontaneo ciò che è orchestrato. Parliamo di una tecnica di manipolazione dell’opinione pubblica che consiste nel simulare un consenso spontaneo attorno a un’idea, un prodotto, una decisione politica o una narrativa, quando in realtà tale consenso è artificialmente orchestrato.
Astroturfing digitale e consenso simulato
Il termine deriva da AstroTurf, un marchio di erba sintetica, e indica quindi qualcosa che sembra “dal basso” (erba naturale) ma è in realtà costruito artificialmente.
Il risultato incide sul processo di deliberazione collettiva. Se la visibilità diventa criterio di verità, la capacità di distinguere tra consenso autentico e consenso simulato si riduce e la sicurezza della conoscenza assume quindi una dimensione infrastrutturale.
Sicurezza cognitiva e saturazione dello spazio pubblico
In un intervento pubblicato su Il Sole 24 Ore il 18 febbraio 2026, Paolo Benanti ha utilizzato un’immagine estremamente efficace, ovvero un attacco di tipo DOS, denial of service applicato alla sfera pubblica. L’analogia richiama un meccanismo oggi molto noto in ambito informatico, un attacco che non mira a distruggere il sistema, ma che lo rende inutilizzabile saturandolo.
Trasposta nel dominio cognitivo, la saturazione informativa può paralizzare consultazioni, petizioni, spazi di confronto e canali di feedback istituzionali. Flussi coerenti ma non umani possono occupare lo spazio pubblico fino a rendere opaca la distinzione tra partecipazione autentica e intervento automatizzato. E la questione assume un rilievo strutturale quando la capacità di distinguere tra umano e sintetico si attenua. La fiducia nelle dinamiche deliberative si indebolisce, la responsabilità decisionale si frammenta e la sovranità cognitiva, intesa come capacità collettiva di formare giudizi informati, subisce una evidente compressione.
Manipolazione algoritmica e alterazione della percezione del rischio
Gli algoritmi di raccomandazione, sappiamo ormai tutti molto bene, hanno la capacità di influenzare l’ordine di esposizione alle informazioni, amplificando contenuti in base a logiche di engagement. La costruzione della percezione del rischio avviene attraverso l’accumulazione di segnali ripetuti e coerenti.
La reiterazione di una narrativa può produrre una normalizzazione progressiva di comportamenti devianti, una delegittimazione di istituzioni di controllo o una rappresentazione distorta di minacce reali. L’effetto non richiede necessariamente falsità manifeste, perché può derivare da una selezione parziale dei dati, da un framing emotivo o da un uso strategico di codici simbolici.
Esperienze documentate in diversi contesti internazionali mostrano come ecosistemi social possano essere utilizzati per attrarre giovani verso reti criminali o organizzazioni violente attraverso una combinazione di identità narrativa, intimidazione e promessa di appartenenza. Il controllo della percezione diventa parte integrante del controllo territoriale.
Sicurezza della conoscenza e dominio cognitivo
Il concetto di dominio cognitivo lo troviamo con crescente frequenza nei documenti strategici internazionali e l’informazione finisce per non rappresenta più soltanto un mezzo di comunicazione, diventando uno spazio operativo in cui si confrontano attori statuali e non statuali.
La sicurezza della conoscenza implica quindi la tutela dei processi che portano alla formazione di giudizi, opinioni e decisioni. Proteggere i sistemi informatici costituisce una condizione necessaria, ma garantire la qualità, la tracciabilità e la contestualizzazione delle informazioni rappresenta una condizione strategica.
Resilienza epistemica e sicurezza nazionale
Il baricentro si sposta dalla mera protezione tecnica alla resilienza epistemica. La capacità di riconoscere leve emotive, ricostruire fonte e contesto, identificare segnali di coordinamento artificiale diventa una nuova componente della sicurezza nazionale.
Perché la sicurezza cognitiva richiede educazione e governance
L’industrializzazione dell’influenza richiede una risposta multilivello ed è quindi necessario che strumenti tecnologici di rilevazione delle campagne coordinate debbano integrarsi con politiche educative orientate allo sviluppo del pensiero critico. Investire sui giovani significa fornire competenze per leggere controluce contenuti digitali, riconoscere dinamiche di prova sociale artificiale e analizzare la coerenza tra fonte e messaggio.
La governance dell’informazione richiede inoltre trasparenza algoritmica, accountability delle piattaforme e meccanismi di verifica dell’autenticità delle interazioni nello spazio pubblico digitale. Il tema della “prova di umanità” si posiziona in questo nuovo contesto come ipotesi di bilanciamento tra autenticità e tutela della privacy.
Sicurezza cognitiva e futuro della stabilità democratica
La sicurezza del futuro con questo approccio, riguarda la qualità dell’informazione prima ancora della sua protezione tecnica. Sistemi perfettamente difesi dal punto di vista informatico possono operare in un ambiente cognitivo alterato, dove decisioni pubbliche e private risultano influenzate da narrazioni orchestrate. Il passaggio dalla sicurezza dei sistemi alla sicurezza della conoscenza richiede un ampliamento del paradigma. Intelligence, cybersecurity, regolazione delle piattaforme digitali e politiche educative convergono in una visione sempre più integrata.
La stabilità istituzionale, la tenuta democratica e la competitività economica dipendono sempre più dalla capacità di proteggere il processo attraverso cui una società costruisce la propria rappresentazione della realtà.
Bibliografia
• Benanti, P., “AI: inizia la sostituzione di processi cognitivi complessi e creativi”, Il Sole 24 Ore, 18 febbraio 2026.
• NATO, Cognitive Warfare, NATO Innovation Hub, 2020.
• European External Action Service (EEAS), EUvsDisinfo Reports, vari anni.
• UNESCO, Guidelines for the Governance of Digital Platforms, 2023.
• Zuboff, S., The Age of Surveillance Capitalism, PublicAffairs, 2019.
• Vosoughi, S., Roy, D., Aral, S., “The Spread of True and False News Online”, Science, 2018.














