Nell’era della comunicazione algoritmica e del tempo reale, in cui ogni impulso informativo è potenzialmente virale e ogni contenuto assume, suo malgrado, la forma della verità condivisa, la disinformazione strategica si configura come una delle più gravi minacce alla sicurezza democratica.
Indice degli argomenti
La nuova guerra dell’informazione: cos’è storm-1516
A riguardo è bene trattare il caso “Storm-1516”: operazione sofisticata e di ampio respiro che rappresenta emblematicamente il passaggio dalla propaganda tradizionale alla guerra cognitiva, nella quale la manipolazione dell’opinione pubblica sostituisce il confronto militare e l’arma principale diventa il controllo della narrazione.
Come funziona la disinformazione strategica di storm-1516
In particolare, l’indagine che ha portato alla luce la sua esistenza ha origine in un lavoro congiunto tra agenzie di intelligence, centri di ricerca indipendenti e organi giornalistici europei, coordinati attraverso il sistema dell’EU DisinfoLab e i canali della NATO StratCom.
Innanzitutto è bene specificare che la denominazione “Storm-1516” indica un’attività offensiva orchestrata da attori connessi all’intelligence russa, finalizzata a seminare discordia, sfiducia e polarizzazione all’interno dell’Unione Europea e dei suoi partner occidentali, sfruttando con perizia gli strumenti dell’informazione alterata; infatti – a differenza delle campagne grossolane del passato – l’operazione si articola attraverso una rete strutturata di siti web fraudolenti, perfette riproduzioni grafiche e strutturali di testate giornalistiche autorevoli, tra cui Le Monde, The Guardian, Bild, La Repubblica, ANSA e altre fonti di riferimento per il pubblico europeo.
Obiettivi e tecniche della manipolazione cognitiva
Questi portali-clone, gestiti da infrastrutture digitali riconducibili all’area post-sovietica, pubblicavano articoli falsi che riportavano notizie mai realmente pubblicate dalle redazioni ufficiali, ma scritte in modo da risultare verosimili e credibili, proprio grazie ad una raffinata architettura comunicativa: siti web costruiti ad arte per ricalcare lo stile e l’apparenza delle più autorevoli testate occidentali, contenuti redatti con padronanza stilistica e lessicale, investimenti economici significativi in sponsorizzazioni (e strategie SEO) e una capillare disseminazione sui social media attraverso una rete di account falsi.
Le narrazioni erano mirate: raccontavano di presunti crimini dell’Ucraina contro la propria popolazione, insinuavano che i governi europei fossero in procinto di abbandonare Kiev, lasciavano intendere un clima di collasso sociale ed economico in Europa a causa del supporto militare fornito all’Ucraina.
L’obiettivo era chiaramente duplice e ben congegnato: da un lato, minare la legittimità internazionale dell’Ucraina, facendo apparire il suo governo come violento, corrotto e incapace; dall’altro, insinuare nel dibattito pubblico europeo l’idea che l’appoggio all’Ucraina fosse un errore strategico e un fardello economico insostenibile. Si trattava, in sostanza, di inoculare nel corpo sociale occidentale una narrazione alternativa, apparentemente neutra, ma in realtà profondamente disgregante.
Limiti del diritto di fronte alla disinformazione transnazionale
In questo contesto, diventa chiaro che l’intero impianto del diritto dell’informazione e della proprietà intellettuale sono posti sotto assedio: si delinea, infatti, la necessità di ridefinire il perimetro di responsabilità in un ambiente in cui i contenuti non sono più localizzabili geograficamente, le fonti sono disseminate e la catena di comando editoriale si dissolve nella nebbia dell’anonimato digitale e proprio il diritto, che per secoli ha fondato la sua forza sulla possibilità di attribuire condotte e identità, si trova oggi disarmato di fronte a una soggettività multipla, simulata, distribuita in un cloud di identità fittizie.
Territorialità e imputabilità nel diritto penale digitale
Così frantumata la nozione stessa di soggetto imputabile, viene meno anche il tradizionale ancoraggio territoriale della pretesa punitiva statale: si rende allora urgente una riflessione sul principio di territorialità del diritto penale e sul carattere effimero della giurisdizione nazionale nel contesto cibernetico, quale ordinamento giuridico può efficacemente perseguire la falsificazione di un sito localizzato su server extraeuropei, ma rivolto al pubblico europeo? Quali strumenti ha un giudice per ordinare la rimozione di un contenuto gestito da un’entità priva di sede legale e dotata di identità mutanti? E ancora, qual è lo statuto giuridico della falsificazione digitale quando essa non mira al profitto individuale, bensì alla destabilizzazione sistemica?
La simulazione sociale attraverso reti automatizzate
Tuttavia, è anche vero che, il reale elemento di rottura, non risiedeva soltanto nella creazione di contenuti – così come descritti – bensì anche nel meccanismo di amplificazione che ne seguiva: infatti, attraverso una complessa rete di profili falsi, automatizzati e verosimili, questi articoli venivano diffusi con una rapidità e una capillarità impressionanti, dove ogni finto utente contribuiva alla costruzione di un’opinione pubblica simulata, apparentemente spontanea, che reagiva, commentava e rilanciava – nel frattempo, l’intelligenza artificiale era utilizzata sia per la creazione dei profili (foto realistiche, biografie plausibili, comportamenti algoritmicamente coerenti), sia per la scrittura automatizzata di commenti e thread in più lingue.
Era perciò in atto una vera e propria simulazione sociale.
Il realismo dell’inganno: credibilità come strumento di manipolazione
L’opinione pubblica, in questi spazi, diventava teatro e spettatrice inconsapevole di un’operazione psicologica su larga scala, dove il confine tra vero e falso si dissolveva nel realismo dell’artefatto, la menzogna non si presentava con i tratti grossolani della propaganda del Novecento, bensì con la veste istituzionale e rassicurante di un quotidiano autorevole, di un esperto qualificato, di un cittadino comune che racconta la propria “esperienza” ed è proprio in questa mimetizzazione che risiede il cuore della nuova disinformazione che non si impone come verità alternativa, ma si insinua come variazione possibile del reale, legittimata dalla forma, dalla grafica, dalla credibilità dell’interfaccia.
Sicurezza informativa e accountability delle piattaforme digitali
Dal punto di vista istituzionale, invece, si impone una riflessione profonda sulla nozione di sicurezza informativa, che oggi non può più essere confinata alla mera protezione delle infrastrutture, ma deve estendersi alla difesa della sovranità cognitiva degli Stati.
Infatti, le operazioni di disinformazione, non colpiscono solo il tessuto comunicativo, ma incidono sulle fondamenta stesse della convivenza democratica: minano la fiducia pubblica, disorientano l’opinione collettiva, alterano il dibattito politico, manipolano le percezioni e, con esse, il consenso.
La minaccia, dunque, è strategica e sistemica, progettata per infiltrarsi nei gangli sensibili della società aperta e in questo scenario, i tradizionali strumenti di contrasto sembrano rivelarsi sempre più insufficienti.
Ripensare il ruolo delle istituzioni democratiche
Occorre quindi ripensare il ruolo delle istituzioni democratiche, definire nuovi meccanismi di coordinamento tra autorità nazionali e sovranazionali, rafforzare le capacità di analisi preventiva e costruire un quadro di governance che attribuisca responsabilità chiare anche agli attori privati. Centrale, in questo contesto, è la questione dell’accountability algoritmica: fino a che punto le piattaforme possono considerarsi semplici intermediari neutri? Quali margini hanno gli Stati per imporre obblighi di trasparenza, tracciabilità e intervento senza sconfinare nella censura?
E, soprattutto, in un mondo in cui la verità è sempre più delegata a processi automatici, chi sorveglia i sorveglianti?
Deep fake e manipolazione della realtà visiva e uditiva
Nel cuore di questa metamorfosi cognitiva si annida, infine, una minaccia ancora più sottile e insidiosa: quella dei deepfake che emergono come l’estensione estrema e inquietante proprio della disinformazione algoritmica. Infatti, se Storm-1516 ha mostrato l’efficacia della manipolazione testuale e dell’imitazione giornalistica, i deepfake rischiano di aprire un ulteriore fronte: quello della manipolazione della realtà visiva e uditiva.
Non si tratta più solo di scrivere un articolo falso o di imitare una testata autorevole, ma di creare dal nulla un’apparizione plausibile: un presidente che pronuncia parole mai dette, un volto noto che incita alla guerra, una confessione che non è mai avvenuta e proprio in un simile contesto, la percezione si fa vulnerabile quanto l’informazione e il concetto stesso di prova visiva o documentale perde ogni stabilità epistemica.
L’occhio, che per secoli è stato l’arbitro della verità, diventa esso stesso ingannabile.
Una risposta sistemica alla disinformazione strategica
In conclusione, Storm-1516 dimostra che la sfida della disinformazione non è solo tecnologica, ma profondamente politica e giuridica. Non è sufficiente smascherare le operazioni in corso: è necessario costruire un ecosistema informativo resiliente, trasparente, regolato, in cui la fiducia sia il prodotto di pratiche verificabili, e non soltanto della reputazione apparente delle fonti.
L’alfabetizzazione digitale, il rafforzamento dei media indipendenti, il supporto alle fact-checking agencies, ma anche la creazione di un diritto della verità digitale, sono strumenti imprescindibili per preservare la democrazia nell’epoca dell’inganno strutturato e questo caso, lungi dall’essere un evento isolato, è l’anteprima di un futuro prossimo in cui la verità non sarà più data per scontata, ma dovrà essere riconquistata giorno per giorno, con rigore, competenza e responsabilità condivisa.