Proteggere la credibilità operativa delle istituzioni non è un problema di comunicazione, ma di sicurezza pubblica e nazionale. Come tale va trattato: con risorse adeguate, con responsabilità chiare e con la consapevolezza che al tempo della guerra cognitiva, del MUAI e delle minacce ibride, l’integrità informativa non è separabile da quella istituzionale. La foto di un agente aggredito diffusa dalla Polizia di Stato all’indomani degli scontri del 31 gennaio 2026 a Torino, durante la manifestazione a supporto del centro sociale Askatasuna, e presentata come genuina quando in realtà era stata modificata con AI, porta a riflettere su questi aspetti.
Chi presiede all’ordine interno di uno Stato democratico non può permettersi di essere, anche solo per un giorno, un nodo di distribuzione di simulacri. Il costo di quella scelta (o di quella negligenza) si paga per molto più di un giorno.
E, del resto, quanto accaduto non rappresenta, nella sua essenza, un problema tecnico né un semplice errore comunicativo, ma è manifestazione acuta di una crisi strutturale nel rapporto tra istituzioni, immagine e verità pubblica, che matura da anni e che trova in questo episodio il suo punto di cristallizzazione più visibile e preoccupante.
Indice degli argomenti
Foto della Polizia ritoccata con AI e diffusa come vera: cos’è successo
Quanto accaduto è un evento particolarmente delicato, che ha visto il coinvolgimento dei soggetti e delle istituzioni richiamate per circa una decina di giorni, il cui aspetto di maggiore criticità e imbarazzo sarebbe la risposta fornita dai responsabili istituzionali, e riportata da diverse testate nazionali, secondo i quali non l’avrebbero creata e/o alterata loro l’immagine, ma l’avrebbero rilanciata. Il che implicherebbe una procedura formalizzata e un’attività volontaria di monitoraggio, acquisizione, analisi e selezione di un contenuto virale in grado di produrre un danno reputazionale in quanto è proprio una fonte istituzionale riconosciuta che rilascia quindi certifica, valida senza alcuna cura, un’immagine non autentica.
I fatti
Il 31 gennaio 2026 a Torino, al termine di una manifestazione a sostegno del centro sociale Askatasuna, sgomberato dalla Questura di Torino il 18 dicembre 2025, vi sono stati violenti scontri tra un gruppo di manifestanti e gli operatori di polizia impegnati nella gestione dell’ordine pubblico.
In tale circostanza, un video divenuto immediatamente virale ha immortalato uno degli episodi più drammatici della giornata: un agente a terra, privo di casco e maschera antigas, colpito ripetutamente con pugni, calci e martellate da un gruppo di persone con il volto celato, mentre un secondo agente, munito di scudo e protezioni, accorreva in suo soccorso. Il filmato in questione, ripreso e amplificato da tutti i principali media nazionali e da vertici di governo è divenuto presto virale online.
Il giorno seguente, secondo quanto riportato dai media, la Polizia ha diffuso una fotografia presentata come genuina che, secondo analisi forensi successive, è stata riscontrata come alterata con l’intelligenza artificiale.
Cosa risulta dalle analisi sulla foto
Sembrerebbe, infatti, trattarsi di un’immagine modificata con AI, e non generata ex novo, sulla base di un fotogramma reale del predetto video, elaborato successivamente da un AI-tool di upscaling e/o image enhancement, quindi il risultato di un editing AI che nel processo avrebbe alterato dettagli significativi, tra cui la rimossione dello scudo di protezione, la modificazione dei connotati del volto del secondo agente, eliminando la maschera antigas, nonché ricostruito lo sfondo in modo incongruente con quanto realmente documentato.
Stando a ciò ci troviamo dinnanzi a quello che tecnicamente è definito “deeptrue”, cioè un’immagine che, partendo da un fatto realmente accaduto, quindi da un prodotto foto/video autentico, lo altera in modo da renderlo più efficace sul fronte narrativo o quello emotivo. Un contenuto sintetico radicato in un fatto reale, ma restituito al pubblico in una forma visivamente modificata. La foto sintetica in questione è stata ampiamente diffusa in ambito social, soprattutto mainstream, in particolare Facebook e Instagram, da importanti figure di governo, politici, istituzioni, e rappresentanze sindacali, così amplificandone il volume attraverso un circuito bidimensionale di condanna dei responsabili delle violenze e solidarietà nei confronti delle forze dell’ordine.
La reazione di Meta
Soltanto a seguito del lavoro di fact-checker indipendenti e del fotogiornalista Michele Lapini, presente agli scontri, che hanno denunciato pubblicamente la palese alterazione della foto, evidenziandone le incongruenze, Meta avrebbe provveduto ad apporre un’etichetta di avviso sull’immagine in questione, mitigarne la distribuzione algoritmica sulle proprie piattaforme sociomediali, nonché oscurare contenuti che includevano detta immagine, indipendentemente dall’utente che le avesse pubblicate, tra cui paradossalmente, il post del fotogiornalista denunciante.
Ad oggi non risulterebbe che Meta abbia rimosso i post originali pubblicati dagli account ufficiali della Polizia di Stato, sanzionato e/o limitato tali account, formalmente notificato alla Polizia di Stato una violazione delle proprie policy relative ai contenuti manipolati, rilasciato una dichiarazione pubblica che riconducesse esplicitamente l’account dell’Istituzione come fonte dell’immagine.
Framework normativo di riferimento
Secondo il Digital Service Act, in vigore dal 17 febbraio 2024, Meta, in quanto Very Large Online Platforms (VLOP) è soggetta ad obblighi stringenti in materia di contenuti manipolati, come quello di cooperazione con le autorità competenti, di segnalazione e azione tempestiva, ma soprattutto di valutazione e mitigazione dei rischi sistemici legati alla diffusione di contenuti manipolati, inclusi quelli generati o modificati con AI, con particolare riguardo ai rischi per il dibattito civico e i processi democratici, come nel caso di specie, a seguito della diffusione istituzionale di un’immagine manipolata in un contesto politicamente sensibile.
Occorre precisare che META non ha l’obbligo di segnalazione spontanea, ma sono le autorità nazionali designate come Digital Services Coordinator (DSC) – in Italia, l’Autorità per le Garanzie nelle Comunicazioni (AGCOM) – che hanno facoltà di richiedere a Meta l’accesso ai dati relativi alla disseminazione di tali contenuti. Tuttavia, stante la natura VLOP di Meta, Per le VLOP come Meta, la vigilanza primaria spetta alla Commissione Europea, attraverso i poteri di indagine e sanzione diretti.
Cosa dice l’AI Act
Per quanto concerne invece la natura sintetica del contenuto in questione, l’AI Act impone ai fornitori di sistemi AI che generano e/o manipolano immagini, audio o video, l’obbligo di garantire che i contenuti siano marcati in modo machine-readable come sintetici. Quindi, nel caso di specie, qualora il software utilizzato per modificare l’immagine fosse soggetto all’AI Act, il suo fornitore avrebbe dovuto provvedere in tal senso, il che imporrebbe a Meta, in quanto piattaforma interessata, l’obbligo di rilevamento ed etichettatura dei contenuti marcati. Ciò decade qualora l’immagine fosse stata modificata con uno strumento non conforme, o non ancora soggetto agli obblighi dell’AI Act.
Il nodo del GDPR
Inoltre, poiché l’immagine in questione ritrae due persone fisiche identificabili – i due operatori di polizia – i cui dati personali, incluse le caratteristiche biometriche del volto, sono stati alterati e diffusi senza consenso, si potrebbe configurare un trattamento illecito di dati personali biometrici, nonché una violazione del principio di esattezza dei dati, secondo il GDPR. Nel caso di specie, l’autorità italiana Garante per la Protezione dei Dati Personali potrebbe aprire un’istruttoria sia nei confronti di Meta, relativamente alla diffusione, che nei confronti della Polizia di Stato. Allo stato attuale non risulterebbe alcuna attivazione del Garante in tal senso.
In questo caso il Garante per la Protezione dei Dati Personali avrebbe competenza e, in linea teorica, potrebbe aprire un’istruttoria sia nei confronti di Meta (per la diffusione) sia nei confronti della Polizia di Stato (per la produzione e trasmissione all’ANSA). Non risulta tuttavia che il Garante si sia attivato spontaneamente.
Il Regolamento AGCOM
Infine, AGCOM ha adottato nel 2024 un proprio Regolamento sulla trasparenza dei sistemi AI nel settore dei media, che impone obblighi di etichettatura ai fornitori di contenuti AI nel settore dell’informazione. La Polizia di Stato, in quanto soggetto che ha diffuso un contenuto modificato con AI attraverso canali di comunicazione istituzionale con impatto mediatico nazionale, potrebbe rientrare in tale ambito di applicazione. Anche qui, ad oggi, non risulterebbe avviata alcuna istruttoria.
Tutto ciò per evidenziare quanto l’articolazione testuale del framework normativo presenti delle evidenti criticità in termini di applicazione concreta soprattutto in merito ad un evento come questo che ha coinvolto un’importante istituzione dello stato, con un ruolo centrale sul piano della sicurezza, tra l’altro in un contesto di elevata eco mediatica, non solo onlone, ma sulla stampa, radio e tv a livello nazionale.
La rottura del contratto epistemico tra cittadino e istituzione
Per comprenderne la portata occorre partire da un dato fondamentale: le istituzioni non comunicano soltanto fatti, ma costruiscono realtà. Ogni immagine diffusa da un canale ufficiale non è una semplice rappresentazione degli accadimenti, ma un enunciato performativo (un atto linguistico secondo il filosofo J. L. Austin) che afferma: questo è il modo in cui le cose stanno. Quando quell’enunciato si rivela falso, o anche solo parzialmente alterato, non crolla soltanto la singola affermazione: si incrina il contratto epistemico che lega il cittadino all’istituzione, ovvero il patto implicito di fiducia per cui la fonte ufficiale è presunta affidabile fino a prova contraria.
Le conseguenze
Il problema non è che la Polizia di Stato abbia sbagliato una foto. Il problema è che, sbagliandola, ha dimostrato di non saper/voler distinguere tra documentazione e rappresentazione persuasiva, il che risulta particolarmente grottesco se si considera tra l’altro la specifica mission istituzionale della stessa. Tale slittamento semantico, o forse meglio “precipitazione” in questo caso, ha conseguenze che si estendono ben oltre il singolo episodio.
Nel medio periodo, qualsiasi immagine proveniente dalla medesima fonte potrà essere processata con sospetto, anche quando autentica. Nel lungo periodo, si può pertanto assistere alla “normalizzazione illustrativa” della comunicazione istituzionale, in cui l’immagine non documenta ma evoca, non prova ma convince, e dove la distinzione tra dette funzioni smette progressivamente di essere percepita come rilevante.
Differenza tra deeptrue e deepfake
Un deepfake è un contenuto sintetico (video, audio, immagine) costruito per far credere vera una cosa che non è mai avvenuta: ad esempio far dire a una persona parole che non ha mai pronunciato, o farle compiere azioni mai accadute. In pratica: manipolazione/contraffazione verosimile.
Con deeptrue si intendono invece contenuti generati o “migliorati” con tecniche AI con l’obiettivo dichiarato di rafforzare una verità: chiarire, ricostruire, rendere più leggibile o “probante” un evento reale (es. migliorare un video sgranato, ricostruire volti/scene da poche tracce, colorizzare/restaurare materiale, creare una simulazione di come potrebbe essere andata).
Che cos’è il deeptrue
È un contenuto “deep” che non nasce per inventare dal nulla, ma per:
- rafforzare una narrazione vera o ritenuta vera, rendendola più convincente;
- colmare lacune (frame mancanti, audio incomprensibile, dettagli non visibili);
- rendere “presentabile” materiale grezzo per pubblico e media.
Redazione
Il simulacro istituzionale
Dal punto di vista semiotico, le alterazioni introdotte dall’AI nell’immagine non sono casuali né neutre. La rimozione dello scudo, la modifica del volto del secondo agente, la ricostruzione dello sfondo in chiave cinematografica seguono una logica precisa, ossia aumentare la leggibilità emotiva del segno, renderlo più immediatamente accessibile alla decodifica empatica dello spettatore. L’immagine originale, un fotogramma estratto da un video mosso, notturno, caotico, risultava tecnicamente “scarica”, povera. L’immagine sintetica modificata è tecnicamente ricca, più nitida, più drammatica, più simmetrica nella composizione. Questa “pulizia” visiva non aggiunge informazione, aggiunge pathos.
E il pathos, in un contesto di conflitto politicamente polarizzato come quello degli scontri di Torino, costituisce già di per sé una presa di posizione che non si addice ad un’istituzione dello stato.
Si tratta di un simulacro di secondo ordine, come direbbe Baudrillard, non una copia della realtà, ma una copia migliorata della realtà, più reale della realtà stessa nella sua capacità di produrre effetti emotivi e politici. Il fatto che l’evento reale fosse effettivamente grave – due agenti feriti, uno picchiato barbaramente a terra – rende il simulacro ancora più insidioso, perché la sua falsità parziale si maschera dietro una verità di fondo che è e rimarra incontestabile.
Gli effetti del deeptrue sulla percezione della realtà
È questa la struttura profonda del deeptrue, non mente su ciò che è successo, mente sul modo in cui è successo, e lo fa in direzione di una maggiore efficacia persuasiva. Il paradosso che ne deriva è che l’immagine sintetica è divenuta un contro-segno, nata per veicolare solidarietà e legittimare la linea dell’ordine pubblico, è stata rapidamente (ri-)usata come strumento di ridicolizzazione istituzionale e, in alcune infosfere – come quelle del cospirazionismo e dell’estremismo Anti-Sistema e Anti-Governo (AGASe) -, come prova di una presunta “montatura”, una costruzione artefatta dell’intera vicenda. L’istituzione ha perso il controllo del proprio segno nel momento stesso in cui pensava di padroneggiarlo.
Il ribaltamento narrativo
La dinamica psicologica innescata dal caso segue uno schema ben documentato nella letteratura sulla dissonanza cognitiva e sulla percezione dei media in contesti conflittuali. L’immagine di un agente soccorso dal collega attiva meccanismi profondi di empatia e identificazione, tra cui: la cura, la fratellanza e la vulnerabilità del corpo sotto attacco. Questi meccanismi non sono manipolazione nel senso deteriore del termine, sono la base neurologica della comunicazione visiva. Tuttavia, quando l’immagine che li ha attivati viene disvelata come artificiale, “smascherata”, si produce un ribaltamento per cui l’empatia si trasforma in rabbia, la fiducia in sospetto, l’identificazione in alienazione.
La particolarità più insidiosa di questo caso è stata segnalata dagli stessi fact-checker. Infatti, una parte dell’opinione pubblica, a seguito della scoperta della manipolazione, ha non soltanto messo in discussione l’immagine ma ha esteso il dubbio all’evento stesso, sostenendo che l’aggressione fosse stata costruita e/o esagerata. Questo ribaltamento non è irrazionale, è la risposta adattiva di chi ha subito una violazione del contratto di fiducia. Se l’istituzione ha mentito sull’immagine, avrebbe potuto mentire anche sul fatto.
Pertanto, l’asimmetria informativa tra chi produce la narrazione e chi la riceve genera una vulnerabilità cognitiva strutturale che gli attori malevoli – interni o esterni – possono sfruttare sistematicamente. Il risultato finale è quello che nella comunicazione politica è definita “assuefazione al falso”, ossia un cinismo informativo diffuso per cui ogni contenuto ufficiale viene presunto manipolato, con effetti che si estendono ben oltre il singolo caso e corrodono la base stessa della deliberazione democratica.
Il ruolo del contesto
Inoltre, il contesto socio-cognitivo in cui l’episodio si inserisce non è neutro. La manifestazione per Askatasuna rappresentava già un terreno di massima polarizzazione: da un lato, una tradizione di conflitto tra autonomia sociale e ordine pubblico con radici trentennali, dall’altro, un governo impegnato a costruire una narrativa di fermezza e legalità su cui aveva investito capitale politico significativo. In tale contesto, quindi l’immagine non è semplicemente una foto, ma una prova, una bandiera, uno strumento di legittimazione.
Quando quella prova si è rivelata compromessa, il danno socio-cognitivo è stato duplice e simmetrico. Per chi era già critico nei confronti dell’istituzione, la manipolazione ha confermato un sospetto preesistente e ha consolidato una narrazione di inaffidabilità strutturale. Per chi aveva usato quell’immagine come argomento politico, la scoperta ha prodotto un boomerang reputazionale la cui portata non è semplice da misurare, ma certamente non trascurabile. La fiducia si costruisce lentamente e si distrugge molto rapidamente, e che le asimmetrie di credibilità tendono a essere persistenti.
Ciò significa che un’istituzione che viene colta a diffondere contenuti manipolati – anche involontariamente/per negligenza/per dolo – eredita uno stigma che accompagna ogni sua comunicazione successiva. Il fatto, a quanto pare, che nessun procedimento formale sia stato aperto, nessuna scusa pubblica sia stata offerta, nessuna spiegazione sull’origine precisa dell’immagine sia stata fornita, aggrava ulteriormente tale dinamica; il silenzio istituzionale è esso stesso un atto comunicativo, e in questo caso comunica l’assenza di accountability, oggi inaccettabile per un’articolazione dello Stato.
Il tempo reale contro il tempo della verifica
Le istituzioni operano oggi in un ecosistema comunicativo governato dalla logica delle piattaforme, in termini di velocità, engagement, estetica, viralità. Tali criteri sono di fatto intrinsecamente incompatibili con i criteri tradizionali della comunicazione istituzionale – accuratezza, verificabilità, responsabilità della fonte.
La scelta della Polizia di fare una selezione tra le immagini più virali circolate sul web è la spia di questa incompatibilità. In questa azione c’è tutta la tensione tra il “tempo del feed” – in cui l’immagine deve essere disponibile, emotivamente efficace e esteticamente competitiva entro poche ore dall’evento – e il “tempo della verifica”, che richiede procedimenti, confronti, accertamenti forensi e responsabilità editoriale. Il primo ha vinto sul secondo, con conseguenze evidenti. Questo non è un problema esclusivo della Polizia di Stato italiana, ma una vulnerabilità sistemica di tutte le istituzioni che hanno adottato la logica della comunicazione digitale – in un ecosistema cyber-sociale – senza adottare contestualmente le procedure di verifica che tale logica richiede.
L’istituzione come fonte primaria di informazione
La differenza tra un account istituzionale e un account privato non è soltanto giuridica, è epistemica. Il peso della firma istituzionale trasforma qualsiasi contenuto in una fonte primaria, con tutto ciò che questo comporta in termini di responsabilità verso il pubblico e verso la verità.
Il ruolo delle piattaforme in questa vicenda aggiunge un ulteriore livello di complessità. Meta ha etichettato e oscurato l’immagine soltanto dopo che il caso era già esploso pubblicamente, dimostrando che i suoi sistemi automatici di rilevamento dei contenuti generati o modificati con AI – formalmente esistenti – non hanno funzionato in modo preventivo. Questo cortocircuito ha prodotto un effetto paradossale: è la piattaforma privata che si è trovata ad arbitrare la verità di un contenuto istituzionale, applicando etichette di avviso sui profili della Polizia di Stato. Tale inversione dei ruoli – l’istituzione che sbaglia, la piattaforma che corregge -, è essa stessa un sintomo della crisi di autorità epistemica in essere.
Sicurezza dell’informazione e creazione di una superficie d’attacco permanente
C’è una dimensione del caso che è stata relativamente poco esplorata nel dibattito pubblico e che merita invece attenzione analitica specifica: la dimensione della sicurezza dell’informazione. La dinamica che ha portato l’ufficio stampa della Polizia a selezionare e diffondere un’immagine alterata con AI, prelevata all’interno dell’ecosistema cyber-sociale, non è soltanto una negligenza comunicativa; si tratta, dal punto di vista della sicurezza informatica e informativa, un vettore di attacco riuscito.
Il meccanismo è quello del social engineering applicato alla comunicazione pubblica: produrre e far circolare una versione AI di un evento reale, esteticamente superiore all’originale e quindi più “candidabile” alla selezione da parte di un ufficio stampa che opera sotto pressione di tempo, con l’obiettivo, consapevole o inconsapevole del produttore originale, di indurre i canali ufficiali a diventare amplificatori di un contenuto non autentico. Una volta che l’immagine porta la firma istituzionale, acquista una credibilità che nessun account privato potrebbe conferirle.
Tale schema ha implicazioni strategiche che vanno ben oltre il singolo episodio. Se la supply chain informativa degli uffici stampa istituzionali è aperta ai contenuti virali non verificati, essa diventa una superficie d’attacco permanente. Attori interessati a destabilizzare la credibilità delle forze dell’ordine, a produrre alter-narrazioni su eventi di ordine pubblico, o semplicemente a seminare confusione nel dibattito politico, hanno a disposizione uno strumento relativamente semplice e ad alto rendimento, ossia produrre versioni AI “migliorative” di eventi reali e lasciarle circolare, attendendo che la logica della viralità faccia il resto.
GenAI e verità nella comunicazione pubblica
Il caso di Torino pone infine una questione filosofica che non può essere elusa. Si tratta del problema di cosa intendiamo per verità nella comunicazione pubblica nel mondo ibrido della post-verità, caratterizzato dal diffondersi orizzontale della GenAI. Tradizionalmente, la verità è la corrispondenza tra la rappresentazione e il fatto, ma in questo caso si rivela insufficiente poiché in un contesto in cui la rappresentazione può essere modificata in modo impercettibile per aumentarne la fedeltà emotiva all’esperienza vissuta dell’evento, a scapito della fedeltà documentale.
L’immagine di Torino era “più vera” dell’originale nel senso che rendeva più chiaramente la drammaticità di ciò che era accaduto; ed era “meno vera” dell’originale nel senso che non corrispondeva a ciò che era stato effettivamente ripreso dalle telecamere. Questa tensione non è nuova nella storia della fotografia, ogni scelta di inquadratura, luce, momento è già un atto interpretativo, ma l’AI la radicalizza in modo qualitativo, rendendo la modifica sistematica, invisibile all’occhio non addestrato e accessibile a chiunque.
Il risultato è che la verità nella comunicazione pubblica non può più essere presupposta, deve essere dimostrata, certificata, accompagnata da una catena di custodia verificabile. Le istituzioni che non si attrezzano per produrre tale certificazione non sono semplicemente esposte a errori – come si potrebbe superficialmente ritenere -, ma stanno abdicando a una funzione epistemica che è parte costitutiva della loro legittimità democratica.
Questo è un problema cruciale. L’alternativa, ossia adottare esplicitamente una comunicazione “illustrativa” dove le immagini evocano piuttosto che documentare, è praticabile, ma richiede una trasparenza radicale che finora nessuna istituzione italiana ha dimostrato di voler adottare. Finché questa scelta non viene fatta in modo esplicito e consapevole, ogni immagine istituzionale resterà sospesa nell’ambiguità tra documento e propaganda, e la fiducia pubblica continuerà a erodere, con potenziali danni rilevanti tanto sul piano della sicurezza pubblica quanto su quella nazionale.
Il dividendo del bugiardo e il costo dell’impunità
Il concetto di “dividendo del bugiardo”, elaborato da Kroll negli studi sulla disinformazione, descrive il vantaggio che chi mente ottiene non soltanto dalla singola bugia, ma dall’erosione generale della capacità pubblica di distinguere il vero dal falso. Ogni volta che un’istituzione viene colta a diffondere un contenuto manipolato, anche involontariamente, rafforza questo dividendo, aumentando il costo epistemico di ogni affermazione futura e regalando argomenti a chiunque voglia contestare prove autentiche.
Il caso di Torino ha prodotto un dividendo del bugiardo di dimensioni significative, reso più grave dall’assenza di qualsiasi risposta istituzionale adeguata. Nessun procedimento disciplinare risulta aperto. Nessuna scusa pubblica è stata offerta. Nessuna spiegazione sull’origine esatta dell’immagine è stata fornita. Nessuna riforma dei processi di verifica degli uffici stampa è stata annunciata. L’unica reazione documentata, quella relativa all’acquisizione informativa, è essa stessa una confessione di negligenza strutturale mascherata da giustificazione.
In un sistema democratico maturo, l’accountability istituzionale non è un optional, ma la condizione di possibilità della fiducia pubblica. Quando un’istituzione commette un errore grave nella gestione dell’informazione e non ne risponde in alcun modo, il messaggio che trasmette non è di innocenza ma di impunità. E l’impunità, nella comunicazione pubblica come nella vita civile, non chiude i casi, li lascia aperti, come ferite, pronti a riaprirsi alla prima occasione.
Il perimetro della sicurezza democratica
Esiste una tentazione analitica ricorrente quando si affronta un evento come questo, ossia ridurlo a un mero errore comunicativo, a una negligenza procedurale, a uno “scivolone” dell’ufficio stampa di un’istituzione sotto pressione. Questa lettura è gravemente insufficiente. Ciò che rende il caso di portata sistemica non è la presenza di una manipolazione visiva in sé, ma il fatto che quella manipolazione abbia percorso e attraversato indenne – fino alla sua certificazione pubblica – il perimetro dell’ecosistema informativo istituzionale più sensibile che uno stato democratico possieda: quello del Ministero dell’Interno, della Pubblica Sicurezza.
Questa distinzione non è retorica. Un contenuto manipolato che circola su un profilo privato e/o su una testata di parte ha un impatto limitato e prevedibile, viene letto attraverso il filtro del sospetto che accompagna qualsiasi fonte parziale. Lo stesso contenuto, quando viene selezionato, validato implicitamente e amplificato da un canale istituzionale ad alta credibilità, subisce una trasformazione qualitativa, acquista lo statuto di prova. Porta la firma dello Stato. Entra nella categoria di ciò che, per convenzione democratica, si presume vero fino a dimostrazione contraria. E quando quella presunzione viene tradita, il danno non è proporzionale al singolo errore, ma moltiplicato dal peso dell’autorità che lo ha commesso.
La Polizia di Stato e il Ministero dell’Interno non sono un comunicatore tra gli altri. È il presidio della sovranità interna, l’istituzione che gestisce il rapporto più delicato tra cittadini e Stato, quello che riguarda la sicurezza, l’ordine pubblico, la legittimità dell’uso della forza. In questo spazio, la comunicazione non è un accessorio della funzione istituzionale, ne è un’estensione diretta. Ogni immagine diffusa da quei canali è al contempo un segnale per il sistema di sicurezza, una garanzia per la cittadinanza e un amplificatore ad alta credibilità nell’ecosistema cyber-sociale. Trattare il principio di realtà come un’opzione editoriale – scegliere l’immagine “più virale” anziché l’immagine verificata – non è una leggerezza, è una violazione della funzione epistemica istituzionale.
La guerra cognitiva come contesto strutturale
Per comprendere la gravità di ciò che è accaduto occorre inquadrarlo nel contesto strategico in cui può inserirsi, quello della guerra cognitiva, una dimensione del conflitto contemporaneo che non opera attraverso armi convenzionali ma attraverso la manipolazione della percezione, l’erosione della fiducia e la polarizzazione dell’arena cyber-sociale. In tale contesto, la posta in gioco non è convincere il pubblico di una singola menzogna, ma ridurre la capacità collettiva di distinguere, erodere la credibilità delle fonti autorevoli, frammentare il consenso attorno a una realtà condivisa.
L’Unione Europea e il Servizio Europeo per l’Azione Esterna (EEAS) hanno codificato questa minaccia nel concetto di Foreign Information Manipulation and Interference (FIMI), definendola come l’insieme delle condotte manipolative che mirano a influenzare percezioni e decisioni, indebolire la coesione sociale e i processi democratici, sfruttando la porosità degli spazi informativi aperti. La FIMI non aggredisce le istituzioni dall’esterno con attacchi diretti, le penetra dall’interno sfruttando le loro vulnerabilità procedurali, socio-cognitive e organizzative. Non serve violare un server, basta violare una procedura. Non serve infiltrare un sistema, basta far arrivare il contenuto giusto nel momento giusto, sapendo che la pressione del tempo, la logica della viralità e l’assenza di presidi di verifica faranno il resto.
Il caso di specie si inserisce in questo schema con una precisione che dovrebbe allarmare. L’immagine modificata con AI non è stata prodotta dall’istituzione, ma è entrata nella sua filiera comunicativa dall’esterno, attraverso il canale della viralità social, ed è stata selezionata e amplificata perché ritenuta esteticamente più engaging dell’originale, più nitida, più drammatica, più emotivamente efficace. Questo meccanismo è la forma più sofisticata di social engineering applicato alla comunicazione pubblica, ossia indurre un’istituzione ad alta credibilità a farsi involontario distributore di un contenuto non autentico, trasformandola da garante della verità in nodo di distribuzione di un artefatto. In termini di minaccia ibrida, questo è un risultato di straordinaria efficienza operativa, ottenuto a costo praticamente zero.
MUAI e la scalabilità della minaccia
A questa dimensione geopolitica si aggiunge quella tecnologica, rappresentata dal concetto di Malicious Use of Artificial Intelligence (MUAI). La GenAI ha radicalmente abbassato la soglia di accesso alla produzione di contenuti manipolati. Ciò che richiedeva competenze specialistiche, tempo e risorse significative è oggi accessibile a chiunque disponga di uno smartphone e di una connessione. La qualità degli artefatti prodotti ha raggiunto un livello tale da superare agevolmente i controlli visivi non addestrati, e la velocità di produzione è compatibile con il “tempo del feed” che governa la comunicazione istituzionale contemporanea.
Il fatto che l’artefatto sia stato prodotto probabilmente senza intenzione strategica esplicita, non riduce la portata del rischio, dimostrando anzi che la minaccia non richiede nemmeno un attore consapevole per produrre effetti sistemici. Un contenuto AI “migliorativo” di un evento reale può innescare una crisi istituzionale semplicemente seguendo la logica organica della viralità, senza regia né coordinamento.
Le implicazioni prospettiche sono serie. Se la supply chain informativa degli uffici stampa istituzionali rimane aperta ai contenuti virali non verificati, essa costituisce una superficie d’attacco permanente e a bassa soglia di ingresso. Attori interessati a destabilizzare la credibilità delle forze dell’ordine, a produrre narrazioni alternative su eventi di ordine pubblico, o semplicemente a seminare confusione nel dibattito politico dispongono di uno strumento relativamente semplice e ad alto rendimento: produrre versioni AI “migliorative” di eventi reali, farle circolare nei canali virali, e attendere che la pressione del tempo e l’assenza di presidi di verifica facciano il resto.
Dalle onde ibride della manipolazione alla radicalizzazione
Le minacce ibride operano per accumulo di effetti, producendo “onde” successive che si moltiplicano nel tempo. Qui la prima onda è l’errore, la diffusione del contenuto non autentico da parte dei canali istituzionali. La seconda onda è il conflitto interpretativo, la scoperta della manipolazione genera due narrative opposte e inconciliabili, entrambe radicate nella stessa evidenza. La terza onda è l’erosione di fiducia generalizzata, la foto alterata ha finito per alimentare teorie del complotto che mettevano in discussione non l’immagine ma l’evento stesso, diventando munizione contro la stessa istituzione che avrebbe dovuto rafforzare.
Questa terza onda è quella più pericolosa e più duratura. La radicalizzazione non nasce soltanto dalla violenza fisica, ma dalla violenza epistemica, dall’idea che nessuno dica la verità e che tutto sia manipolazione. Quando la fiducia nelle fonti autorevoli si spezza, si amplifica il ricorso a comunità chiuse, leader informali, narrazioni identitarie e “prove” memetiche. Si produce un paradosso cognitivo, nella ricerca di certezza, cresce l’adesione a spiegazioni assolute, spesso complottiste. L’errore istituzionale diventa un acceleratore di polarizzazione che rafforza chi già credeva, indebolisce chi era indeciso e radicalizza chi si trovava ai margini.
Sicurezza cyber-sociale e ridefinizione della superficie d’attacco
Il caso in questione rende cogente una ridefinizione del concetto stesso di sicurezza che le istituzioni devono interiorizzare: la sicurezza contemporanea è cybersociale. La superficie d’attacco non è soltanto la rete informatica – server, database, sistemi di comunicazione – ma la rete sociale e cognitiva, piattaforme, feed algoritmici, comunità online, ecosistemi memetici, micro-targeting. Un evento di ordine pubblico si gioca simultaneamente su due piani: quello fisico offline e quello connettivo-informativo online, e la dimensione informativa può retroagire su quella fisica, alimentando rabbia, mobilitazione, delegittimazione o escalation in tempi incompatibili con i meccanismi tradizionali di gestione delle crisi.
Se la comunicazione istituzionale opera all’interno di logiche “da piattaforma” – velocità, impatto emotivo, simbologia forte – senza una governance di integrità parallela, si apre un rischio strutturale secondo cui ogni contenuto diventa potenzialmente un vettore. Il post istituzionale non è più un comunicato stampa con valenza unidirezionale, è una leva strategica inserita in un ecosistema cyber-sociale dinamico e reattivo.
Questa consapevolezza impone una conseguenza logica, ossia che la responsabilità istituzionale non può esaurirsi nella non-produzione del contenuto manipolato. Nell’ecosistema cyber-sociale contemporaneo, essa si estende alla selezione, alla validazione, alla verifica della provenienza, alla gestione del contesto e alla trasparenza sulla natura del materiale pubblicato. La difesa “non l’abbiamo prodotta noi” è strategicamente del tutto inadeguata. Infatti, chi amplifica un artefatto con la propria credibilità istituzionale ne diventa corresponsabile degli effetti, indipendentemente dalla sua origine.
La trasformazione identitaria nel mondo ibrido
C’è una dimensione più profonda del problema che riguarda la trasformazione identitaria degli attori nell’ecosistema informativo contemporaneo. In quello che può essere definito il mondo ibrido della post-verità, vero e falso non sono più categorie stabili e universalmente condivise, sono oggetto di competizione narrativa continua, in cui ogni attore – istituzione, medium, cittadino, piattaforma, avversario – subisce una pressione verso la (ri-)definizione del proprio ruolo.
L’istituzione che non si dota di anticorpi epistemici rischia di mutare da garante della verità ad attore narrativo, valutata con le stesse categorie di qualsiasi altro account e soggetta alle stesse dinamiche di credibilità e sfiducia che governano i contenuti non istituzionali. Il cittadino non protetto da trasparenza e integrità informativa rischia di mutare da soggetto democratico deliberante a consumatore di verosimiglianza, selezionando le narrazioni non in base alla loro fondatezza ma alla loro coerenza con identità e appartenenze preesistenti. La piattaforma che interviene con etichette e limitazioni di distribuzione muta, agli occhi del pubblico, in arbitro di verità – un ruolo che non le appartiene costituzionalmente e che genera nuove asimmetrie di potere non regolamentate. Gli attori malevoli, infine, dispongono oggi degli strumenti per essere visual-storyteller, designer di realtà, a costo marginalmente nullo, capaci di produrre artefatti scalabili, ottimizzati e sufficientemente verosimili da superare i controlli superficiali.
L’impatto democratico di questa trasformazione è sostanziale e non reversibile in assenza di interventi deliberati. Senza un minimo comune di realtà verificabile condiviso, la deliberazione pubblica si indebolisce strutturalmente. In questo scenario, un singolo incidente comunicativo può diventare un precedente che corrode il tessuto democratico più duramente di molte controversie di merito.
Responsabilità prospettiche e architettura di resilienza
L’analisi fin qui condotta converge su una conclusione che non ammette ambiguità, la comunicazione istituzionale deve essere trattata come infrastruttura critica. Così come nessuna istituzione accetterebbe che i propri sistemi informatici fossero esposti senza firewall, senza protocolli di verifica e senza piani di risposta agli incidenti, non può accettare che la propria comunicazione pubblica operi senza equivalenti presidi di integrità.
Questo richiede un’architettura della resilienza informativa che si articola su tre livelli distinti ma interdipendenti:
- procedurale – introdurre nella filiera comunicativa istituzionale un “gate” di verifica forense obbligatorio prima della pubblicazione di qualsiasi contenuto visivo non prodotto internamente, con protocolli che includano controllo dei metadati, reverse image search, confronto con fonti primarie documentali e analisi strumentale per il rilevamento di contenuti generati o modificati con AI;
- organizzativo – costruire una cultura istituzionale in cui la velocità di risposta comunicativa non sia gerarchicamente superiore all’accuratezza, e in cui l’errore nella verifica sia trattato come un rischio operativo da gestire e non come una negligenza individuale da nascondere;
- sistemico – inserire la gestione dell’integrità informativa nei piani di risposta alle crisi istituzionali, con protocolli di rettifica rapida, trasparenza sulla provenienza dei contenuti e coordinamento interistituzionale che includa prefetture, dipartimenti di comunicazione, autorità di regolamentazione dei media e piattaforme.
La dimensione formativa è parte integrante di questa architettura. Il caso di Torino costituisce un case-study di straordinario valore per esercitazioni red-teaming scenario-based che riproducano la dinamica reale: un contenuto AI immesso nel circuito informativo, la pressione del tempo, la polarizzazione social, l’intervento delle piattaforme, il rimbalzo mediatico, l’attivazione di reti ostili, la risposta legale e il coordinamento interistituzionale. Queste esercitazioni non sono un lusso formativo: sono uno strumento di prevenzione operativa, perché la resilienza informativa non si improvvisa nel momento della crisi ma si costruisce con anticipo attraverso procedure interiorizzate e cultura organizzativa consolidata.
Raccomandazioni operative Stratcomms
- Pubblicare un “Rapporto annuale di integrità comunicativa”: incidenti, near-miss, misure correttive, KPI (tempi di rettifica, accuratezza, provenienza certificata), per trasformare la fiducia in un processo misurabile.
- Istituire una Information Integrity Cell piccola ma stabile presso l’area comunicazione/sicurezza, dotata di accertamenti forensi, strumenti OSINT, tracciamento varianti, interfaccia con cyber-sociale e ordine pubblico.
- Bloccare l’uso di contenuti di provenienza cyber-sociale per canali ufficiali in eventi sensibili, salvo verifica e licenza (whitelist di fonti e filiera certificata).
- Adottare una catena di custodia digitale per ogni asset visivo pubblicato (hash, timestamp, logs), quindi se non posso dimostrare l’origine, non pubblico.
- Introdurre un Gate di Verifica obbligatorio (reverse image, confronto frame/video, check incongruenze, controllo licenze).
- Standard di trasparenza visiva. Ogni contenuto illustrativo/ricostruito/AI-assist deve essere etichettato chiaramente (caption + alt text) e separato dalla documentazione probatoria.
- Crisis playbook integrato Stratcomms–Cybersociale-Ordine Pubblico: accertamento, rettifica, pubblicazione prove autentiche, monitoraggio narrative, engagement selettivo.
- Accordi operativi con piattaforme (canale rapido per incidenti di integrità) per evitare che label/rimozioni si trasformino in conflitto politico e per coordinare rettifiche con evidenze.
- Esercitazioni scenario-based trimestrali su MUAI/FIMI, attraverso inoculazioni AI + pressione mediatica + polarizzazione + risposta istituzionale multi-attore (prefetture, polizia, comunicazione, cyber).
- Formazione obbligatoria per staff e dirigenti su MUAI/FIMI/Cognitive Warfare, non solo tool, ma cultura del rischio.
AA
Credibilità come moltiplicatore di sicurezza nazionale
La lezione finale del caso di specie è insieme semplice e esigente. La fiducia nelle istituzioni non è un valore astratto né un obiettivo di immagine, è un moltiplicatore di resilienza nazionale. Una società in cui i cittadini credono nelle proprie istituzioni è una società che risponde meglio alle crisi, che resiste più efficacemente alle campagne di disinformazione, che mantiene la coesione necessaria ad affrontare le sfide ibride del presente.
Ma una società in cui quella fiducia è stata erosa – anche per negligenza, anche senza dolo – è una società più vulnerabile, in cui ogni crisi futura costa di più in termini di consenso, coesione e stabilità.




















