Fractured Reality, il nuovo rapporto del Joint Research Centre della Commissione europea, ha un merito preciso: sposta il problema della disinformazione dal piano dei contenuti falsi al piano dell’ecosistema informativo. Non è un aggiustamento marginale. È un cambio di livello che, se preso sul serio, obbliga a ripensare l’intera architettura delle risposte di governance che l’Europa ha costruito negli ultimi anni.
Per capire perché, conviene partire da un dato sperimentale. Nell’estate del 2023 un gruppo di ricercatori ha condotto un esperimento su quasi cinquemila utenti di X per sette settimane. Metà continuava a usare il feed cronologico, l’altra metà veniva esposta al feed algoritmico standard. La direzione del risultato non era sorprendente — chi usava l’algoritmo spostava alcune opinioni politiche in senso conservatore — ma lo era il meccanismo.
L’effetto non spariva alla fine dell’esperimento, ma persisteva. Non perché le persone avessero cambiato idea in modo permanente su questo o quel tema, ma perché nel frattempo avevano modificato il loro comportamento di following: chi seguivano, quali voci consideravano rilevanti, quali segnali usavano per orientarsi. L’algoritmo non aveva persuaso nessuno direttamente. Aveva modificato la struttura delle connessioni — chi seguire, quali voci considerare rilevanti — e quella struttura aveva generato una geometria della visibilità diversa. E quella geometria era rimasta.
Indice degli argomenti
Perché la sicurezza cognitiva inizia dall’ecosistema
C’era poi un secondo risultato, ancora più rivelatore. I ricercatori avevano testato anche il senso inverso: cosa succedeva a chi passava dall’algoritmico al cronologico. Lì non emergevano effetti analoghi — spegnere l’algoritmo non produceva un effetto speculare. Questa asimmetria è la parte più scomoda dell’intero esperimento. Se il danno si fosse formato solo durante l’esposizione, rimuovere l’esposizione avrebbe dovuto invertirlo almeno in parte. Che ciò non accada suggerisce che l’algoritmo non agisce per persuasione diretta, ma lascia una traccia strutturale: modifica la struttura delle connessioni e quella struttura rimane anche quando l’algoritmo viene spento.
Questo studio, condotto in modo indipendente dalle piattaforme e pubblicato su Nature da Gauthier e colleghi nel 2026, è la migliore illustrazione empirica di ciò che il JRC argomenta sul piano istituzionale. Il rapporto ha ragione a spostare il fuoco. Ma i risultati di Gauthier mostrano qualcosa di più scomodo: che anche quando il feed algoritmico viene spento, il danno può essersi già depositato nella struttura delle connessioni. Le risposte di governance costruite negli ultimi anni — moderazione, fact-checking, trasparenza algoritmica su richiesta — intervengono al livello sbagliato. Non sono inutili. Ma arrivano tardi.
Dal falso del contenuto alla vulnerabilità sistemica
Per anni la grammatica dominante del dibattito su disinformazione e piattaforme è stata relativamente semplice: fake news, debunking, rimozione, etichettatura. Era una grammatica comprensibile e in parte necessaria. Ma era costruita su un presupposto implicito: che il problema principale fosse identificare singoli contenuti falsi o ingannevoli e ridurne la circolazione.
Il passaggio che Fractured Reality compie è più sostanziale. Non si limita a dire che esistono contenuti falsi e che fanno male. Sostiene che la vulnerabilità democratica nasce dalla perdita di un terreno minimo condiviso di verificabilità — cioè dalla difficoltà crescente di concordare non sulle opinioni, ma sui fatti da cui parte il confronto. Il problema non è solo che qualcuno crede a cose false, ma che cittadini diversi si muovono in paesaggi informativi sempre più incompatibili, ordinati da logiche opache che rendono difficile anche solo concordare su quali fatti siano in discussione. È quello che il rapporto chiama fractured perceived realities — realtà percepite fratturate — e il punto è che questa frattura è una proprietà dell’ecosistema, non la somma di tanti singoli errori individuali.
Questo ha una conseguenza diretta che il dibattito italiano fatica ancora ad assorbire. L’esposizione a contenuti esplicitamente falsi è spesso più bassa di quanto si immagini — in Germania e nel Regno Unito i siti non affidabili rappresentano meno dell’1% delle visite ai siti di notizie — ma questo non impedisce la diffusione capillare di credenze distorte: quasi la metà degli adulti europei sopra i 50 anni detiene credenze errate su questioni sanitarie rilevanti. La discrepanza è enorme e istruttiva: poca esposizione a contenuti esplicitamente falsi, molta diffusione di visioni del mondo distorte. Le due cose non coincidono perché il problema non è solo il falso: è l’ambiente che decide cosa appare rilevante, cosa attira attenzione e cosa sembra plausibile, anche senza produrre una singola notizia inventata.
Detto questo, una cautela metodologica è necessaria: gran parte delle evidenze empiriche disponibili, incluse quelle citate in questo articolo, vengono da contesti statunitensi. I rapporti tra piattaforme e polarizzazione variano da paese a paese e le dinamiche italiane ed europee possono differire per struttura dei media e storia politica. Questo non invalida le evidenze, ma impone di trattarle come indicatori di un rischio sistemico da monitorare, non come descrizioni già complete di ciò che accade in ogni contesto nazionale.
Come la sicurezza cognitiva passa dalla struttura delle reti
L’esperimento Gauthier mostra però qualcosa che l’attacco non ha ancora detto. Gli effetti misurati riguardano le opinioni su questioni specifiche — priorità di policy, giudizio sulle indagini Trump, percezione della guerra in Ucraina — non la polarizzazione affettiva né il senso di appartenenza partitica. L’algoritmo non ha reso le persone più arrabbiate con il campo avverso, né più identificate con il proprio partito. Ha spostato le loro posizioni su temi concreti. Questa distinzione conta per la policy: il meccanismo non è l’incitamento all’odio, ma qualcosa di più sottile — la riscrittura silenziosa delle priorità e delle percezioni della realtà. Ed è avvenuto nell’estate del 2023, mesi prima che Musk sostenesse pubblicamente Trump: gli effetti conservatori del feed erano già strutturali prima che la gestione della piattaforma diventasse esplicitamente schierata.
L’algoritmo, in altre parole, non persuade in modo diretto. Agisce a un livello più profondo: modifica la struttura delle connessioni — chi segui, quali voci consideri rilevanti, come si struttura la tua rete di attenzione. E quella struttura, a sua volta, genera una geometria della visibilità: determina cosa ti appare rilevante, cosa sembra plausibile, cosa viene amplificato e cosa scompare. Il danno non è nel singolo contenuto che hai visto. È nella struttura che è rimasta dopo che l’algoritmo è stato spento.
Il ranking come leva di ordine pubblico informativo
Se Gauthier mostra dove si deposita il danno, un secondo esperimento mostra che è possibile intervenire a quel livello. Piccardi e colleghi, in un lavoro pubblicato su Science nel 2025, hanno modificato sperimentalmente il ranking dei contenuti che esprimevano animosità partigiana o atteggiamenti antidemocratici nel feed di X. Chi era esposto alla versione con quei contenuti resi meno visibili mostrava una riduzione dell’ostilità verso il gruppo avversario paragonabile in grandezza a tre anni di polarizzazione accumulata negli Stati Uniti. L’architettura del feed non è un dettaglio tecnico. È una leva di ordine pubblico informativo — e come tale va trattata dalla governance.
Gli utenti e la co-produzione dei mondi narrativi
È qui che il JRC apre una pista importante, ma non ancora del tutto sviluppata. Il rapporto vede bene il problema sistemico, ma descrive meno bene i meccanismi con cui certi ecosistemi narrativi si stabilizzano e resistono alle smentite esterne. Vale la pena sviluppare questo punto, perché ha implicazioni dirette per la governance.
Gli utenti non sono soltanto ricettori passivi di contenuti. In molti casi partecipano attivamente alla costruzione del senso: collegano frammenti dispersi, attribuiscono intenzioni, stabilizzano nessi causali, validano interpretazioni. Il rapporto JRC chiama questo fenomeno fantasy-industrial complex — e il nome, per quanto insolito, descrive qualcosa di preciso: un sistema in cui politici, influencer, piattaforme e utenti comuni collaborano, senza necessariamente coordinarsi, nella produzione di versioni alternative della realtà. Non è propaganda centralizzata. È un ecosistema auto-organizzato che produce e riproduce narrazioni coerenti al proprio interno.
Il punto importante è che questo sistema non funziona come la disinformazione classica. Non produce falsità che vengono credute: produce ambienti interpretativi in cui chi è dentro non chiede “è vero?” ma “è coerente con quello che già sappiamo?” La verificabilità esterna cessa di essere il criterio rilevante; al suo posto c’è la coerenza con l’identità di gruppo. Le echo chambers — come mostra la ricerca più recente — non sono camere di isolamento, ma camere di conflitto identitario. Non separano le persone dal disaccordo: le espongono al disaccordo in modo conflittuale, rafforzando le identità di gruppo anziché aprire spazio alla revisione.
Un dato del JRC aiuta a capire le proporzioni: su Facebook il 20% degli utenti con una dieta informativa più conservatrice ha totalizzato il 62% di tutta l’esposizione a fonti non affidabili. Una minoranza di account — i cosiddetti supersharers — concentra la maggior parte del danno. Il che significa che non serve moderare l’intera conversazione pubblica: bastano interventi mirati su una minoranza di attori e architetture per ottenere effetti significativi. Ma quegli interventi devono agire sulla struttura, non sui singoli messaggi.
Quali strumenti servono alla sicurezza cognitiva europea
Il rapporto JRC ha il merito di ridefinire il problema. Il punto ancora aperto è tradurre questa diagnosi in capacità istituzionali operative. Se si prende sul serio il cambio di livello che il JRC propone, il livello giusto di intervento non può essere soltanto quello della moderazione dei contenuti. Deve includere architettura, incentivi e capacità pubblica di osservazione.
Accesso ai dati e osservabilità dei percorsi di visibilità
Senza dati verificabili sui percorsi di visibilità, sui sistemi di raccomandazione, sugli squilibri nell’amplificazione e sulle dinamiche di circolazione, il problema rimane sostanzialmente opaco. L’accesso ai dati non è un tema tecnico accessorio: è una precondizione di osservabilità. Il Virality Project dello Stanford Internet Observatory ha mostrato durante la pandemia cosa significa monitoraggio ex ante dei pattern di amplificazione — ma ha mostrato anche dove questo approccio si arena: esattamente sull’accesso ai dati delle piattaforme. La ricerca accademica più avanzata in questo settore è stata condotta in posizione subalterna e senza strumenti di pressione verso le grandi piattaforme, con accesso parziale e discontinuo. Le lacune conoscitive che ne derivano non sono innocue: rendono impossibile distinguere episodi contingenti da effetti sistemici.
Capacità pubbliche permanenti per gli ecosistemi informativi
Non basta affidarsi alla combinazione, pur importante, di piattaforme, ricercatori indipendenti e fact-checkers. Servono capacità stabili e indipendenti di osservazione degli ecosistemi informativi, capaci di identificare fratture emergenti, cluster narrativi ostili, dinamiche di segregazione e segnali di vulnerabilità sistemica prima che si consolidino. Il JRC propone in conclusione qualcosa di analogo a un “CERN per i dati e la democrazia” — un’infrastruttura di ricerca permanente che aggreghi le capacità frammentate europee per lo studio delle piattaforme a scala industriale. L’analogia con ENISA per la cybersecurity è pertinente: l’Europa ha già costruito infrastrutture tecniche permanenti per minacce immateriali critiche. La domanda è perché non esista un equivalente per lo spazio cognitivo.
I limiti del DSA sui meccanismi di amplificazione
Il DSA ha rappresentato un avanzamento importante rispetto alla stagione precedente: introduce obblighi di trasparenza, risk assessment e accountability per le very large online platforms. Ma il suo limite, almeno rispetto a questo problema, è preciso: agisce soprattutto sul piano dei processi e della trasparenza, meno sui meccanismi concreti di amplificazione. Richiede alle piattaforme di valutare i rischi sistemici e di riferire su di essi. Non impone obblighi sulla struttura dei meccanismi di amplificazione differenziale — esattamente il livello che i paper citati identificano come causalmente rilevante. Il DSA, in altre parole, regola i messaggi, ma non ancora la geometria della visibilità che li rende possibili.
L’esperimento di Gauthier mostra che gli effetti sul feed persistono perché riscrivono la struttura delle connessioni. Piccardi e colleghi mostrano che intervenire sul ranking può ridurre in modo misurabile la polarizzazione affettiva. I due risultati si completano: il primo indica dove si deposita il danno, il secondo che è possibile intervenire a quel livello. Il punto più urgente da regolare non è il contenuto in sé, ma il sistema di ranking e amplificazione che ne determina la visibilità.
Che cosa significa davvero sicurezza cognitiva
È qui che la nozione di sicurezza cognitiva può diventare utile per il dibattito di policy italiano ed europeo, a condizione di essere definita con precisione.
Non significa controllo delle opinioni, né imposizione di una verità ufficiale, né protezione dei cittadini da idee sgradite. Questi usi della nozione sono non solo sbagliati, ma controproducenti: trasformano uno strumento di analisi in un’etichetta autoritaria e rendono impossibile la conversazione pubblica.
Una definizione operativa più utile è questa: la sicurezza cognitiva non è il controllo delle opinioni, ma la tutela delle condizioni che rendono possibile formarsi giudizi su basi verificabili. In concreto, significa proteggere lo spazio pubblico da dinamiche opache di amplificazione, segregazione e manipolazione che tendono a orientare in anticipo ciò che appare rilevante, plausibile e credibile.
Questa definizione ha tre implicazioni operative concrete. Prima: serve una capacità analitica pubblica per mappare gli ecosistemi informativi, non affidata interamente alle piattaforme né alla sola ricerca accademica frammentata. Seconda: servono regole più solide sull’accesso ai dati, che rendano osservabili i meccanismi di amplificazione differenziale. Terza: serve coordinamento europeo, perché nessuno Stato può affrontare da solo infrastrutture di scala globale controllate da entità al di fuori della giurisdizione europea.
Definita così, la sicurezza cognitiva non è il contrario del pluralismo. È una delle condizioni che ne rendono possibile l’esercizio non distruttivo. Una democrazia può tollerare — anzi, deve tollerare — realtà percepite diverse, valori in conflitto, narrazioni incompatibili. Quello che non può tollerare è la sistematica erosione delle condizioni che rendono ancora possibile discutere, dissentire e decidere su una base comune minima.
Oltre il fact-checking e la moderazione dei messaggi
Fractured Reality consegna alle istituzioni europee una diagnosi precisa: la disinformazione non è più leggibile solo come un insieme di contenuti falsi da correggere o rimuovere. È una proprietà emergente dell’ecosistema informativo, prodotta dall’interazione tra architettura delle connessioni, incentivi dell’attention economy e co-produzione sociale delle narrazioni.
Il punto politico che ne segue è altrettanto preciso: se la vulnerabilità si forma nell’ecosistema, allora anche la capacità pubblica deve spostarsi a quel livello — dalla moderazione dei messaggi all’osservazione e alla regolazione della geometria della visibilità, degli incentivi che la producono, delle strutture che la rendono persistente. Il DSA è un primo passo, ma non arriva ancora a quel livello.
L’Europa ha già costruito infrastrutture permanenti per minacce immateriali critiche — ENISA per la cybersecurity è l’esempio più diretto. La domanda che Fractured Reality pone, senza ancora rispondervi del tutto, è se esista la volontà politica di fare lo stesso per lo spazio cognitivo. Quando il danno si produce nella geometria della visibilità e quella geometria persiste anche dopo che il contenuto problematico è stato rimosso, continuare a trattare il problema come una questione di singoli contenuti non significa solo intervenire troppo tardi. Significa intervenire nel posto sbagliato.











