Nel pieno delle tensioni geopolitiche internazionali, stiamo assistendo a una battaglia che si combatte su un fronte meno visibile e scontato ma non per questo meno strategico: quello della percezione pubblica. È una guerra silenziosa che si gioca tra righe di codice e modifiche testuali, all’interno di Wikipedia, la più consultata enciclopedia online al mondo.
La questione non è marginale: ciò che viene pubblicato (o rimosso) su questa piattaforma può incidere direttamente sulla costruzione dell’opinione pubblica e su ciò che verrà scritto e non scritto nei libri di storia. Ecco come funziona e cosa è necessario fare.
Indice degli argomenti
Cos’è Wikipedia e come funziona
Wikipedia è un’enciclopedia libera, collaborativa e multilingue, creata nel 2001 con l’obiettivo di rendere accessibile a tutti la conoscenza umana. A differenza delle enciclopedie tradizionali scritte da esperti accademici, Wikipedia è costruita da una comunità di volontari, chiamati “editori”, che possono modificare le voci in qualsiasi momento. Chiunque, senza alcuna qualifica specifica, può contribuire, anche in forma anonima, a patto che segua le regole della community.
Le modifiche sono regolate da linee guida comunitarie che richiedono l’uso di fonti attendibili, uno stile neutrale e il rispetto della verificabilità. Tuttavia, la gestione dei contenuti non è centralizzata: ogni voce è il risultato di un equilibrio instabile tra utenti con visioni, interessi e sensibilità differenti. Quando sorgono conflitti editoriali, si attivano meccanismi di discussione tra utenti o interventi da parte degli amministratori, ma non sempre con esiti rapidi o imparziali.
Questo modello orizzontale, se da un lato teoricamente garantisce una pluralità di voci, dall’altro espone il sistema a possibili abusi, soprattutto da menti esperte e determinate, come l’inserimento di contenuti parziali, manipolatori o ideologicamente orientati. Per questo motivo, Wikipedia non è semplicemente una fonte neutrale: è un terreno dinamico e fragile, dove si combatte ogni giorno per il controllo della narrazione contro l’anarchia.
Le guerre editoriali: “edit war” per la manipolazione della realtà
Le cosiddette “edit war”, ovvero le guerre di modifica tra utenti, sono sempre più frequenti su voci sensibili legate ad esempio al conflitto israelo-palestinese, alla situazione iraniana o agli sviluppi in Medio Oriente.
Alcune indagini giornalistiche, tra cui quella condotta da Bloomberg, hanno evidenziato come gruppi di editori – spesso anonimi – abbiano alterato contenuti chiave, rimuovendo immagini di proteste o sostituendole con fonti ufficiali governative, fino a utilizzare account multipli per rafforzare una visione di parte. Tutto questo, in un ambiente dove Wikipedia è spesso il primo risultato su Google, altri motori di ricerca e fonti privilegiate delle intelligenze artificiali come ChatGpt ed altri. Significa governare la realtà percepita.
La verità su misura: quando la propaganda si adatta all’utente
Non è la prima volta che si cerca di assoggettare il mondo delle opinioni: basti pensare all’uso massiccio di bot sui social media, come X (ex Twitter), per influenzare le masse. Questi bot, spesso parte di vere e proprie “bot farm”, sono programmati per generare automaticamente commenti, condivisioni e “mi piace”, simulando un consenso popolare artificiale. Ad esempio, l’Internet Research Agency, nota come la “fabbrica dei troll” russa, ha utilizzato migliaia di account falsi per diffondere propaganda e disinformazione durante le elezioni presidenziali statunitensi del 2016, cercando di manipolare l’opinione pubblica a favore di specifici candidati . Queste operazioni non solo distorcono la percezione della realtà, ma minano anche la fiducia nelle piattaforme digitali come strumenti di informazione imparziale
Il problema, tuttavia, è che l’utente medio non dispone degli strumenti necessari per difendersi da una propaganda ingegnerizzata per confondere, poiché è stata creata su misura per lui. Questa propaganda è credibile, logica, convincente e, soprattutto, coerente con le sue credenze e convenienze, secondo il concetto di “filter bubble”.
Il termine “filter bubble”, coniato dall’activista Eli Pariser, descrive una situazione in cui gli algoritmi personalizzano i contenuti online in base alle preferenze dell’utente, escludendo informazioni che potrebbero contraddire le sue convinzioni. Questo isolamento intellettuale rafforza le opinioni esistenti e riduce l’esposizione a punti di vista alternativi, rendendo l’utente più suscettibile alla manipolazione e alla disinformazione .
In questo contesto, la propaganda digitale diventa particolarmente efficace, poiché si inserisce perfettamente nella visione del mondo dell’utente, confermando le sue convinzioni e rendendo più difficile distinguere tra informazione autentica e manipolazione.
Perché Wikipedia può orientare il pensiero comune
La forza di Wikipedia non risiede solo nella mole di informazioni che offre, ma soprattutto nella sua visibilità, semplicità e reputazione percepita. È il perfetto punto d’incontro tra tre elementi decisivi:
- autorevolezza percepita: pur essendo una piattaforma aperta e modificabile, Wikipedia gode di un’aura di affidabilità presso il grande pubblico e i professionisti dell’informazione;
- visibilità algoritmica: è quasi sempre il primo link visualizzato su Google, grazie a un dominio considerato autorevole dai motori di ricerca;
- accessibilità: i contenuti sono scritti con chiarezza, in forma sintetica, ideali per un lettore che vuole informarsi in tempi rapidi.
- fonte preferita dagli algoritmi: le informazioni contenute diventano fonte primaria delle risposte e nuove funzionalità delle AI come Google Overview, deep research ed altre.
Questo mix la rende uno strumento potentissimo per orientare il modo in cui le persone si costruiscono un’opinione.
L’origine della percezione: la lezione di Cicerone
Il concetto di percezione non è nuovo. Già Cicerone, con la sua ars oratoria, ci insegnava che non conta ciò che è vero in assoluto, ma ciò che appare verosimile e viene raccontato con efficacia. Oggi, nell’era digitale, quella logica è di uso comune ed è devastante. Chiunque può intervenire nel dibattito pubblico, modificare contenuti, creare narrazioni. Non esiste una verità univoca, ma una pluralità di racconti in lotta tra loro.
Lo dimostrano bene fenomeni allucinatori come i terrapiattisti, i no-vax, i complottisti o i sostenitori delle teorie sui rettiliani. Con narrazioni emotive, visivamente accattivanti, e facilmente condivisibili, riescono a orientare la percezione più della scienza ufficiale. In questo contesto, la capacità di comunicare efficacemente diventa più importante del contenuto stesso e crea follower (seguaci, più che inseguitori).
Vero, verità, realtà: 4 esempi pratici di manipolazione della realtà
Nel dibattito contemporaneo – ancor più nel contesto digitale – è fondamentale distinguere tre concetti spesso confusi: vero, verità e realtà.
Il “vero” è ciò che può essere dimostrato con prove, verificabile in modo oggettivo.
La “verità” è invece un costrutto più complesso: può essere soggettiva, narrativa, talvolta influenzata da credenze, cultura, ideologia.
La “realtà”, infine, è ciò che accade, ma anche ciò che viene percepito come tale, filtrato attraverso le nostre esperienze, emozioni, bias cognitivi e – oggi – attraverso gli algoritmi che ci suggeriscono cosa vedere, leggere, credere.
Il vero può essere reso falso, sovvertendo la verità e modificando la realtà.
Nel mondo della comunicazione digitale, questi tre piani si confondono facilmente.
La notizia di una protesta repressa può essere vera, ma se viene rimossa da Wikipedia o non appare nei primi risultati su Google, rischia di non diventare mai una “verità percepita”. Se nessuno ne parla, diventa invisibile. Di conseguenza, non entra nella realtà vissuta dalla maggior parte delle persone.
Il caso di Cambridge Analytica
Il caso di Cambridge Analytica è diventato, per molti, una sorta di leggenda digitale: evocato come un mito moderno, simile alla spada nella roccia di Merlino, ma spesso svuotato del suo reale significato.
I non addetti ai lavori, infatti, tendono a non cogliere la reale portata di ciò che è accaduto: una violazione su larga scala della libertà individuale e del diritto all’autodeterminazione informativa.
È proprio da quell’evento, emblema della manipolazione algoritmica a fini politici, che ha preso forma una nuova consapevolezza globale. Non a caso, il GDPR – il Regolamento europeo sulla protezione dei dati – nasce anche come risposta sistemica a quella crisi di fiducia. E non è un caso se, all’improvviso, colossi come Meta (Facebook) abbiano iniziato a parlare pubblicamente dell’importanza della privacy degli utenti: un cambio di tono dettato più dalla pressione pubblica e normativa che da una reale svolta etica.
Cambridge Analytica ci ha mostrato che il potere della profilazione e della manipolazione delle opinioni non è più fantascienza, ma strategia concreta. Eppure, il rischio è che la memoria collettiva ne conservi solo l’eco, dimenticando la sostanza, attraverso la riscrittura dell’oblio e della storia.
La gestione narrativa della rivolta di Piazza Tienanmen
Altri esempi di come il vero è stato scardinato dalla verità influenzando la realtà:
Esempio 1: emblematico è la gestione narrativa della rivolta di Piazza Tienanmen del 1989 in Cina. I fatti sono storicamente documentati: migliaia di studenti e cittadini manifestavano pacificamente per la democrazia e le riforme. La repressione fu violenta e provocò centinaia, forse migliaia di morti. Questo è il fatto, il vero. Tuttavia, all’interno della Cina, quella verità è stata sistematicamente rimossa dai libri, dai media, e – quando possibile – anche da internet. L’episodio è praticamente censurato, al punto che intere generazioni non ne hanno mai sentito parlare. E così, ciò che è successo non entra nella realtà percepita da milioni di cittadini cinesi. Non è mai diventato, per loro, una “verità” sociale condivisa.
Il complottismo pandemico
Esempio 2: è il complottismo pandemico: la realtà (es. milioni di morti per Covid-19) è oggettiva; ma la verità abbracciata da alcuni (“è tutta una farsa orchestrata”) è soggettiva e basata su narrazioni costruite per dare sollievo a paure profonde. Alcuni contenuti falsi vengono percepiti come più “veri” perché rassicurano, confermano un pregiudizio o offrono un colpevole.
La negazione dell’Olocausto
Esempio 3: più delicato riguarda la negazione dell’Olocausto. Nonostante l’esistenza di prove storiche, testimonianze e documenti inconfutabili, esistono gruppi che negano l’esistenza o ridimensionano l’entità dello sterminio degli ebrei durante la Seconda guerra mondiale. In alcuni paesi, questi contenuti vengono diffusi in rete in forma di documentari, siti pseudoscientifici, o post social. Anche quando i fatti sono veri, la “verità” accettata da alcuni diventa una costruzione ideologica funzionale a interessi specifici.
L’inizio della guerra tra Russia e Ucraina
Esempio 4: è l’inizio della guerra tra Russia e Ucraina. La narrazione ufficiale del Cremlino parlava di una “operazione militare speciale per denazificare l’Ucraina”, mentre il resto del mondo parlava di un’invasione illegittima. Le due verità erano antagoniste, costruite ad arte per generare consenso interno ed esterno. La realtà, fatta di bombe, profughi e morti, era sotto gli occhi di tutti, ma ogni parte del conflitto ha cercato di piegarla a un racconto funzionale ai propri obiettivi politici e strategici.
La lezione è chiara: nella società dell’informazione non basta che qualcosa sia vero perché venga creduto. Deve essere raccontato nel modo giusto, nel momento giusto, con il linguaggio adatto. Ecco perché la comunicazione strategica è diventata la chiave per influenzare la percezione e, di riflesso, la realtà stessa, perseguendo l’hackeraggio del cervello umano.
Meccanismi psicologici sfruttati nella guerra editoriale
Come spiega Daniel Kahneman in “Pensieri lenti e veloci”, le nostre decisioni sono guidate da due sistemi: uno intuitivo e veloce, l’altro razionale ma più lento. Il marketing e la comunicazione, ovviamente, puntano sul primo.
Robert Cialdini, in “Le armi della persuasione”, ha codificato le leve psicologiche più efficaci: autorità, scarsità, reciprocità, coerenza, simpatia. Le stesse che troviamo ogni giorno nei post sponsorizzati, nei funnel di vendita, nei messaggi politici.
E come denuncia Shoshana Zuboff in “Il capitalismo della sorveglianza”, le grandi piattaforme digitali non si limitano più a raccogliere dati: prevedono e influenzano i comportamenti per monetizzarli.
Come fanno i motori di ricerca
Algoritmi come quello di Google sono progettati per rispondere ai nostri istinti cognitivi primari. Quando cerchiamo un’informazione, il nostro cervello desidera ottenere risultati che siano rapidi, pertinenti, facilmente comprensibili e a basso rischio d’errore. In altre parole, il nostro cervello preferisce la scorciatoia cognitiva più economica. Questo significa che spesso ci fidiamo ciecamente del primo risultato proposto, attribuendogli automaticamente lo status di “verità”. È proprio in questa dinamica che si gioca il potere dei motori di ricerca nel plasmare la nostra percezione della realtà.
Come fanno i social media
I social media seguono una logica differente, ma altrettanto potente, legata alla neurochimica del piacere. Le piattaforme stimolano il rilascio di dopamina, il neurotrasmettitore della gratificazione, attraverso contenuti emotivamente intensi: violenza, erotismo, paura, rabbia, invidia, cibo, grottesco, sentimento di ingiustizia e fastidio, distrazione dalla realtà. Questo meccanismo tiene l’utente incollato allo schermo, alimentando dipendenza, fidelizzazione ed annichilimento dalla percezione del passare del tempo o dalla gravità degli eventi per via dell’effetto di disintermediazione.
Inoltre, i social sono il luogo principe delle “filter bubble”: ecosistemi informativi chiusi dove vediamo solo ciò che rafforza le nostre opinioni, diventando progressivamente impermeabili a punti di vista diversi. (se cerchi gatti, ti appariranno sempre più gatti entrando in un loop di riconferme).
Come fanno le intelligenze artificiali
Le intelligenze artificiali, come i modelli linguistici di grandi dimensioni (es. Chat GPT ed altre), si nutrono di enormi quantità di dati e testi, molti dei quali provenienti proprio da fonti come Wikipedia e da risultati ben posizionati su Google. Se la fonte è manipolata o incompleta, anche la risposta dell’IA rischia di riflettere (e amplificare) quella distorsione. L’IA non distingue il vero dal falso, ma seleziona ciò che statisticamente è più coerente e rilevante secondo gli schemi appresi. In questo senso, è una macchina della percezione che può diventare tanto utile quanto pericolosa se alimentata da informazioni sbilanciate, ideologiche o manipolate e ciò è il concetto coniato di Web Reputation Artificiale (TM).
Reputation Economy: contare è apparire
Nella Reputation Economy, la percezione è più importante della sostanza. Ciò che appare su Google, su Wikipedia, sui social, ha effetti concreti su carriera, affari, relazioni. Una recensione negativa, un’informazione distorta, una notizia manipolata possono danneggiare la credibilità di un’azienda o di un professionista in modo irreversibile.
Per questo, oggi è fondamentale sviluppare una strategia reputazionale integrata: monitorare ciò che si dice online e che impatto ha sulla reputazione attuale e futura, correggere le distorsioni, essere protagonisti di contenuti autorevoli ed utili. Chi riesce a presidiare la propria identità digitale con metodo, ottiene un vantaggio competitivo decisivo per sopravvivere e brillare.
Comunicazione e narrazione: strumenti di difesa (e potere)
Per tutelare i propri interessi nella reputation economy è necessario dotarsi di:
- sistema di monitoraggio reputazionale aggiornato ed al passo con l’evoluzione tecnologica
- un’identità digitale forte (sapere chi sei e per questo comunicarlo in modo efficace)
- costruire lo Scudo Reputazionale® in grado di mantenere alta l’autorevolezza nel proprio settore
- fare Pulizia Digitale® per eliminare i contenuti diffamatori che danneggiano il potere negoziale
- misurare lo stato di salute della web reputation (Resilienza Reputazionale (TM)) per avere controllo come strumento essenziale di protezione e di raggiungimento dei propri obiettivi.
Essere trasparenti non basta. In un’epoca di disinformazione algoritmica, è fondamentale comunicare in modo strategico. Questo significa costruire una narrazione solida, fondata su valori, visione, posizionamento. E soprattutto, significa conoscere le tecniche e i linguaggi dell’ecosistema digitale per evitare che altri raccontino al nostro posto — o contro di noi, ma soprattutto prevedendo ed anticipando le mosse future dettate dal progresso e dall’incerto.
Wikipedia e branding: rischi e alternative efficaci
Wikipedia non è una vetrina di personal branding. È un’enciclopedia collaborativa, che raccoglie voci su soggetti considerati di interesse enciclopedico. Utilizzarla per aumentare la propria visibilità online può rivelarsi un boomerang.
Chi crea una pagina su Wikipedia deve sapere che non ne possiede il controllo. Chiunque può modificarla, anche con contenuti lesivi, errati o parziali. Difendersi richiede competenze specifiche, tempo, costanza. E, soprattutto, accettare che la propria immagine venga gestita da altri.
Per affermarsi nella propria nicchia professionale esistono strumenti più efficaci: LinkedIn, pubblicazioni, interviste, podcast, siti personali, content marketing. Solo quando si è già ampiamente riconosciuti da fonti terze indipendenti e autorevoli, Wikipedia può rappresentare uno strumento utile — e solo se gestito con una strategia ben definita.
In definitiva, la reputazione oggi si costruisce (e si difende) online. Comprendere le logiche della percezione, presidiare la propria immagine e investire in narrazione strategica è fondamentale per chiunque voglia distinguersi nel proprio settore. Perché, nel nuovo ecosistema digitale, non conta solo chi sei, ma soprattutto come appari e mantenere il controllo.