Social media e teorie del complotto: perché si diffondono e come vaccinarsi - Agenda Digitale

Cultura digitale

Social media e teorie del complotto: perché si diffondono e come vaccinarsi

L’uso intensivo dei social media durante la pandemia ha favorito il diffondersi delle teorie del complotto. Come si diffondono, il ruolo di echo chambers e filter bubbles, come riconoscerle. L’uso del pre-bunking come prevenzione alla disinformazione e le sfide aperte

15 Mar 2021
Daria Grimaldi

docente di psicologia sociale delle comunicazioni di massa, Università di Napoli Federico II

Durante il 2020, per colmare il distanziamento fisico, l’utilizzo e la permanenza sui social media sono aumentati in modo esponenziale.[1]

Mentre coprivano un vuoto emotivo, i social hanno aperto uno spazio proficuo per alimentare e far crescere le teorie del complotto.

La pandemia ha creato una tempesta perfetta per la disinformazione: contemporaneamente al virus si diffonde in modo epidemico una propensione al pensiero complottista, ben rappresentata dal successo del gruppo noto come QAnon, la summa del cospirazionismo moderno.[2] L’idea di fondo di QAnon è l’esistenza di un Deep State, colluso con reti di pedofilia globale, che agirebbe con l’obiettivo di raggiungere un nuovo ordine mondiale: di volta in volta l’evoluzione delle vicende politiche o sociali cambia il perimetro di interesse ed azione del gruppo che oggi, in Italia, si aggancia a temi quali 5G e coronavirus.

L’incertezza, la paura, la carenza di relazioni sociali ed una comunicazione pubblica schizofrenica, hanno guidato (e stanno guidando) i mesi di pandemia e sono, con ogni probabilità, le ragioni che hanno alimentato uno stato emotivo anomico, che risponde facilmente a qualunque apparente spiegazione, assieme al crescente utilizzo dei social network.

Sul ruolo del digitale in questo processo è necessario fare una riflessione specifica, perchè con la limitazione dell’interazione fisica nella vita quotidiana, diviene più probabile entrare nella spirale del complottismo, con la differenza che, questa volta, diffondere informazioni false va a toccare il più profondo e complesso processo di condivisione delle rappresentazioni sociali e dei meccanismi di costruzione di consenso.

Come e perché le teorie QAnon del complotto si diffondono sui social

La Rete, i social e i meccanismi di polarizzazione che agevolano, sono senza dubbio tra gli elementi che hanno concorso alla diffusione virale delle argomentazioni di QAnon. [3]

WHITEPAPER
Il processo d’acquisto nel B2B è cambiato: scopri come attrarre i buyer e gestire la vendita online

Il gruppo non funziona infatti come altre teorie del complotto: invece di cooptare gli adepti ed esporre la cospirazione, si muove con una tecnica ad alto coinvolgimento e bassa resistenza. Non dichiara apertamente le sue posizioni, evitando così la reattanza, ma propone alle persone di fare la propria ricerca e confermare o disconfermare l’illazione, quando il dubbio è ormai insinuato: si crea un meccanismo di dipendenza già noto nei giochi di realtà alternativa. QAnon rende il processo di ricerca motivante, soprattutto perché permette di agire con il supporto percepito degli “altri”, condividendo e attivando tutti i meccanismi di identificazione propri delle dinamiche di gruppo. Si tratta di un vero e proprio fenomeno sociale di aggregazione, in un momento in cui la paura e l’ansia aumentano il pericolo e la fragilità del sentirsi atomizzati.

La disinformazione connessa ha delle implicazioni talmente gravi in termini di sicurezza globale, di processo di condivisione delle rappresentazioni sociali e dei meccanismi di costruzione di consenso da rendere necessario da parte della Commissione Europea e dell’UNESCO la creazione di infografiche didattiche ad hoc, per sensibilizzare la popolazione sul fenomeno distorsivo ed imparare ad individuarlo e contrastarlo nello stesso luogo dove diviene più fertile: online.

Infatti, le persone più sensibili alle teorie del complotto sono anche più inclini a reagire online sui social media (condividere o fare like) in relazione agli argomenti riconducibili alle teorie del complotto, e amplificano enormemente il potenziale epidemico delle informazioni fuorvianti.[4]

I dati del 16° Rapporto Censis sulla Comunicazione sottolineano come, per quanto gli italiani prediligano sempre i telegiornali (59,1%), è in crescita la percentuale di quanti annoverano come fonte d’informazione preferita Facebook (31,4%), seguito dai motori di ricerca (20,7%), TV all news (19,6%) e quotidiani cartacei (17,5%). Rispetto alla qualità della conoscenza, la maggioranza delle persone (60%) preferisce notizie il più possibile neutrali, il che risponde alla percezione (distorta) che sui media digitali la comunicazione sia più neutrale degli strumenti classici viziati dall’Agenda setting.

Social media e teorie del complotto: il ruolo di echo chambers e filter bubbles

Gli algoritmi di personalizzazione modellano i contenuti di accesso attraverso i browser di ogni utente, creando un processo centrifugo modellato dalla bolla dei filtri, in cui il bacino di selezioni viene ristretto. L’utente non può comprendere il dettaglio delle logiche di filtraggio operate dal mezzo per linvisibilità selettiva: non sono quindi chiare le ragioni che portano ad essere in una determinata bolla, al di là delle scelte consapevoli. Facebook suggerisce gruppi e notizie per affinità, ma per la maggior parte degli utenti è oscuro il modo in cui il mezzo decida cosa proporgli: il che porta a credere si tratti di contenuti rilevanti tout court.

Nei social si distingue una personalizzazione autoselezionata ed una preselezionata[5] .  La personalizzazione autoselezionata rientra perfettamente nell’esposizione, volontariamente selettiva, di quanti ricercano informazioni coerenti con il proprio punto di vista, mentre la personalizzazione preselezionata coincide con le soluzioni tecnologiche che selezionano contenuti coerenti con i comportamenti degli utenti, senza che sia esplicitamente chiaro il processo sotteso.

L’autosegregazione all’interno delle “eco chambers”, le camere dell’eco che confermano la propria visione del mondo,  è considerata come una scelta da parte del soggetto, che si incrocia con le “filter bubbles”, le bolle di filtraggio derivate dalle logiche specifiche dell’algoritmo del mezzo .[6]  L’utente potrà comunque essere esposto a contenuti non graditi, per diverse ragioni, tra cui la sovrapposizione dei “personal publics”, le cerchie differenziate che legano diversi pubblici attorno ad una conversazione e che si costruiscono a partire dalla rilevanza personale che hanno determinati contenuti. [7]  In ultimo, sono le scelte individuali a guidare la creazione di palinsesti personalizzati, il che rende cruciale il problema del rischio di estromissione di contenuti informativi rilevanti per il tessuto sociale o, al contrario, la diffusione di disinformazione potenzialmente nociva per la collettività.

Per quanto si possa stare attenti a non condividere fake news o teorie del complotto personalmente, non è da escludere che possa farlo qualche contatto: con poca attenzione, è possibile prendere la notizia come vera, essere colpiti emotivamente e spinti a fare ricerche confermative per approfondire la questione. Un processo che produce, serendipicamente, una mole di informazioni scorrette, ma coerenti con credenze ed attitudini dell’utente, che attiva un processo di “proattitudinal information”, alimentando in modo disfunzionale le conoscenze nelle sue cerchie. Questa tendenza risponde alla domanda di soggetti con posizioni particolarmente polarizzate, che alimentano la ricerca di fonti alternative ed il rischio di disinformazione.[8]

Come riconoscere le teorie del complotto: 7 caratteristiche

Come è possibile allora difendersi dalla disinformazione dei complottisti sui social media? Conoscendola.

La consapevolezza dei processi che portano alla costruzione delle teorie del complotto aiuta a individuarle sui social media ed evitare di incorrere in fraintendimenti.

A partire dagli studi di Lewandowsky e Cook, è possibile individuare sette caratteristiche principali delle teorie del complotto (riconducibili all’acronimo inglese di CONSPIR) e collegarle ai principali bias cognitivi coinvolti nel processo. [9]

1. Contraddittorietà (Contradictory): in una teoria del complotto, la coerenza interna delle posizioni non è essenziale. L’unico obiettivo è contraddire la versione ufficiale dei fatti, senza necessità che ci sia una linearità logica tra le posizioni che vengono supportate e proposte. Il rapporto tra fatti e verità è senza dubbio più complesso di quanto si possa immaginare, soprattutto alla luce del bias del punto cieco, che impedisce di vedere la soggettività del proprio punto di vista, erroneamente considerato sempre più oggettivo rispetto a quello altrui.[10] I social media, per effetto della filter bubble, amplificano questo bias.

2. Diffidenza (Overriding suspicion) verso qualunque versione ufficiale. Il sospetto sistematico ha l’obiettivo di mantenere in piedi la realtà costruita attorno al tratto cospirazionista, che diviene l’unica realtà credibile su cui ancorare le percezioni successive. In questo caso prevale il bias di conferma, che spinge a prendere in considerazione in modo esclusivo le evidenze che corroborano la nostra idea tralasciando o discriminando quelle che le contraddicono.[11] La diffidenza porta l’individuo a polarizzarsi fortemente rispetto alle proprie convinzioni, assumendo un tono aggressivo (hate speech) con chiunque la pensi diversamente. l’assenza di confronto diretto, faccia a faccia, con la lettura della dimensione non verbale e con l’attivarsi di meccanismi di empatia, aumentano il rischio di derive fondamentaliste da parte dei membri di questi gruppi.

3. Intento nefasto (Nefarious Intent) alla base delle motivazioni. I cospirazionisti sarebbero in questo senso più propensi ad incorrere nel bias di proporzionalità, che porta a cercare una proporzionalità tra la portata del fenomeno e le sue presunte cause. Più in generale la leva emotiva è quella che spinge maggiormente all’azione sulle piattaforme social:  le informazioni che inducono maggiore arousal, eccitazione, implicano un investimento emotivo che deve essere processato come proporzionale alla causa.

4. Sospetto (Something Must Be Wrong): l’approccio sospettoso esula da una specifica motivazione, portando a costruirsi una realtà alternativa per la quale quella ufficiale è fittizia ed ingannevole. In questo senso, l’atteggiamento di autorinforzo alle proprie posizioni complottiste persegue il meccanismo noto nelle dinamiche di gruppo per cui si procede sistematicamente alla svalutazione e all’etichettamento negativo di chiunque la pensi diversamente o si ponga in modo critico rispetto al proprio gruppo. Il bisogno di chiusura cognitiva che regola i processi conoscitivi intergruppo, spinge i membri verso l’uniformità: così nella dicotomia illuminati vs schiavi, che si innesca nella mente del complottista, chiunque non concordi è potenzialmente coinvolto nel sospetto.[12]

5. Vittimismo (Persecuted): la percezione diffusa di essere perseguitati dai cospiratori, fa da contraltare all’idea di essere i paladini della verità, acquisendo una percezione di sé ambivalente. Effetto coerente con la creazione della mente di gruppo omologante è la tendenza a vedere come nemici coloro che non appoggiano le teorie del complotto. Una tendenza che porta questi gruppi a rafforzare a tal punto la propria identità sociale da innescare fenomeni di depersonalizzazione e deindividuazione: processi che trovano nelle interazioni digitali un ambiente di notevole amplificazione.[13]

6. Immunità dinanzi a prove fattuali (Immune to Evidence) della veridicità della posizione ufficiale. L’eventuale presenza di evidenze porta i complottisti a mettere in piedi forzature che giustifichino il complotto, incorrendo così nella “fallacia della congiunzione” che lascia emergere nessi di causalità tra eventi solo perchè co-occorrono, senza ci sia tra essi una fondata relazione.[14]

7. Reinterpretazione della casualità (Re-interpreting randomness). Un meccanismo di reinterpretazione delle coincidenze, presume che le casualità vengano spiegate in virtù di nessi causali perchè nulla sia realmente accidentale. Frequente la propensione del complottista nell’evidenziare un’intenzionalità o una “agenticità” riguardo ad eventi che in realtà sono soltanto casuali (Hypersensitive agency detection bias).[15] Il digitale offre in tal senso un’infinita possibilità di accesso a risorse che possano confortare le illazioni, raggiunte attraverso un proattivo processo di ricerca.

Social media e teorie del complotto: come vaccinarsi dalla disinformazione

Le cospirazioni reali esistono ed un sano scetticismo nei confronti dei resoconti ufficiali è utile tanto quanto la ricerca di coerenza interna rispetto alle informazioni a disposizione.

Incoraggiare le persone al pensiero analitico può essere un valido escamotage difensivo rispetto alla falsa narrazione della realtà su cui si basano le teorie del complotto diffuse sui social media. Fact cheching, fonti affidabili, strumenti di debunking, confronti con persone competenti, sono ingredienti necessari per scoprire veri tentativi di ingannare il pubblico.

Il pre-bunking, inteso come una vera e propria vaccinazione, ovvero l’inoculazione di tecniche che favoriscano la resistenza preventiva alla disinformazione, è lo strumento più efficace per limitare l’espandersi delle teorie del complotto, sui social media e non solo. Il pre-bunking permette infatti di giocare d’anticipo, di agire sulla consapevolezza di come funzionano i meccanismi cospirativi e gli errori di ragionamento nelle teorie del complotto. In tal modo le persone possono essere meno vulnerabili e sviluppare una capacità critica, fondamentale per la resistenza di fronte ai messaggi disinformativi.[16]

Va precisato che l’obiettivo di promuovere il pensiero analitico come mezzo per contrastare la diffusa accettazione delle teorie del complotto è essenziale ed opportuno, quanto tutt’altro che semplice.[17] Si tratta di un processo complesso, che deve tenere in considerazione, in termini collettivi, diversi fattori: in primo luogo, lo sforzo cognitivo necessario per aggirare la spontanea tendenza a processi rapidi ed euristici, quindi un impegno non proporzionale alle capacità dell’individuo non esperto o motivato; in secondo luogo, il potere distraente dei social media, che per definizione sono luoghi di interazione rapida, emotiva e non riflessiva; in ultimo, non per importanza, le dinamiche proprie dei processi di influenza interpersonale di massa, che agiscono sul singolo senza che ne abbia consapevolezza e che sono alla base di molte strategie disinformative costruite a tavolino, che si avvalgono anche di account falsi o bot. [18]

Di fatto, il prebunking ha senso come prima azione di difesa nell’ambito di una strategia per combattere la disinformazione che sia molto più ampia, che metta insieme intuizioni provenienti dalla conoscenza del funzionamento cognitivo con gli sviluppi dell’informatica, dell’istruzione e delle politiche pubbliche.

C’è però un dato più squisitamente sociologico che riguarda l’attitudine, sempre più correlata al mondo social, a far prevalere la dittatura del dilettante su quella dell’esperto, che altera i confini della credibilità delle fonti, nascondendosi dietro una disintermediazione della conoscenza rispetto ai media mainstream.[19] Se davvero di democrazia si vuole parlare (posto che il termine sia pertinente in un dibattito di comunicazione di massa), i singoli devono poter prendere decisioni basate su fatti reali e fonti attendibili, senza che il filtro sia arbitrariamente demandato alla personale capacità selettiva o alle politiche interne delle grandi aziende digitali ed anche senza il rischio di perdersi nella frammentazione crossmediale che incide sulla credibilità delle fonti ufficiali.

Diventa necessario avviare un intervento di diffusione della cultura della comunicazione digitale, un’alfabetizzazione che metta in evidenza l’aspetto immateriale dei processi, e non soltanto quelli materiale e tecnologici. Questo è l’unico vero e proprio vaccino contro la disinformazione delle teorie del complotto diffuse anche via social media.

________________________________________________________________________________________

Bibliografia

  1. In Italia i social sono utilizzati dal 74% della popolazione per acquisire notizie, anche se non in modo esclusivo: il podio è per Facebook, il più utilizzato (56%), seguito da WhatsApp (29%) e YouTube (24%): Fonte: Vincos – Come si informano gli italiani
  2. “Uno studio globale effettuato in 28 paesi, più di tre persone interpellate su 10 ritengono che una potenza straniera o qualche altra forza stia deliberatamente provocando la diffusione della COVID-19” (Gallup International, March 2020)
  3. Cfr: Gregory J., McDonald K.,Le bufale più diffuse sul Covid-19 e come si sono sviluppate
  4. Bessi, A., Coletto, M., Devidescu, G. A., Scala, A., Caldarelli, G., & Quattrociocchi, W. (2015). “Science vs conspiracy: Collective narratives in the age of misinformation”. PLOS ONE, 10, e0118093. doi:10.1371/journal. pone.0118093;
  5. Borgesius e coll. (2016) “Should we worry about filter bubbles?“, Internet Policy Review. Volume 5(1) 
  6. Pariser E. (2011) “The Filter Bubble: What the Internet Is Hiding from You”, New. York: Penguin Press
  7. Schmidt, J.-H. (2014): “Twitter and the Rise of Personal Publics” in: K. Weller, A. Bruns, J. Burgess, M. Mahrt, C. Puschmann (eds.), Twitter and Society. New York: Peter Lang, pp. 3-14
  8. Bentivenga S., Boccia Artieri G., (2019) “Le teorie delle comunicazioni di massa e la sfida digitale”, Editori Laterza
  9. Lewandowsky S. Cook J., “The Conspiracy Theory Handbook”, 2013
  10. Pronin E. e Lin D.Y., (2002) “The Bias Blind Spot: Perceptions of Bias in Self Versus Others” , in Personality and Social Psychology Bulletin, 2002, Vol 28(3):369-381
  11. Nickerson R.S. (1998), Confirmation Bias: A Ubiquitous Phenomenon in Many Guises, Review of General Psychology 1998, Vol. 2(2): 175-220
  12. Kruglanski, A. W. (2004), “The psychology of closed mindedness”, New York: Psychology Press
  13. Janis, I. L. (1982). “Groupthink: Psychological Studies of Policy Decisions and Fiascos”. Boston: Houghton Mifflin
  14. Gilovich, T., & Savitsky, K. (2002). “Like goes with like: The role of representativeness in erroneous and pseudo-scientific beliefs“. In T. Gilovich, D. Griffin, & D. Kahneman (Eds.), “Heuristics and biases: The psychology of intuitive judgment” (p. 617–624). Cambridge University Press.
  15. Douglas K M et alii, (2016), “Someone is pulling the strings: Hypersensitive agency detection and belief in conspiracy theories”, inThinking and Reasoning” 22 (1) DOI: 10.1080/13546783.2015.1051586
  16. Jon Roozenbeek, Sander van der Linden, “Fake news game confers psychological resistance against online misinformation“, Palgrave Communications volume 5, Article number: 65 (2019)
  17. Swami et alii (2014), “Analytic thinking reduces belief in conspiracy” in: Cognition ; 133 (2014), 3. – S. 572-585
  18. Shao, C., Ciampaglia, G. L., Varol, O., Yang, K.-C., Flammini, A., & Menczer, F. (2018). “The spread of low-credibility content by social bots”. Nature Communications, 9, 4787. doi:10.1038/s41467-018-06930-7
  19. Keen A. (2007). “The cult of the Amateur: how today’s internet is killing our culture”. Currency
WEBINAR
28 Ottobre 2021 - 11:00
Guida pratica alla trasformazione digitale: le esperienze dei manager italiani ai posti di comando
Big Data
Cloud
@RIPRODUZIONE RISERVATA

Articolo 1 di 3