Per anni si è ripetuto che, nell’epoca della disinformazione, i fatti non bastano più a cambiare idea a nessuno. Le nuove ricerche su chatbot e complottismo raccontano però una storia diversa. Al centro c’è il rapporto fra intelligenza artificiale e teorie del complotto, messo alla prova su migliaia di persone convinte che lo sbarco sulla Luna sia finto, che le elezioni americane siano truccate o che il covid sia stato “inventato”.
Indice degli argomenti
Il mito della post-verità e la sfida delle teorie del complotto
L’idea che “i fatti non servano a cambiare idea alle persone” è diventata un pilastro della discussione sull’informazione nell’era digitale. La diffusione delle teorie del complotto sembra confermare questa convinzione, chi crede al moon hoax, una delle teorie del complotto più famose al mondo quella che sostiene che l’allunaggio del 20 luglio 1969, la missione Apollo 11, non sia mai avvenuto e che la NASA abbia inscenato tutto in uno studio cinematografico.
Oppure ai brogli del 2020, quelle teorie del complotto nate dopo le elezioni presidenziali statunitensi del novembre 2020, secondo le quali la vittoria di Joe Biden sarebbe stata ottenuta tramite frode elettorale su larga scala o a narrazioni alternative sul covid appare spesso impermeabile a qualsiasi dato. La ricerca scientifica, però, mostra una realtà più complessa, in parte, più incoraggiante.
Lo studio Science 2024 e i risultati di DebunkBot
Nel settembre 2024 la rivista Science pubblica lo studio “Durably reducing conspiracy beliefs through dialogues with AI”, realizzato da Thomas H. Costello della Carnegie Mellon University, Gordon Pennycook della Cornell University e David G. Rand, anch’egli della Cornell. I ricercatori hanno sviluppato DebunkBot, un chatbot basato su GPT-4 Turbo e lo hanno messo in dialogo con oltre duemila persone che credevano in almeno una teoria del complotto. Il risultato è stato sorprendente, una conversazione di circa otto minuti porta, in media, a una riduzione del 20 per cento della convinzione complottista. Un partecipante su quattro abbandona completamente la teoria iniziale. L’effetto, inoltre, rimane stabile anche due mesi dopo. È interessante notare che l’impatto è identico sia sulle teorie classiche, come l’assassinio di JFK o l’allunaggio, sia su quelle più recenti e politicamente sensibili, come le dispute sulle elezioni americane del 2020 o le narrazioni alternative sul covid. Non si tratta di un cambiamento superficiale, né di un effetto momentaneo. Siamo di fronte a una modificazione cognitiva stabile e misurabile. Questo è uno dei motivi per cui lo studio ha attirato così tanta attenzione.
Perché l’informazione accurata funziona contro il complottismo
I ricercatori mostrano che molti complottisti non sono irrazionali, ma semplicemente male informati. Spesso non hanno mai avuto accesso a spiegazioni chiare, accurate, neutrali e tecnicamente fondate. Un esempio emblematico è l’argomento secondo cui il carburante degli aerei “non fonde l’acciaio”, utilizzato per sostenere che le Torri Gemelle non siano crollate a causa dell’impatto.
L’affermazione è tecnicamente vera, ma incompleta. Il chatbot risponde ricordando che l’American Institute of Steel Construction mostra come il calore del carburante sia più che sufficiente per ridurre la resistenza strutturale dell’acciaio oltre il 50 per cento, valore che basta a provocare un collasso. Questo tipo di informazione richiede conoscenze specialistiche e capacità di ricerca che la maggior parte delle persone non possiede.
L’AI, invece, può recuperare rapidamente i dati pertinenti, organizzarli in modo comprensibile, rispondere in maniera personalizzata alle obiezioni e mantenere un tono neutrale. L’efficacia non nasce dalla capacità persuasiva dell’AI, ma dalla possibilità di offrire, con precisione e immediatezza, informazioni a cui molti non hanno mai avuto accesso. Il chatbot, in altre parole, non “convince” ma informa.
AI o esperto umano la qualità dell’informazione conta più della fonte
Lo studio chiarisce anche che l’efficacia non dipende dal fatto che l’interlocutore sia un’AI. Quando i partecipanti credono di dialogare con un esperto umano, l’effetto è identico. Quando invece si chiede al chatbot di argomentare senza usare dati e informazioni verificabili, l’effetto scompare completamente. Il cambiamento non nasce quindi dalla natura artificiale del modello, ma dalla qualità dei contenuti forniti. Una verifica indipendente condotta da un fact-checker professionista ha mostrato che oltre il 99 per cento delle affermazioni generate dal modello era accurata.
L’analisi 2025 e le implicazioni sociali del debunking via AI
Un anno dopo, nel 2025, gli stessi autori hanno pubblicato un’analisi divulgativa per riflettere sulle implicazioni del loro lavoro. Pur non introducendo nuovi dati sperimentali, questo contributo amplia il quadro interpretativo. I ricercatori osservano che la capacità dell’AI di sintetizzare e organizzare conoscenza complessa apre prospettive concrete per l’educazione civica, per il contrasto alla disinformazione e per il ripristino di una base fattuale condivisa nelle democrazie contemporanee. In un panorama informativo dove la verifica dei fatti richiede tempo, competenze e motivazione, l’AI può ridurre drasticamente le barriere cognitive all’accesso alla verità.
Oltre la post-verità e il mito del backfire effect
L’analisi sottolinea anche che la narrativa della “post-verità assoluta” potrebbe essere eccessiva. Gli studi degli stessi autori mostrano che il famoso “backfire effect” vale meno di quanto si pensi. Il fenomeno del backfire effect è quello secondo cui, quando le persone vengono esposte a una correzione che contraddice le loro convinzioni, non solo non cambiano idea, ma rafforzano ancora di più la credenza iniziale. In altre parole, la correzione “rimbalza” (“backfire”) e produce l’effetto opposto a quello desiderato. In realtà tutto ciò è molto meno comune di quanto spesso si creda: correzioni e avvisi riducono la diffusione di informazioni false e che anche gli individui con orientamenti politici opposti possono rispondere ai fatti quando questi sono presentati in modo chiaro e pertinente. La mente umana non è impermeabile alla verità, è semplicemente sovraccarica.
AI, informazione e democrazia verso un nuovo equilibrio
L’unione dei risultati scientifici del 2024 e delle riflessioni successive del 2025 suggerisce un possibile nuovo equilibrio tra AI, informazione e sfera pubblica, così come l’AI può fungere da alleata del consumatore contro le asimmetrie informative . Se la difficoltà di orientarsi tra contenuti veri e falsi deriva dalla complessità dell’ecosistema informativo, allora strumenti capaci di fornire risposte accurate, contestualizzate e personalizzate possono diventare alleati preziosi. Non si tratta di affidare la verità a un algoritmo, ma di utilizzare l’AI come infrastruttura cognitiva che facilita l’accesso alle informazioni giuste nel momento in cui servono. In questo senso, l’AI non sostituisce la conoscenza: la rende più accessibile. Se la conoscenza torna accessibile, anche il dibattito democratico torna possibile. In un’epoca dominata dalla sensazione di vivere in un mondo “post-truth”, questi risultati offrono una prospettiva diversa: i fatti non sono morti. Vanno solo messi nelle condizioni di essere ascoltati.











