propaganda

Fake news e AI: perché la disinformazione batte la verità



Indirizzo copiato

Fake news e AI si rafforzano: gli algoritmi premiano l’engagement, aumentano l’esposizione e consolidano bias cognitivi. Deepfake e modelli linguistici rendono il falso scalabile e a basso costo. In una sfera pubblica frammentata servono trasparenza, norme e media literacy

Pubblicato il 6 feb 2026

Marino D'Amore

Docente di Sociologia della comunicazione, Università degli Studi Niccolò Cusano



scudo europeo per la democrazia democrazia e intelligenza artificiale

Le fake news rappresentano un’aberrante edulcorazione comunicativa, ma anche un fenomeno semantico complesso, finalizzato alla creazione di un clima tensivo. Esse, nel tempo, assumono la forma di slogan politici, populisti e post-veritieri, agendo come armi dialettico-retoriche in grado d’influenzare la costruzione dell’opinione pubblica.

In seguito alle elezioni presidenziali negli Stati Uniti del 2016, le prime vinte da Donald Trump, Allcott e Gentzkow hanno analizzato le dinamiche secondo cui un imponente flusso di notizie false abbia raggiunto milioni di utenti attraverso i social network, come dimostrato, in seguito, dallo scandalo che ha coinvolto la società di consulenza Cambridge Analytica (2017). La quantità delle informazioni trasmesse ha contribuito certamente al conseguimento del risultato sopracitato, ma è stata soprattutto la loro concezione strutturale a rappresentare il catalizzatore fondamentale per una diffusione così invasiva e, al contempo, efficace.

La disinformazione non nasce con Internet: la propaganda, ad esempio, accompagna l’esistenza antropica sin dalle sue origini (Jowett, O’Donnell, 2018). Tuttavia, ciò che muta radicalmente nel contesto digitale è la combinazione, relazionale e reciproca, tra velocità, personalizzazione e automatizzazione.

Non siamo più davanti a un semplice mezzo di trasmissione, ma a un ambiente algoritmico che seleziona, ordina e gerarchizza l’informazione, influenzando la società. In tale scenario, lintelligenza artificiale si mostra come un punto centrale, il cuore invisibile dell’ecosistema comunicativo.

Fake news e AI: l’ambiente algoritmico che gerarchizza l’informazione

Spesso si pensa all’A.I. come a una sorta di entità antropomorfa, munita di potere decisionale. In realtà, essa opera attraverso modelli matematici che apprendono da enormi quantità di dati (Norvig, 2021). Tuttavia, dal punto di vista sociologico, ciò che conta non è soltanto il funzionamento tecnico: è il suo effetto sistemico.

Modelli, dati e conseguenze sociali

Gli algoritmi di raccomandazione non producono semplicemente contenuti, ma visibilità che, nella società digitale, equivale a potere simbolico. Come osserva Gillespie (2018), le piattaforme non sono spazi neutri: sono “custodi” che organizzano ciò che può essere visto e ciò che rimane ai margini. Qui emerge il primo nodo del rapporto tra fake news e AI: gli algoritmi privilegiano ciò che genera interazione.

I sistemi non distinguono, almeno in prima istanza, tra vero e falso: ottimizzano l’engagement e contenuti polarizzanti, emotivamente intensi o scandalistici tendono a generare maggiore coinvolgimento (Tufekci, 2015). In altre parole, la disinformazione non viene premiata perché falsa, ma perché efficace nell’economia dell’attenzione.

AI come architettura della visibilità e potere simbolico

La visibilità diventa una risorsa scarsa e, quindi, un capitale. In un flusso informativo sovrabbondante, ciò che emerge non è necessariamente ciò che è più accurato, ma ciò che è più capace di attivare reazioni, commenti e condivisioni. Questo aspetto sposta la questione dalla verità come criterio alla performance comunicativa come metrica.

Piattaforme come “custodi” dell’attenzione

Il punto cruciale è che le piattaforme organizzano l’esperienza informativa tramite gerarchie opache e dinamiche adattive. L’utente non incontra semplicemente notizie: incontra una selezione che risponde a obiettivi di permanenza e coinvolgimento. In tale cornice, il falso può risultare competitivo perché spesso è costruito per essere più urgente, più “memorabile”, più adatto a circolare.

Ne consegue che la domanda sociologica non è soltanto “chi produce il falso”, ma “quale architettura rende il falso vantaggioso”. L’AI, in questo senso, non è un attore morale: è un acceleratore che redistribuisce attenzione secondo incentivi economici e metriche di interazione.

Perché il falso si diffonde: fake news e AI tra emozioni e ripetizione

Vosoughi, Roy e Aral, all’interno di una loro ricerca pubblicata sulla rivista Science, hanno dimostrato che le notizie false si diffondono più rapidamente rispetto a quelle vere (Vosoughi, Roy & Aral, 2018). Tale risultato rivela dinamiche complesse, sottese al mero dato statistico: le fake news spesso contengono elementi di novità, sorpresa e sedicente indignazione, obbedendo ai classici criteri di notiziabilità e attivando emozioni forti, che aumentano la probabilità di condivisione in un’ottica prettamente post-veritiera.

Dalla viralità ai bias cognitivi

Questo si collega all’“illusory truth effect”: la ripetizione aumenta la percezione di veridicità (Dechêne et al., 2010). Quando l’A.I. moltiplica esposizioni e riproposizioni, non fa che rafforzare meccanismi cognitivi già esistenti. La questione non è dunque se la tecnologia “mente”, ma come interagisce con vulnerabilità cognitive e dinamiche sociali preesistenti.

Negli ultimi anni il problema si è ulteriormente complicato. Se inizialmente l’AI fungeva da moltiplicatore di contenuti esistenti, oggi è anche generatrice autonoma di testi, immagini, video e audio. Il fenomeno dei deepfake rappresenta uno spartiacque in questo senso: Chesney e Citron (2019) hanno evidenziato i rischi per la democrazia e la sicurezza pubblica derivanti dalla creazione di contenuti audiovisivi falsificati ma estremamente realistici.

Produzione automatizzata e deepfake

Parallelamente, la diffusione di modelli linguistici di grandi dimensioni ha reso possibile produrre articoli, commenti e narrazioni plausibili in quantità industriale. Bender et al. (2021) hanno parlato, con espressione provocatoria, di “pappagalli stocastici”, sottolineando come questi sistemi generino forme di testo plausibili senza alcuna comprensione semantica.

Tutto ciò introduce un cambiamento qualitativo: la disinformazione non richiede più grandi organizzazioni o apparati statali. Può essere prodotta in modo automatizzato, scalabile e a basso costo, rendendo più difficile distinguere tra informazione, persuasione e manipolazione.

Spazio pubblico frammentato: bolle, piattaforme e potere asimmetrico

Habermas (1989) descriveva lo spazio pubblico come luogo di confronto razionale tra cittadini. Oggi, tuttavia, la sfera pubblica digitale appare parcellizzata in micro-spazi personalizzati. Pariser (2011) ha definito questo fenomeno “filter bubble”: ogni utente riceve un flusso informativo modellato sulle proprie preferenze precedenti. Non si tratta di censura esplicita, ma di una selezione invisibile.

Filter bubble e cristallizzazione della polarizzazione

Quando la disinformazione si inserisce in queste bolle, trova terreno fertile: non incontra contraddittorio, non viene sottoposta a una verifica collettiva, anzi si consolida come una verità condivisa all’interno di comunità fortemente identitarie. In tale scenario, il rapporto tra fake news e A.I. assume una dimensione strutturale: l’algoritmo non crea la polarizzazione, ma la cristallizza.

Altro elemento da considerare riguarda la struttura economica delle piattaforme. Zuboff (2019) ha parlato di “capitalismo della sorveglianza” per descrivere un modello basato sull’estrazione e monetizzazione dei comportamenti digitali posti in essere e dei dati che ne derivano. L’A.I. opera all’interno di questa logica economica: i dati alimentano gli algoritmi, gli algoritmi ottimizzano l’attenzione, l’attenzione genera profitto. In questo ciclo, la qualità epistemica dell’informazione non è la priorità primaria.

Trasparenza, dati e asimmetria informativa

La concentrazione del potere nelle mani di poche piattaforme globali produce un’asimmetria informativa senza precedenti. Come evidenzia Lazer et al. (2018), la lotta alla disinformazione richiede accesso ai dati e trasparenza algoritmica, elementi che spesso rimangono opachi, rendendo complessa una verifica indipendente e sistemica dei meccanismi di diffusione.

Tecnologia, norma e cultura: risposte a fake news e AI

Sul piano tecnologico, si sviluppano strumenti di fact-checking automatizzato e di rilevamento dei deepfake. Tuttavia, la tecnologia confligge con sé stessa: ogni nuovo strumento di verifica incontra nuove tecniche di manipolazione. Sul piano normativo, l’Unione Europea ha introdotto il Digital Services Act (European Commission, 2025), imponendo obblighi di trasparenza e responsabilità alle grandi piattaforme. Esso rappresenta un tentativo significativo di regolazione sistemica, ma la sua efficacia dipenderà dall’implementazione concreta che verrà posta in essere.

Media literacy e nodo epistemologico

Infine, vi è il piano culturale. Mihailidis e Thevenin (2013) sottolineano l’importanza della media literacy come competenza civica fondamentale: senza un pubblico capace di interpretare criticamente l’informazione, nessuna regolazione potrà essere sufficiente.

Il punto forse più profondo del rapporto tra fake news e A.I. non è tecnico, ma epistemologico. La questione centrale non è solo la presenza del falso, ma l’erosione dei criteri condivisi di verità. McIntyre (2018) ha parlato di “post-verità” per descrivere un contesto in cui i fatti oggettivi hanno meno influenza sull’opinione pubblica rispetto a stimoli emozionali e fortemente identitari. L’A.I., nel suo funzionamento, non riesce a distinguere tra verità e consenso: quando la produzione e la circolazione dell’informazione diventano automatizzate, la credibilità rischia di trasformarsi in mera probabilità algoritmica.

Conclusioni

Il rapporto tra fake news e A.I. è un processo di reciproca influenza evolutiva. Ogni innovazione tecnologica modifica le modalità di disinformazione; ogni nuova forma di disinformazione stimola risposte tecnologiche e normative. Ridurre il problema a una “colpa della tecnologia” sarebbe ingenuo ed estremamente semplicistico.

L’A.I. amplifica dinamiche sociali preesistenti: polarizzazione, sfiducia istituzionale, ricerca di identità collettive forti. La sfida non è soltanto costruire algoritmi migliori, ma ripensare l’architettura della comunicazione pubblica: significa interrogarsi su chi controlla i flussi informativi, su quali incentivi economici guidano le piattaforme e su quale educazione critica viene elargita alle nuove generazioni. In definitiva, la lotta alla disinformazione non è una battaglia tra uomo e macchina: è una questione di responsabilità collettiva in un ecosistema comunicativo in cui umano e artificiale sono ormai inseparabili.

Bibliografia

Allcott, H., & Gentzkow, M. (2017). Social media and fake news in the 2016 Election. Journal of Economic Perspectives, 31(2), 211–236.

Bender, E. M., Gebru, T., McMillan-Major, A., Shmitchell, S. (2021). On the dangers of stochastic parrots. FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency.

Chesney, R., & Citron, D. (2019). Deep Fakes: a looming crisis for privacy, democracy, and national security, 107 California Law Review, 1753–1819.

Davenport T. H., Beck J. C., (2002]. Attention economy: understanding the new currency of business, Harvard Business School Pr: Boston

European Commission (2025). Digital Services Act: keeping us safe online.

Gillespie, T. (2018). Custodians of the internet; platforms, content moderation, and the hidden decisions that shape social media. Yale University Press: New Haven.

Habermas, J. (1989). The structural transformation of the public sphere. MIT Press: Cambridge.

Jowett, G., O’Donnell, V. (2018). Propaganda & persuasion. Sage: New York.

Lazer, D. et al. (2018). The Science of fake news: Addressing fake news requires a multidisciplinary effort. Science, 359.

McIntyre, L. (2018). Post-Truth. MIT Press; Cambridge.

Mihailidis, P., Thevenin, B. (2013). Media literacy as a core competency or engaged citizenship in Participatory Democracy. American Behavioral Scientist 57(11):1611-1622

Pariser, E. (2011). The filter bubble: what the internet is hiding from you. Penguin: London.

Norvig, P. (2021). Artificial Intelligence: A Modern Approach. Pearson: London.

Tufekci, Z. (2015). Algorithmic harms beyond facebook and google. Colorado technology law journal, 13, 203-218.

Vosoughi, S., Roy, D., Aral, S. (2018). The spread of true and false news online. Science, Vol. 359, Issue 6380, pp. 1146-1151.

Wardle, C., & Derakhshan, H. (2017). Information disorder: toward an interdisciplinary framework for research and policymaking. Council of Europe.

Zuboff, S. (2019). The age of surveillance capitalism: the fight for a human future at the new frontier of power. PublicAffairs: New York.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x