Governi autoritari e democratici stanno imparando a orientare ciò che conta come realtà pubblica. Allo stesso tempo, chatbot e sistemi di AI stanno emergendo come nuove fonti di informazione. Una trasformazione che apre rischi evidenti, ma anche possibilità inattese per il contrasto alla disinformazione.
Indice degli argomenti
Il controllo dell’informazione come infrastruttura politica
Per oltre un decennio abbiamo creduto che l’era digitale rendesse il controllo dell’informazione impraticabile. Troppi canali, troppe piattaforme, troppe voci perché qualcuno potesse davvero orientare il racconto pubblico. Internet sembrava destinato a frammentare il potere, non a rafforzarlo.
Oggi è chiaro che quella lettura era parziale. Come mostrano Martin Moore e Thomas Colley nel libro Dictating Reality (Columbia University Press), molti Stati hanno imparato non a reprimere l’informazione, ma a governarla. Il potere non consiste più nel far tacere le voci, bensì nel decidere quali fatti sono rilevanti, quali marginali, quali degni di attenzione pubblica.
Siamo di fronte a una trasformazione strutturale: il controllo dell’informazione diventa una vera e propria infrastruttura politica. Abbiamo ascoltato anche il podcast Why Do Authoritarians Want To Control The News? di Intelligence Squared, utile per cogliere come queste dinamiche si stiano estendendo ben oltre i regimi autoritari classici.
Le notizie come leva di legittimazione
Le notizie restano centrali perché conferiscono credibilità alle narrazioni politiche. Chi controlla l’agenda informativa non deve dominare ogni contenuto: è sufficiente orientare la maggioranza dei flussi, stabilire cosa entra stabilmente nella conversazione pubblica e cosa ne resta fuori.
Nel contesto digitale, questo avviene intervenendo sulle infrastrutture dell’informazione: proprietà dei media, pubblicità pubblica, accesso alle fonti istituzionali, regolazione, visibilità sulle piattaforme. Il risultato è che oggi il problema non è solo distinguere il vero dal falso, ma riconoscere ciò che non viene mai raccontato. Quando una storia non circola, semplicemente smette di esistere nello spazio pubblico.
Dall’agenda setting classica all’agenda setting algoritmica
Per capire perché il controllo delle notizie sia oggi così efficace, vale la pena tornare a un concetto classico degli studi sulla comunicazione: l’agenda setting. Come hanno mostrato già negli anni Settanta Maxwell McCombs e Donald Shaw, i media non dicono alle persone cosa pensare, ma su cosa pensare. Stabilendo quali temi meritano attenzione e quali restano sullo sfondo, orientano le priorità cognitive del pubblico.
Quel modello, sviluppato in un’epoca di media relativamente centralizzati, non è affatto superato: è stato piuttosto potenziato. Oggi l’agenda setting non avviene solo attraverso titoli di giornale o telegiornali, ma tramite un intreccio di scelte editoriali, logiche di piattaforma, dinamiche algoritmiche e flussi informativi personalizzati.
I governi che riescono a intervenire su queste leve non devono imporre una versione unica della realtà: è sufficiente decidere quali temi entrano stabilmente nell’attenzione pubblica e quali no. In questo senso, il controllo dell’informazione descritto da Moore e Colley può essere letto come una forma avanzata di agenda setting politico, in cui la battaglia non è sulla verità dei singoli fatti, ma sulla struttura stessa delle priorità collettive.
Qui l’intelligenza artificiale generativa introduce una discontinuità: automatizzando selezioni, sintesi e risposte alle domande degli utenti, sposta l’agenda setting dal piano dei media tradizionali a quello delle interazioni quotidiane con sistemi intelligenti, trasformando progressivamente chatbot e assistenti AI in nuovi attori centrali della costruzione dell’agenda pubblica.
Dalla propaganda alle narrazioni strategiche
Il passaggio decisivo non è tecnologico, ma cognitivo. Le persone non comprendono il mondo come una sequenza neutra di fatti, bensì attraverso cornici narrative che danno senso agli eventi. La politica contemporanea utilizza sempre più spesso narrazioni strategiche: trame ampie, coerenti, resistenti alle smentite.
Una volta fissata la cornice, i fatti non la mettono in crisi: vengono reinterpretati. Le sconfitte diventano “ritirate tattiche”, le crisi “sacrifici necessari”, le proteste “manovre ostili”. Il controllo dell’informazione diventa così controllo della realtà percepita.
I casi nazionali: modelli diversi, stessa logica di fondo
L’analisi comparata condotta da Martin Moore e Thomas Colley mostra che non esiste un unico modello di controllo dell’informazione, ma una grammatica comune declinata in contesti politici e culturali differenti.
In Cina, il controllo è sistemico e integrato: censura, piattaforme domestiche, responsabilizzazione delle aziende tech e una forte proiezione esterna attraverso media globali e infrastrutture informative.
In Russia, il cuore del sistema è la narrazione strategica permanente. La guerra, reale o simbolica, diventa la cornice dentro cui ogni evento viene interpretato e reso coerente.
In India, il controllo passa meno dalla censura diretta e più dall’uso di pressione economica, accesso e prossimità politica, fino a rendere larga parte dell’ecosistema mediatico sostanzialmente allineato al potere.
L’Ungheria rappresenta il caso europeo più istruttivo: una “democrazia illiberale” in cui il pluralismo formale sopravvive, ma viene progressivamente svuotato attraverso concentrazione proprietaria, regolazione selettiva e uso politico delle risorse pubbliche.
In Brasile, soprattutto durante l’era Bolsonaro, il controllo non avviene conquistando i grandi media, ma rendendoli irrilevanti grazie alla costruzione di ecosistemi informativi paralleli fondati sui social e sulla messaggistica privata.
Il Messico mostra un’ulteriore variante: la comunicazione diretta e quotidiana della leadership diventa uno strumento di riscrittura continua della realtà, saturando lo spazio informativo e spostando la fiducia dal giornalismo al leader.
Queste strategie, nate in un contesto pre-AI o solo parzialmente digitale, trovano oggi nell’intelligenza artificiale un potente moltiplicatore. L’automazione dei contenuti, la personalizzazione delle narrazioni e l’emergere dei chatbot come nuove fonti informative rendono questi modelli più scalabili, più pervasivi e meno visibili, aprendo una nuova fase nella competizione globale per il controllo della realtà.
AI: moltiplicatore di controllo o nuovo spazio pubblico?
L’AI può diventare un potente alleato di chi vuole controllare l’informazione: automatizza la produzione di contenuti, personalizza le narrazioni, rende scalabile la propaganda, riduce i costi della manipolazione. In questo senso, l’AI rafforza la capacità degli Stati e di altri attori di imporre versioni coerenti del mondo.
Ma l’AI non è solo questo. Come abbiamo raccontato nell’articolo “DebunkBot, l’AI che fa cambiare idea ai complottisti” esiste un uso dell’AI che va nella direzione opposta.
Lo studio pubblicato su Science nel 2024 dimostra che un breve dialogo con un chatbot progettato per fornire informazioni accurate, contestualizzate e verificabili può ridurre in modo duraturo le convinzioni complottiste, anche su temi altamente polarizzati come elezioni e pandemia.
Il dato cruciale è che l’efficacia non dipende dal fatto che l’interlocutore sia una macchina. Quando le stesse argomentazioni vengono attribuite a un esperto umano, l’effetto è identico. Quando invece mancano dati e riferimenti verificabili, l’effetto scompare. Non è l’AI a “convincere”, ma la qualità dell’informazione.
Questo introduce un elemento nuovo nel quadro delineato da Moore e Colley: i chatbot stanno diventando, di fatto, nuovi media. Sempre più persone li usano come fonte primaria di informazione, per orientarsi, verificare, capire. La domanda non è più se accadrà, ma come verranno progettati, governati e integrati nello spazio pubblico.
Chatbot come infrastruttura cognitiva
Qui emerge una tensione centrale. Se i chatbot vengono controllati, addestrati o orientati per rafforzare narrazioni di parte, diventano strumenti potentissimi di controllo soft della realtà. Se invece vengono progettati come infrastrutture cognitive, capaci di abbassare le barriere all’accesso a informazioni accurate, possono contribuire a ricostruire una base fattuale condivisa.
Il problema non è una presunta “post-verità” irreversibile. Le persone non sono impermeabili ai fatti: sono sovraccariche, disorientate, prive di tempo e strumenti per verificare. In questo senso, l’AI può funzionare come un mediatore cognitivo: non come un arbitro della verità, ma come facilitatore dell’accesso alla conoscenza.
Considerazioni conclusive
Il controllo dell’informazione oggi non passa più dal silenzio, ma dalla narrazione. L’intelligenza artificiale è un nuovo terreno di questa battaglia. Può amplificare il potere di chi vuole decidere cosa è reale, oppure aiutare i cittadini a orientarsi in un ecosistema informativo sempre più complesso.
I chatbot stanno già diventando media a tutti gli effetti. La domanda decisiva non è se fidarsi dell’AI, ma di chi progetta le infrastrutture cognitive attraverso cui ci informiamo. Perché senza una base comune di fatti accessibili, non esiste né dibattito pubblico né democrazia.












