Un nuovo filone di ricerca avverte che l’intelligenza artificiale sta rendendo possibile la creazione di sciami di agenti autonomi in grado di imitare comportamenti umani, coordinarsi e adattarsi in tempo reale. Questa evoluzione segna un passaggio cruciale: la disinformazione non agisce più solo sui contenuti, ma sulle dinamiche stesse del confronto pubblico, mettendo sotto pressione i presupposti informativi e sociali della democrazia.
Indice degli argomenti
Quando la disinformazione cambia scala
Per anni abbiamo associato la disinformazione online a bot rudimentali, troll farm organizzate e campagne coordinate ma relativamente statiche. Il paper pubblicato su Science con il titolo How Malicious AI Swarms Can Threaten Democracy ci costringe invece a cambiare prospettiva. Non siamo più di fronte a un problema di quantità di contenuti falsi, ma a un salto qualitativo nel modo in cui l’influenza può essere esercitata.
Il punto centrale non è che l’intelligenza artificiale possa generare testi convincenti, questo è ormai noto, ma che possa coordinare migliaia di agenti autonomi, dotati di memoria, identità persistenti e capacità di adattamento, capaci di simulare dinamiche sociali umane su larga scala.
Qui nasce il concetto di AI swarm: sciami di agenti artificiali che operano come un organismo collettivo, pur presentandosi come individui distinti.
Dal bot al collettivo intelligente
Il paper di Science segna una linea di demarcazione netta rispetto alle forme tradizionali di manipolazione online. I bot del passato erano ripetitivi, facilmente riconoscibili, spesso centralizzati. Gli sciami di AI descritti dai ricercatori, invece, sono progettati per essere decentralizzati, adattivi e difficili da individuare.
Ogni agente può mantenere una storia di interazioni, apprendere dalle risposte ricevute, modificare tono, lessico e frequenza dei messaggi. Nel loro insieme, questi agenti sono in grado di esplorare lo spazio delle reazioni sociali, testare messaggi diversi, selezionare quelli più efficaci e diffonderli a velocità macchina.
Non si tratta solo di amplificare una narrativa, ma di costruire l’illusione di un consenso diffuso. Qui sta il passaggio più delicato, la disinformazione non appare più come qualcosa che arriva dall’esterno, ma come una posizione che sembra emergere spontaneamente dalla comunità.
Perché questa minaccia riguarda la democrazia
Nel paper, gli autori parlano esplicitamente di una capacità di manipolare credenze e comportamenti a livello di intere popolazioni. Il rischio non è limitato alla persuasione di singoli individui, ma alla possibilità di spostare il baricentro del dibattito pubblico. Non servono più centinaia di persone in una troll farm, può bastare un singolo operatore con accesso a strumenti di AI avanzati.
Gli sciami possono infiltrarsi in comunità specifiche, comprenderne le paure, le fratture interne, i codici culturali, e usare queste informazioni per alimentare polarizzazione, sfiducia o apatia. In questo contesto, la minaccia non è solo quella di far vincere o perdere un’elezione, è più sottile e più profonda: rendere plausibile l’idea che le elezioni possano essere annullate, che i risultati siano sempre manipolati, che non esista più una base informativa condivisa su cui discutere.
Il caso Taiwan come laboratorio
Le testimonianze raccolte dal Guardian su Taiwan offrono un esempio concreto di come queste dinamiche stiano già prendendo forma. Taiwan è da anni uno degli obiettivi principali delle operazioni di influenza legate alla Cina, e proprio per questo rappresenta un contesto avanzato in cui osservare l’evoluzione delle tecniche di disinformazione. Secondo quanto riportato, negli ultimi mesi bot basati su AI hanno aumentato in modo significativo le interazioni con i cittadini taiwanesi su piattaforme come Threads e Facebook.
Non si tratta di profili che diffondono slogan espliciti o propaganda tradizionale. Al contrario, questi agenti entrano nelle conversazioni, rispondono ai commenti, pongono domande, condividono grandi quantità di informazioni difficili da verificare, contribuendo a creare sovraccarico informativo.
Il meccanismo è sottile. In molti casi, i bot non promuovono direttamente una posizione filo-cinese, ma insistono sulla complessità del contesto geopolitico, suggerendo che la questione dei rapporti tra Cina e Taiwan sia troppo intricata per prendere posizione senza competenze specifiche. Il messaggio implicito diventa così un invito alla neutralità e al disimpegno, soprattutto verso le fasce più giovani della popolazione.
Una strategia particolarmente efficace nelle democrazie, perché non richiede di convincere o convertire. Basta indebolire la legittimità del dibattito stesso. Se ogni posizione appare parziale o sospetta, chi prende parola può essere facilmente etichettato come ideologico o radicale, mentre l’astensione e l’indifferenza diventano opzioni socialmente accettabili. In questo modo, la disinformazione non polarizza soltanto: svuota progressivamente lo spazio pubblico di confronto.
Perché è così difficile accorgersene
Un elemento ricorrente nel paper e nei commenti degli esperti è la difficoltà di rilevazione. Gli sciami di AI sono progettati per sembrare umani: usano slang, commettono piccoli errori, postano in modo irregolare. Soprattutto, si distribuiscono su piattaforme diverse, dai social ai servizi di messaggistica, fino a blog ed email. A questo si aggiunge un problema strutturale: l’accesso ai dati.
Le piattaforme hanno progressivamente limitato la possibilità di osservare dall’esterno i comportamenti coordinati, rendendo più difficile per ricercatori indipendenti individuare queste operazioni. Gli incentivi economici delle piattaforme non sempre vanno nella direzione della massima trasparenza.
Una tecnologia pronta, una governance in ritardo
Un punto interessante emerso sia nel paper sia nei commenti critici è che la tecnologia è già sostanzialmente pronta. Anche chi invita alla cautela riconosce che la creazione di campagne di influenza basate su agenti AI rientra nello stato attuale delle capacità tecniche. La vera asimmetria riguarda la governance.
Mentre gli strumenti evolvono rapidamente, le contromisure istituzionali restano frammentate. La proposta di un AI Influence Observatory, avanzata dagli autori del paper, va letta in questo contesto: non come un organismo di censura, ma come uno spazio di coordinamento, standardizzazione delle evidenze e risposta rapida.
Non è un problema tecnico, è un problema sociale
Forse l’aspetto più importante, e meno immediato, è che questa non è solo una questione di tecnologia. Gli sciami di AI sfruttano vulnerabilità già presenti: polarizzazione, sfiducia nelle istituzioni, economia dell’attenzione, incentivi basati sull’engagement. In questo senso, l’AI non crea la fragilità democratica, ma la amplifica.
Per questo il tema riguarda tutti noi, non solo gli addetti ai lavori. Riguarda il modo in cui formiamo le nostre opinioni, il valore che attribuiamo alle fonti, la capacità di riconoscere quando un dibattito non è spontaneo ma orchestrato.
Capire prima di reagire
Il paper di Science non è una profezia apocalittica, ma un segnale. Dice che una certa traiettoria è possibile, tecnicamente plausibile e già in fase di test. Ignorarla significherebbe ripetere errori già visti, quando le piattaforme digitali sono cresciute più velocemente della nostra capacità di governarle. Capire cosa sono gli AI swarm non serve a generare paura, ma consapevolezza. Perché la difesa della democrazia, nell’era dell’intelligenza artificiale, passa sempre più dalla capacità collettiva di riconoscere quando il consenso non nasce dalle persone, ma viene simulato da macchine.












