ia e democrazia

Chatbot elettorali più persuasivi degli spot: ecco cosa rischiamo



Indirizzo copiato

Negli Stati Uniti i chatbot elettorali parlano già agli elettori, mentre in Europa l’AI Act e il GDPR impongono paletti stringenti. Ricerche recenti mostrano che questi sistemi possono spostare voti in modo significativo, spesso ricorrendo a informazioni inaccurate o fuorvianti

Pubblicato il 11 dic 2025

Antonino Mallamaci

avvocato, Co.re.com. Calabria



Chatbot manipolativi chatbot elettorali

I chatbot elettorali non sono più un esperimento da laboratorio, ma uno strumento già usato nelle campagne reali, soprattutto negli Stati Uniti.

Chatbot elettorali tra Stati Uniti ed Europa

Olreoceano, può capitare di rispondere al telefono e sentire una voce da donna, leggermente metallica, che ti dice: “Ciao. Mi chiamo Ashley e sono una volontaria dell’intelligenza artificiale per la corsa al Congresso di ………”.

Alle nostre latitudini l’utilizzo di tale strumento deve fare i conti con l’AI ACT (Reg. UE 2024/1689), il GDPR (Reg. UE 2016/679), e presto con il Digital Omnibus, che comunque potrebbe introdurre maggiore flessibilità.

Negli USA, con la Silicon Valley e le big tech strette alleate di Donald Trump, non sono paventabili regolamentazioni restrittive.

È quindi prevedibile che i chatbot entreranno sempre di più a far parte delle campagne elettorali. Anche perché gli esiti del loro uso sembrano essere molto promettenti per convincere gli elettori persino a cambiare schieramento politico.

Certo, il problema dell’affidabilità dell’intelligenza artificiale generativa esiste anche in questo campo, come vedremo più avanti.

L’esperimento di Ashley nella campagna della Pennsylvania

Tornando ad Ashley, la Pennsylvania, nel 2024, è stata protagonista del primo esperimento di campagna telefonica politica interattiva basata sull’intelligenza artificiale generativa.

In precedenza, essa è stata usata in questo ambito per scrivere lettere e messaggi. Il chatbot vocale rappresenta un ulteriore, enorme passo avanti verso un utilizzo molto più massiccio e capillare.

Come funziona Ashley, il chatbot di Civox

Per quanto concerne Ashley, Civox è l’azienda che l’ha messa sul mercato. Sul suo sito si legge che “offre interazione vocale con tecnologia di intelligenza artificiale che danno la sensazione di parlare con una persona reale per campagne politiche”.

Secondo un suo portavoce, il chatbot vocale è addestrato a dare informazioni basate solo sui fatti su entrambi i contendenti.

La voce è progettata per far capire chiaramente che l’interlocutore non è un umano, ma al tempo stesso per risultare naturale e credibile.

Cosa hanno scoperto i giornalisti di Politico

Alcuni redattori di “Politico” hanno effettuato delle chiamate verificando che il chatbot risponde alle domande su un candidato, ad esempio democratico, fornendo informazioni e notizie sia su di esso che sul suo avversario.

Nei colloqui telefonici il chatbot ha dato informazioni biografiche e sulle posizioni politiche del candidato democratico: è avvocato e si occupa di edilizia popolare, disparità economiche e politiche progressiste.

Quando gli è stato chiesto dove votare o quanti soldi il candidato stesse risparmiando con le chiamate fatte con l’IA, il chatbot non ha voluto rispondere e ha proposto di contattare un attivista in carne ed ossa.

Le risposte sull’avversario sono state abbastanza equilibrate: il chatbot si è detto preoccupato per il suo coinvolgimento nell’assalto a Capitol Hill, per il quale egli è stato indagato.

Questo succedeva nella campagna elettorale del 2024, persa dal candidato democratico della Pennsylvania nonostante il supporto di Ashley di Civox.

Ma l’azienda sarà certamente contenta delle nuove ricerche che rivelano che chatbot come Ashley sono molto bravi a far cambiare opinione all’elettore, addirittura con una sola chiamata.

Essi sono più efficaci della pubblicità, e questo vale sia per gli elettori democratici che per quelli repubblicani, nel fare cambiare schieramento politico.

I chatbot citano fatti e prove, ma l’accuratezza non è il loro forte. Con l’aggravante che la capacità di persuasione è direttamente proporzionale alla falsità delle informazioni.

Disinformazione e deepfake nelle campagne digitali

Proprio per tale motivo il potere persuasivo degli LLM (Large Language Systems) preoccupa molto per il rischio di stravolgere le elezioni.

Non mancano le preoccupazioni riguardo alle informazioni non precise o persino deliberatamente false.

Il caso DeSantis contro Trump e la voce sintetica

Un caso famoso è quello registrato nel 2023, quando Ron De Santis contendeva a Trump la nomination alle primarie repubblicane.

Un Comitato di azione politica di De Santis, in possesso di grandi risorse, falsificò con l’IA la voce del tycoon per confezionare uno spot televisivo dove lo si attaccava in maniera pesante.

L’episodio ha mostrato come l’intelligenza artificiale generativa possa essere usata per costruire deepfake vocali ad alto impatto emotivo, inseriti dentro campagne politiche aggressive.

Le evidenze di Nature sui chatbot elettorali

I risultati delle ricerche pubblicati su Nature e Science aiutano a capire perché questi strumenti siano così potenti.

Per l’articolo pubblicato su Nature, la motivazione per lo studio data dai ricercatori è la forte preoccupazione pubblica riguardo al potenziale utilizzo dell’intelligenza artificiale generativa per la persuasione politica, e per i conseguenti impatti su elezioni e democrazia.

Gli autori spiegano di aver fornito informazioni su queste preoccupazioni utilizzando esperimenti preregistrati per valutare la capacità di modelli linguistici di grandi dimensioni di influenzare gli atteggiamenti degli elettori.

Gli esperimenti su Stati Uniti, Canada e Polonia

In occasione delle elezioni presidenziali statunitensi del 2024, delle elezioni federali canadesi del 2025 e delle elezioni presidenziali polacche del 2025, sono stati assegnati casualmente ai partecipanti conversazioni con un modello di IA che sosteneva uno dei due candidati principali.

Sono stati quindi rilevati significativi effetti del trattamento sulla preferenza dei candidati, maggiori di quelli tipicamente osservati nelle pubblicità video tradizionali.

In Massachusetts sono stati accertati ampi effetti di persuasione sul sostegno a una proposta di legge che legalizza le sostanze psichedeliche.

Le strategie di persuasione utilizzano fatti e prove pertinenti, piuttosto che tecniche di persuasione psicologica. Non tutti i fatti e le prove presentati, tuttavia, sono accurati.

Non sorprende molto, nell’era di Trump e Putin, che in tutti e tre i Paesi i modelli di intelligenza artificiale di sostegno a candidati di destra abbiano fornito affermazioni meno accurate.

Nel complesso, i risultati evidenziano il potenziale dell’intelligenza artificiale nell’influenzare gli elettori e l’importante ruolo che potrebbe svolgere nelle elezioni future.

I dialoghi uomo-IA possono avere un impatto significativo sugli atteggiamenti degli elettori. Quindi indurre gli elettori – in particolare i sostenitori dell’opposizione, che hanno risposto maggiormente al trattamento – a interagire con un chatbot basato sull’IA rappresenterà una sfida importante.

In ogni caso, sembra altamente probabile che gli approcci alla persuasione basati sull’IA svolgeranno un ruolo importante nelle elezioni future, con conseguenze potenzialmente profonde per la democrazia.

Il chatbot, addestrato per sostenere uno dei due candidati principali, si è rivelato sorprendentemente persuasivo, soprattutto quando si discuteva delle piattaforme politiche dei candidati su temi come economia e assistenza sanitaria.

I sostenitori di Donald Trump, che hanno chattato con un modello di intelligenza artificiale favorevole a Kamala Harris, sono diventati più propensi a sostenerla, quattro volte rispetto all’effetto degli spot politici durante le elezioni del 2016 e del 2020.

Il modello di intelligenza artificiale a favore di Trump ha spostato i sostenitori di Harris di 2,3 punti verso il primo. In Canada e in Polonia, nel 2025, è stato riscontrato un esito ancora più significativo: i chatbot hanno modificato l’atteggiamento degli elettori dell’opposizione di circa 10 punti percentuali.

Accuratezza, bias politici e limiti dei chatbot elettorali

Nonostante le teorie più accreditate sul ragionamento politicamente motivato sostengano che gli elettori di parte siano insensibili a fatti e prove che contraddicono le loro convinzioni (i celebri bias cognitivi), è stato accertato che i chatbot sono più persuasivi quando viene chiesto loro di utilizzare fatti e prove rispetto a quando viene chiesto di non farlo.

Il problema, però, è che alcune prove e alcuni fatti si sono rivelati falsi. In tutti e tre i Paesi, i chatbot che sostenevano candidati di destra hanno fatto un numero maggiore di affermazioni inaccurate rispetto a quelli che sostenevano candidati di sinistra.

I modelli sono addestrati su enormi quantità di testo scritto da esseri umani, il che significa che riproducono fenomeni del mondo reale e quindi anche la comunicazione politica di destra, che, come abbiamo visto, tende a essere meno accurata.

Regole, garanzie e futuro dei chatbot elettorali

Nello studio pubblicato su Science i ricercatori hanno indagato sulle ragioni che rendono i chatbot vocali così persuasivi.

Hanno impiegato 19 LLM per interagire con quasi 77.000 partecipanti del Regno Unito su oltre 700 questioni politiche, variando potenza di calcolo, tecniche di formazione e strategie retoriche.

Leve tecniche che aumentano la persuasione dell’IA

Si legge nell’introduzione allo studio: i rapidi progressi dell’intelligenza artificiale hanno suscitato diffuse preoccupazioni circa il suo potenziale di influenzare le convinzioni umane.

Una possibilità è che l’IA conversazionale possa essere utilizzata per manipolare l’opinione pubblica su questioni politiche attraverso il dialogo interattivo.

In questo lavoro, gli studiosi indagano sistematicamente le leve responsabili dei progressi nella persuasività dell’IA, chiedendosi se contino di più la potenza di calcolo o le sofisticate tecniche di addestramento.

Gli studiosi hanno acclarato che le leve più potenti della persuasione dell’IA sono i metodi di post-addestramento e la strategia retorica (prompting), che aumentano la persuasività rispettivamente del 51% e del 27%.

Questi guadagni sono spesso maggiori di quelli ottenuti aumentando la scala del modello. La personalizzazione delle argomentazioni, sulla base dei dati degli utenti, ha avuto invece un effetto relativamente piccolo sulla persuasione.

Un meccanismo primario che guida la persuasività dell’IA è la densità di informazioni: i modelli sono più persuasivi quando riempiono le loro argomentazioni con un elevato volume di affermazioni fattuali.

Il compromesso tra persuasione e accuratezza

È stato tuttavia anche rilevato un preoccupante compromesso tra persuasione e accuratezza: le stesse leve che rendono l’IA più persuasiva – tra cui la persuasione post-addestramento e il prompt incentrato sulle informazioni – fanno anche sì che l’IA produca sistematicamente informazioni meno accurate dal punto di vista fattuale.

I risultati suggeriscono che il potere persuasivo dell’IA attuale e del prossimo futuro probabilmente deriverà meno dalla scala del modello o dalla personalizzazione e più da tecniche di post-addestramento e sollecitazione che mobilitano la capacità di un LLM di generare rapidamente informazioni durante la conversazione.

Inoltre, emerge un dato preoccupante: quando i sistemi di IA sono ottimizzati per la persuasione, possono diffondere sempre più informazioni fuorvianti o false.

Questa ricerca fornisce una base empirica ai decisori politici e ai tecnologi per anticipare e affrontare le sfide della persuasione guidata dall’IA, e sottolinea la necessità di garanzie che bilancino gli usi legittimi dell’IA nel discorso politico con protezioni contro manipolazione e disinformazione.

Quindi, il modo più efficace per rendere i modelli persuasivi è stato quello di istruire i partecipanti a integrare le proprie argomentazioni con fatti e prove, per poi fornire un’ulteriore formazione con esempi di conversazioni persuasive.

In effetti, il modello più persuasivo ha spostato i partecipanti, inizialmente in disaccordo con un’affermazione politica, di 26,1 punti verso l’opposto. Ma ottimizzare la persuasività è avvenuto a scapito della veridicità.

Quando i modelli sono diventati più persuasivi, hanno fornito informazioni sempre più fuorvianti o false. La ragione “potrebbe essere che, man mano che i modelli imparano a utilizzare sempre più fatti, raggiungano sostanzialmente il fondo del barile di informazioni che conoscono, quindi i fatti diventano di qualità inferiore”, afferma Kobi Hackenburg, partecipante al progetto e ricercatore presso l’AI Security Institute del Regno Unito.

Impatto democratico e possibili tutele normative

Il potere persuasivo dei chatbot potrebbe avere profonde conseguenze per il futuro della democrazia, osservano gli autori.

Le campagne politiche che utilizzano chatbot basati sull’intelligenza artificiale potrebbero plasmare l’opinione pubblica compromettendo la capacità degli elettori di esprimere giudizi politici autonomi.

Tuttavia, la potenza dell’impatto resta da definire, perché acquisire l’attenzione degli elettori è costoso e difficile, e altrettanto lo è convincerli a impegnarsi in lunghe conversazioni politiche con i chatbot.

Anche se questi dovessero effettivamente diventare una componente più importante delle campagne elettorali, non è chiaro se contribuiranno maggiormente ad amplificare la verità o la finzione.

Di solito, la disinformazione ha un vantaggio informativo in una campagna elettorale, quindi l’emergere di IA elettorali “potrebbe significare che siamo diretti verso un disastro”, afferma Alex Coppock, politologo della Northwestern University. “Ma è anche possibile che ciò significhi che ora anche le informazioni corrette possano essere scalabili”.

Altra questione è quella relativa all’accesso dei politici ai modelli più persuasivi, che potrebbe non essere distribuito equamente, dunque gli elettori di ogni orientamento politico potrebbero avere diversi livelli di coinvolgimento con i chatbot.

“Se i sostenitori di un candidato o di un partito sono più esperti di tecnologia rispetto agli altri, l’impatto persuasivo potrebbe non essere bilanciato”, afferma Guess.

Mentre le persone si rivolgono all’intelligenza artificiale per aiutarle a orientarsi nella propria vita, potrebbero anche iniziare a chiedere consigli di voto ai chatbot, indipendentemente dal fatto che i candidati li inducano a farlo.

Questo potrebbe rappresentare un problema per la democrazia, a meno che non vengano implementati, anche per legge, solidi sistemi di controllo anche per verificare l’accuratezza dei risultati degli LLM nelle conversazioni con argomento la politica.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati