studio International IDEA

Elezioni a rischio: come difendere la democrazia dall’IA



Indirizzo copiato

L’intelligenza artificiale generativa amplifica la disinformazione elettorale, minacciando la fiducia nelle istituzioni democratiche. Uno studio su sette paesi analizza rischi e propone soluzioni per proteggere l’integrità dei processi elettorali

Pubblicato il 7 ott 2025

Antonio Teti

Responsabile del Settore Sistemi Informativi di Ateneo, Innovazione Tecnologica e Sicurezza Informatica dell’Università “G. D’Annunzio” di Chieti-Pescara. Docente di IT Governance e Big Data al Dipartimento di Economia Aziendale dell'Ateneo



scudo europeo per la democrazia democrazia e intelligenza artificiale

La qualità delle nostre democrazie dipende sempre più dall’integrità dello spazio informativo, in cui si fondono dati e informazioni non sempre attendibili o comunque verificate.

Quando si parla di fake news si pensa spesso a notizie inventate. Ma il problema, oggi, è più profondo.

L’inquinamento informativo nell’era digitale

In questo particolare scenario, il recente studio condotto da International IDEA (162 pagine) e pubblicato il 1° settembre 2025, analizza come l’inquinamento informativo – potenziato dall’IA generativa – stia incidendo in particolare sui processi elettorali, e su quali leve concrete possa contare l’Unione europea e i partner di sviluppo per proteggere fiducia pubblica, partecipazione e accountability.

Lo studio si basa su sette casi elettorali del 2024 (Bangladesh, Ghana, Indonesia, Messico, Mongolia, Pakistan, Sudafrica) e propone priorità di policy e di capacity building pensate per contesti in via di sviluppo, ma rilevanti anche per l’Europa allargata. Va evidenziato che negli ultimi anni la disinformazione non si basa unicamente su “contenuti falsi” ma anche su una manipolazione sistemica dei flussi informativi, online e offline: narrazioni fuorvianti, campagne coordinate e weaponization del contesto (reimpacchettare elementi veri fuori contesto) rendono più difficile per i cittadini distinguere reale e artificiale.

Come l’IA generativa amplifica la disinformazione elettorale

L’IA generativa alza il moltiplicatore: abbassa i costi di produzione, aumenta scala e verosimiglianza (testi, immagini, audio, video sintetici) e accelera la personalizzazione ostile di messaggi politici. Ciò che ne deriva, si esplica sostanzialmente in:

  • erosione della fiducia verso istituzioni e risultati elettorali, con campagne che delegittimano organismi di vigilanza e amministrazioni del voto;
  • polarizzazione e rischio di estremismo tra cicli elettorali, non solo durante la campagna;
  • danni asimmetrici a gruppi vulnerabili (donne e minoranze), più spesso bersaglio di campagne mirate.

I casi analizzati da International IDEA nel 2024

I casi analizzati da International IDEA nel 2024 interessano sette paesi, sui quali è stata condotta un’attenta analisi sul piano della diffusione di notizie e relativa assimilazione dei contenuti da parte della popolazione. Le evidenze riscontrate per singolo caso, sono le seguenti:

  • Ghana. Uno dei fenomeni più diffusi è stato il riciclo di contenuti vecchi, spacciati per notizie attuali. Articoli di giornali datati, immagini estrapolate da altri contesti, messi in circolo sui social per destabilizzare la campagna. La risposta è arrivata da una coalizione multistakeholder: autorità elettorali, società civile, UNESCO e media hanno unito le forze per formare cittadini e rafforzare strumenti di fact-checking.
  • Sudafrica. In questo caso il problema principale è stato il cosiddetto contextual hijacking: contenuti autentici, decontestualizzati e rilanciati con finalità polarizzanti. Per contrastarlo, il Paese ha avviato un quadro nazionale di competenze digitali, con programmi formativi che puntano a rafforzare la cittadinanza digitale e la resilienza sociale.
  • Messico e Pakistan. I due Paesi hanno mostrato come l’inquinamento informativo colpisca in modo sproporzionato le donne e le minoranze. Campagne di odio e narrazioni tossiche hanno reso più difficile la partecipazione politica di questi gruppi. Da qui la raccomandazione di raccogliere dati disaggregati per comprendere appieno l’impatto e progettare interventi più mirati.
  • Bangladesh, Indonesia e Mongolia. Qui si evidenzia un limite strutturale: la scarsa capacità regolatoria. In assenza di norme chiare o di risorse per farle rispettare, piattaforme e attori politici operano in un vuoto pericoloso, dove l’IA può essere sfruttata senza controllo.

Il duplice volto dell’intelligenza artificiale in politica

Il report sottolinea anche come l’IA non sia unidirezionale: riduce barriere di ingresso per nuovi attori politici, consente traduzione e accessibilità multilingue, e può rafforzare la vigilanza (monitoring, flagging di contenuti dannosi, supporto a organi di controllo). Tuttavia, il beneficio dipende dalla governance dei dati (trasparenza, minimizzazione, esclusione di attributi sensibili) e da standard etici condivisi sull’uso dell’IA in comunicazione politica.

La strategia multilivello proposta da International IDEA

Sulla base di quanto evidenziato, International IDEA propone una strategia multilivello che l’UE potrebbe adottare nei programmi di cooperazione e sviluppo:

  • Norme locali e condivise. Non esportare modelli preconfezionati, ma aiutare i Paesi partner a co-creare regole sull’uso dell’IA in politica, con standard pratici come l’etichettatura dei contenuti sintetici o la trasparenza della pubblicità politica.
  • Rafforzare le capacità istituzionali. Fornire formazione, risorse e strumenti digitali alle autorità elettorali, alle agenzie di protezione dati e agli organismi di regolazione dei media.
  • Sostenere media indipendenti e fact-checking. L’indipendenza economica e professionale delle redazioni è un pilastro per contrastare l’inquinamento informativo.
  • Includere i gruppi vulnerabili by design. Coinvolgere donne, giovani e minoranze già nella fase di progettazione delle soluzioni, con strumenti in lingue locali e con metriche inclusive.
  • Pensare oltre la finestra elettorale. La resilienza si costruisce nel lungo periodo: campagne di alfabetizzazione digitale, collaborazione internazionale, protocolli di trasparenza anche per i media tradizionali.

Il ruolo dell’Europa oltre la produzione di regole

Sulla base di quanto esposto, va sottolineato che il ruolo dell’Europa non deve essere semplicemente quello di “produttore di regole”, dato che i contesti sociali e politici dei diversi paesi divergono alle volte anche in maniera sostanziale. La vera sfida consiste nell’abilitazione di ecosistemi locali in grado di gestire i rischi informativi in piena autonomia. In altri termini, l’UE, grazie ai suoi strumenti di cooperazione, può:

  • finanziare ricerca e innovazione per strumenti di monitoraggio;
  • favorire dialoghi multistakeholder tra governi, piattaforme, università e società civile;
  • sostenere programmi di media literacy radicati nei contesti culturali locali.

Framework operativo per progetti UE

Sul piano meramente tecnico, un possibile “framework operativo” per la realizzazione di progetti UE potrebbe basarsi sulla seguente checklist:

  • Governance & policy. Definizione della mappa degli attori, dei possibili gap normativi e dei processi di enforcement; definizione di un Memorandum of Understanding multistakeholder (EMB, autorità media/telecom, DPA, piattaforme, università, CSO) con redazione di Service Level Agreement (SLA) per segnalazioni e rimozioni.
  • Capacità tecniche. Strutturazione di un set minimo di tools di monitoraggio (OSINT + NLP per rilevare riciclo/deranking di contenuti, network analysis di campagne coordinate) e attivazione di canali sicuri di collaborazione con piattaforme per campagne ad alto rischio.
  • Media & alfabetizzazione. Attivazione di fondi per media indipendenti; programmi di media literacy basati su casi locali (es. fact-checking su contenuti “ri-contestualizzati”).
  • Monitoring and Evaluation (M&E). Si tratta di un approccio sistematico utilizzato per tracciare i progressi di un programma, raccogliere esperienze e promuovere l’apprendimento tra pari, contribuendo al rafforzamento e al miglioramento dei programmi. Sulla base di quanto esposto, sarebbero definiti degli indicatori su tempo di reazione, portata delle narrazioni dannose, fiducia nelle istituzioni e impatto sui gruppi vulnerabili; reporting disaggregato e pubblico.

Verso una governance proattiva della democrazia digitale

L’IA generativa non è (ancora) la protagonista assoluta delle campagne elettorali, ma ne ha già amplificato rischi e conseguenze. Agire solo durante le elezioni non basta. L’inquinamento informativo è un fenomeno continuo, che corrode la fiducia tra un voto e l’altro.

Per questo l’UE deve assumere un ruolo proattivo: non solo regolatore, ma facilitatore di soluzioni locali, garante di inclusione e sostenitore di media liberi.

Tale approccio, peraltro, sarebbe coerente con Team Europe Democracy e complementare al quadro AI Act e DSA. Fuori dall’UE, dove enforcement e risorse sono limitati, la priorità non è quella di esportare regole “chiavi in mano”, ma abilitare degli ecosistemi che possano generare e applicare norme contestuali, sostenere media indipendenti e costruire resilienza civica tra un’elezione e l’altra.

Il messaggio di fondo è chiaro: l’IA generativa non ha ancora trasformato in modo risolutivo le campagne, ma ne ha amplificato rischi e velocità; serve quindi lavorare a monte, sulle condizioni di fiducia, capacità e trasparenza. In gioco non c’è solo la qualità delle elezioni del futuro: in altri termini, c’è la credibilità stessa della democrazia come modello politico.

Difendere la democrazia al tempo dell’IA significa quindi proteggere il ciclo informativo, non solo “combattere le fake news”. L’UE può quindi giocare un ruolo determinante finanziando standard etici co-creati, capabilities di sorveglianza civica e istituzionale, e media resilienti. Nei sette casi del 2024, dove le risposte sono state coalizionali, locali e inclusive, l’efficacia è stata maggiore. È questa la rotta: whole-of-society, lungo periodo, e IA come parte della soluzione oltre che del problema.

Fonti principali

International IDEA, Safeguarding Democracy: EU Development at the Nexus of Elections, Information Integrity and AI (news e sintesi, 17 settembre 2025).

International IDEA, Safeguarding Democracy… (report completo, 1° settembre 2025, 162 pp., DOI: 10.31752/idea.2025.46).

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati