la minaccia

Disinformazione sintetica: perché la PA è esposta (e come può difendersi)



Indirizzo copiato

La disinformazione sintetica sta diventando una minaccia strutturale per democrazie e istituzioni. I deepfake evolvono più rapidamente delle difese reattive e rendono necessario un cambio di paradigma fondato sulla certificazione crittografica della fonte e su standard di autenticazione proattiva

Pubblicato il 2 apr 2026

Aldo Ceccarelli

information security compliance officer



disinformazione sintetica
Fake news hoax and disinformation symbol technology concept. Abstract sign on glitch screens 3d illustration.
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

La convergenza tra l’evoluzione esponenziale dei modelli di Intelligenza Artificiale generativa e l’intensificarsi delle competizioni geopolitiche ha inaugurato una fase critica per la tenuta delle infrastrutture democratiche globali.

Nel corso dei recenti cicli elettorali che hanno interessato gli Stati Uniti e l’Europa nel biennio 2025-2026, la disinformazione sintetica si è consolidata come vettore d’attacco primario, posizionandosi al vertice delle preoccupazioni analitiche di testate scientifiche e professionali quali il MIT Technology Review e The Atlantic.

Come si espande la disinformazione sintetica su scala industriale

L’introduzione e la rapida democratizzazione di modelli text-to-video di nuova generazione, tra cui spiccano Sora di OpenAI, i modelli cinesi Kling, Vidu e MiniMax, nonché le versioni open-source come Llama e Stable Diffusion, hanno inaugurato un’era definibile come “inganno industrializzato“.

Questa transizione tecnologica permette la produzione automatizzata di contenuti manipolati multimodali, combinando testo, audio e video iper-realistici su vasta scala, eludendo i tradizionali meccanismi di verifica e rendendo la creazione di disinformazione “estremamente facile ed estremamente reale“.

Per la Pubblica Amministrazione e le istituzioni democratiche, questa accelerazione solleva criticità sistemiche che trascendono la mera manipolazione del consenso politico.

L’ecosistema dell’informazione è attualmente afflitto da una vera e propria “crisi dell’evidenza“: attori malevoli utilizzano cloni digitali per promuovere frodi o fabbricare dati, minacciando le fondamenta della fiducia pubblica.

Gli effetti sistemici su fiducia pubblica e cognizione sociale

Esempi emblematici di questa deriva si sono registrati durante la campagna elettorale ceca dell’ottobre 2025, caratterizzata dalla circolazione di deepfake di politici che promuovevano falsi investimenti per esfiltrare dati bancari, e nelle elezioni federali canadesi, dove finte interviste generate dall’IA sono state impiegate per frodi basate su criptovalute.

Inoltre, l’esposizione prolungata a contenuti iper-realistici generati da modelli come Sora o Kling non si limita a ingannare momentaneamente l’utente, ma ha dimostrato la capacità di impiantare vere e proprie “memorie umane sintetiche“, distorcendo profondamente la cognizione sociale e il ricordo degli eventi pubblici.

A complicare ulteriormente il quadro intervengono le cosiddette “allucinazioni dell’IA“. A differenza della misinformazione umana guidata da intenti malevoli, i sistemi probabilistici come i Large Language Models (LLM) possono generare inesattezze fattuali con assoluta coerenza sintattica, semplicemente prevedendo il token successivo in base a pattern statistici. Ciò espone i servizi automatizzati della Pubblica Amministrazione al rischio di erogare informazioni istituzionali errate, minando l’affidabilità dello Stato.

Il fallimento della difesa reattiva: i limiti del rilevamento algoritmico

Di fronte a questa minaccia, la risposta iniziale delle istituzioni e dell’industria si è concentrata sullo sviluppo di algoritmi di rilevamento (detection) per scovare i deepfake ex-post. Tuttavia, la ricerca accademica del biennio 2025-2026 ha dimostrato inequivocabilmente che questo approccio reattivo è fallimentare e strutturalmente asimmetrico. Studi recenti sottoposti a revisione paritaria evidenziano un drammatico degrado delle prestazioni nei modelli di detection causato dalla rapida obsolescenza dei dati di addestramento. Un algoritmo addestrato per identificare artefatti visivi può raggiungere momentaneamente un’area sotto la curva (AUROC) del 99,8%, ma subisce un crollo del tasso di richiamo (recall) superiore al 30% quando viene testato su deepfake creati con tecnologie di generazione rilasciate appena sei mesi dopo.

La presa di coscienza di questi limiti algoritmici sta spingendo persino i principali player dell’industria ad affiancare al rilevamento ex-post nuove misure di trasparenza preventiva. Un esempio emblematico è rappresentato dalle recenti contromisure introdotte da Microsoft per il proprio ecosistema aziendale Copilot: per mitigare i rischi di campagne di ingegneria sociale (phishing) e contrastare la disinformazione sintetica, l’azienda ha previsto l’implementazione di controlli amministrativi che consentono l’inserimento di loghi aziendali certificati per validare l’autenticità dell’ambiente di lavoro e impongono l’apposizione di filigrane (watermark) obbligatorie sui contenuti audio e video generati o alterati dall’IA.

In una competizione in cui i modelli generativi evolvono su base settimanale, la Pubblica Amministrazione non può permettersi di rincorrere le falsificazioni affidandosi a filtri tecnologici costantemente in ritardo. I tempi di latenza del fact-checking e del rilevamento algoritmico, seppur ridotti, sono sufficienti affinché una narrazione falsa diventi virale e produca i suoi danni irreparabili sul tessuto democratico. Si rende pertanto ineludibile un radicale cambio di paradigma: la transizione da una postura di difesa reattiva, basata sulla caccia ai contenuti falsi, a una strategia di autenticazione proattiva della fonte originale.

Dove i quadri normativi cercano di contenere la disinformazione sintetica

I legislatori europei e nazionali hanno tentato di arginare il fenomeno attraverso quadri normativi stringenti, che tuttavia mostrano evidenti limiti operativi se non supportati da un’infrastruttura tecnologica adeguata.

A livello europeo, il Regolamento UE 2024/1689 (AI Act) ha introdotto all’Articolo 50 specifici obblighi di trasparenza, imponendo che i contenuti sintetici audio, video e testuali siano etichettati in un formato leggibile dalla macchina (machine-readable) e palesati agli utenti. Tuttavia, tali obblighi di trasparenza diverranno pienamente applicabili solo ad agosto 2026. Nel frattempo, la Commissione Europea sta lavorando a un “Codice di Condotta sulla Trasparenza dei Contenuti Generati dall’IA” (Code of Practice), un framework di soft-law volontario che mira a definire le linee guida per il watermarking ed il labeling.

Il limite di questo approccio è duplice: da un lato, l’etichettatura visiva rischia di generare “label fatigue” negli utenti; dall’altro, la norma si applica ai “deepfake legali“, ma risulta di difficile applicazione contro attori malevoli o state-sponsored che ignorano deliberatamente le regole, omettendo i watermark nei contenuti finalizzati alla disinformazione elettorale o alla frode.

Nel panorama italiano, la Legge 23 settembre 2025, n. 132 rappresenta la prima disciplina organica nazionale in materia. Tra le novità di spicco figura l’introduzione dell’art. 612-quater del Codice Penale, che punisce la diffusione illecita di contenuti generati o alterati tramite IA (deepfake) con reclusione da uno a cinque anni, oltre all’introduzione di aggravanti specifiche (art. 61 c.p.) per l’impiego insidioso di sistemi IA in reati contro i diritti politici o nella manipolazione del mercato. La normativa impone inoltre la revisione dei Modelli Organizzativi (ex D.Lgs. 231/2001) per integrare la prevenzione di illeciti legati all’IA.

Sebbene fondamentale sul piano deterrente e repressivo, la Legge 132/2025 sconta un limite insito nel diritto penale: interviene ex-post, a danno già avvenuto. Inoltre, come sottolineato dagli esperti, la sua efficacia è attualmente frenata dalla carenza di alfabetizzazione digitale nella PA e dalla mancanza di figure ibride capaci di tradurre i requisiti legali in architetture tecnologiche.

Una possibile soluzione: l’autenticazione proattiva tramite Content Credentials

Come certificare la fonte contro la disinformazione sintetica

Per colmare il divario tra l’inefficacia del rilevamento reattivo e i limiti dell’azione normativa ex-post, le istituzioni democratiche devono adottare protocolli di “certificazione della fonte” (provenance). Il framework di riferimento globale è stato sviluppato dalla Coalition for Content Provenance and Authenticity (C2PA) e implementato operativamente tramite l’iniziativa Content Credentials, un ecosistema che conta sull’adesione dei maggiori player tecnologici ed editoriali.

Il protocollo C2PA non cerca di individuare i deepfake, ma certifica crittograficamente la verità del contenuto originale. Funzionando come una “etichetta nutrizionale” digitale, il sistema incorpora metadati immutabili direttamente nel file multimediale (video, audio, foto o documento) fin dal momento esatto della sua creazione o acquisizione. Attraverso l’impiego di firme digitali, la catena di provenienza (manifest) registra l’autore, la data, le coordinate spaziali, l’hardware utilizzato e traccia in modo trasparente qualsiasi successiva alterazione indotta da software di editing.

Per la PA, l’implementazione istituzionale di questo standard richiede un’infrastruttura articolata su tre direttrici:

Iniezione alla fonte

Hardware e software governativi (ad esempio, le telecamere degli uffici stampa ministeriali e i CMS istituzionali) devono essere aggiornati per firmare nativamente i contenuti multimediali al momento della cattura, ancorandoli indissolubilmente all’identità crittografica dello Stato.

    Watermarking durevole e registri di backup

    Poiché i metadati C2PA possono essere accidentalmente o volontariamente rimossi durante la compressione sui social network, le istituzioni devono adottare i “Durable Content Credentials“, che combinano i metadati con watermarking invisibili associati a un fingerprint archiviato in un database governativo di sola lettura (read-only). Ciò consente di recuperare e verificare la provenienza del file anche se i metadati originali sono stati manipolati.

      Integrazione con l’identità digitale europea

      L’infrastruttura di firma dei contenuti istituzionali dovrà integrarsi con l’European Digital Identity (EUDI) Wallet, obbligatorio per gli Stati Membri entro il 2026. Questo portafoglio digitale permetterà ai funzionari pubblici di apporre firme elettroniche qualificate direttamente sui contenuti rilasciati, garantendo un livello di trust europeo standardizzato.

        Dalla disinformazione sintetica alla certificazione della fiducia

        Il passaggio dall’illusione del rilevamento alla certezza della certificazione crittografica rappresenta l’unico baluardo tecnologicamente ed eticamente sostenibile. Adottando l’autenticazione proattiva della fonte, le istituzioni democratiche disinnescano l’asimmetria della disinformazione generativa, restituendo ai cittadini la facoltà di distinguere la comunicazione ufficiale di Stato dall’allucinazione sintetica.

        guest

        0 Commenti
        Più recenti
        Più votati
        Inline Feedback
        Vedi tutti i commenti

        Articoli correlati

        0
        Lascia un commento, la tua opinione conta.x