contenuti sintetici

L’identità perduta nell’era dei contenuti IA



Indirizzo copiato

L’intelligenza artificiale generativa sta dissolvendo il confine tra umano e sintetico. Video, testi e audio indistinguibili dalla realtà minacciano l’autenticità online. Servono nuovi sistemi di verifica dell’identità per preservare fiducia e democrazia digitale

Pubblicato il 5 set 2025

Paolo Ceravolo

Associate Professor SESAR Lab – Dipartimento di Informatica Università degli Studi di Milano



Spid convenzione agid

Con l’avanzare dell’Intelligenza Artificiale generativa, il confine tra ciò che è umano e ciò che è artificiale diventa sempre più sottile. Se un tempo questo tema apparteneva alla fantascienza, oggi rappresenta un nodo strutturale che investe il sistema dell’informazione, i meccanismi con cui si forma il dibattito pubblico e, in ultima analisi, le libertà e i diritti fondamentali della nostra società.

Identità digitale e crisi dell’autenticità

Un caso emblematico è la recente presentazione di Veo 3, il nuovo modello video sviluppato da Google. Nei giorni successivi al lancio, le piattaforme social sono state invase da filmati generati dall’IA: scene talmente realistiche da risultare praticamente indistinguibili da riprese autentiche. Il livello di dettaglio, la resa delle luci, la fluidità dei movimenti — superiori a quelli già avanzati di modelli come Sora di OpenAI o Veo 2 — mostrano con chiarezza a che velocità stia evolvendo questa tecnologia.

Ma il fenomeno non si limita al video. Strumenti come GPT-4 e Claude sono oggi in grado di generare testi, immagini e persino audio con una credibilità sorprendente. Recensioni di prodotti, articoli di cronaca, interviste inventate o perfino testimonianze personali vengono creati e diffusi online senza che l’utente medio abbia strumenti per distinguerli da contenuti reali.

In questo scenario, l’autenticità sta diventando una risorsa scarsa, e sempre più difficile da verificare. Non basta più affidarsi all’occhio umano: serve ripensare le infrastrutture dell’informazione e dotarsi di nuovi strumenti per riconoscere, segnalare e contestualizzare ciò che leggiamo, vediamo e ascoltiamo. Se un tempo eravamo abituati ai CAPTCHA o all’analisi dei comportamenti digitali per verificare l’origine umana di un contenuto (le cosiddette tecniche di Proof of Personhood – PoP), oggi queste difese stanno rapidamente perdendo efficacia. Le IA generative imitano sempre più fedelmente il comportamento umano.

Disinformazione 2.0: tre nuovi volti della manipolazione

Se in passato l’urgenza era smascherare le fake news, oggi la minaccia è più sottile e strutturale: contenuti autentici nella forma, ma artificiali nella sostanza.

  • Contenuti sintetici credibili. Editoriali, recensioni, testimonianze e interviste prodotte da modelli linguistici avanzati stanno invadendo la rete. Un’indagine condotta da NewsGuard ha scoperto oltre 150 siti pseudo-giornalistici completamente generati da IA, molti dei quali scrivono notizie politiche o di salute pubblica senza supervisione umana.
  • Manipolazione automatizzata del consenso. Durante le elezioni indiane del 2024, numerosi video deepfake sono stati condivisi su TikTok e Telegram per diffondere messaggi politici falsi. Intere reti di bot IA hanno simulato sostegno popolare a candidati, amplificando tendenze artificiali.
  • Erosione della fiducia. Quando i lettori iniziano a dubitare della provenienza di ogni contenuto, il rischio è che perdano fiducia anche nelle fonti legittime. Giornalismo, scienza e attivismo rischiano di diventare indistinguibili da una produzione sintetica ben confezionata.

Le nuove frontiere della verifica: biometria, blockchain e identità digitale

Di fronte alla crescente crisi dell’autenticità online, i sistemi di Proof-of-Personhood (PoP) stanno emergendo come soluzioni chiave per garantire che dietro a un’interazione digitale ci sia davvero un essere umano.

Worldcoin: l’identità globale tra ambizione e controversie

Tra le proposte più discusse spicca Worldcoin, il progetto co-fondato da Sam Altman (CEO di OpenAI), che punta a creare un’identità digitale universale tramite un dispositivo biometrico chiamato Orb, in grado di scannerizzare l’iride dell’utente e generare un identificativo univoco: il World ID.

L’obiettivo è ambizioso: garantire un’identità verificata a ogni individuo, per contrastare bot, spam e manipolazioni su larga scala. Tuttavia, il sistema ha sollevato forti perplessità etiche e legali, soprattutto per il suo approccio centralizzato alla raccolta e gestione dei dati biometrici. Paesi come Germania e Kenya hanno sospeso le attività del progetto, richiedendo garanzie normative più solide in materia di privacy e governance dei dati sensibili.

Verso una nuova infrastruttura dell’identità digitale

Oltre ai sistemi PoP dedicati, si stanno diffondendo strumenti più generali di autenticazione e identificazione decentralizzata, in grado di supportare un’architettura più robusta e rispettosa dei diritti.

  • Passkeys (FIDO/WebAuthn). Già adottate da Apple, Google e altre grandi piattaforme, le Passkeys sostituiscono le password tradizionali con credenziali crittografiche associate al dispositivo dell’utente, autenticabili tramite biometria locale o PIN. Questo approccio rende difficile per bot e attacchi automatizzati accedere agli account, rafforzando l’identificazione personale nei servizi digitali.
  • Digital Identity Wallets & Verifiable Credentials (DIDs/VCs). Questi portafogli digitali permettono agli utenti di conservare attestazioni crittograficamente verificabili (come “sono maggiorenne” o “sono un essere umano verificato”) rilasciate da enti certificati. Le credenziali possono essere condivise in modo selettivo e protetto, anche attraverso tecniche come gli zero-knowledge proofs, che consentono di provare un’informazione senza rivelare altro. Questo approccio potrebbe costituire l’infrastruttura di riferimento per le future soluzioni PoP, coniugando verifica dell’identità e tutela della privacy.

Alternative decentralizzate: PoP senza biometria invasiva

Non tutte le soluzioni PoP si basano su dati biometrici. Diversi progetti esplorano modelli decentralizzati e orientati alla privacy individuale.

  • Proof of Humanity. Un’iniziativa open source che unisce video-selfie, verifica tra pari (gli utenti si certificano a vicenda) e una rete blockchain pubblica. Il risultato è un registro distribuito di identità umane, costruito dalla comunità e resistente a manipolazioni centralizzate.
  • IOTA Identity
    Basato sulla tecnologia Tangle, un’alternativa leggera alla blockchain, mira a creare identità digitali sovrane. Gli utenti controllano completamente i propri dati, decidendo quando e con chi condividerli. L’obiettivo è combinare privacy, scalabilità e interoperabilità in un ecosistema digitale in evoluzione.

Un nuovo ecosistema dell’informazione è possibile?

Se ben implementate e adottate con cautela, queste tecnologie potrebbero inaugurare una nuova fase dell’informazione digitale basata su identità trasparenti, responsabilità e tracciabilità. Questo consentirebbe di realizzare un sistema in grado di garantire:

  • Fonti verificabili: ogni autore potrebbe certificare la propria identità, restituendo autorevolezza alle firme e alle fonti giornalistiche.
  • Etichettatura chiara: i lettori potrebbero sapere se un contenuto è stato scritto da una persona, co-creato con IA o generato interamente da algoritmi.
  • Filtro per la disinformazione: le piattaforme avrebbero strumenti migliori per identificare e neutralizzare reti di bot o campagne di manipolazione.

Tuttavia, questa trasformazione non può avvenire senza un serio dibattito etico e politico.

Verifica e potere: una sfida politica prima che tecnologica

Dietro la promessa di un’autentica verifica dell’identità digitale si celano questioni etiche, sociali e politiche profonde. La raccolta di dati biometrici — come impronte digitali o scansioni oculari — solleva preoccupazioni legittime su privacy, sorveglianza, uso improprio dei dati e discriminazione algoritmica. I rischi di abuso o violazione dei sistemi sono concreti, così come quelli legati all’esclusione digitale: non tutti dispongono delle tecnologie necessarie per partecipare, con il rischio di aggravare disuguaglianze già esistenti.

Il nodo più delicato, però, è quello della governance. Se queste infrastrutture vengono gestite da attori privati o da governi privi di adeguati contrappesi democratici, si rischia di costruire nuove concentrazioni di potere sotto la maschera della verifica. Iniziative come Worldcoin o Proof of Humanity mostrano che modelli alternativi sono possibili, ma nessuna tecnologia sarà sufficiente senza regole chiare, trasparenza istituzionale e un confronto pubblico aperto.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati