contenuti sintetici

L’identità perduta nell’era dei contenuti IA



Indirizzo copiato

L’intelligenza artificiale generativa sta dissolvendo il confine tra umano e sintetico. Video, testi e audio indistinguibili dalla realtà minacciano l’autenticità online. Servono nuovi sistemi di verifica dell’identità per preservare fiducia e democrazia digitale

Pubblicato il 5 set 2025

Paolo Ceravolo

Associate Professor SESAR Lab – Dipartimento di Informatica Università degli Studi di Milano



Spid convenzione agid
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Con l’avanzare dell’Intelligenza Artificiale generativa, il confine tra ciò che è umano e ciò che è artificiale diventa sempre più sottile. Se un tempo questo tema apparteneva alla fantascienza, oggi rappresenta un nodo strutturale che investe il sistema dell’informazione, i meccanismi con cui si forma il dibattito pubblico e, in ultima analisi, le libertà e i diritti fondamentali della nostra società.

Identità digitale e crisi dell’autenticità

Un caso emblematico è la recente presentazione di Veo 3, il nuovo modello video sviluppato da Google. Nei giorni successivi al lancio, le piattaforme social sono state invase da filmati generati dall’IA: scene talmente realistiche da risultare praticamente indistinguibili da riprese autentiche. Il livello di dettaglio, la resa delle luci, la fluidità dei movimenti — superiori a quelli già avanzati di modelli come Sora di OpenAI o Veo 2 — mostrano con chiarezza a che velocità stia evolvendo questa tecnologia.

Ma il fenomeno non si limita al video. Strumenti come GPT-4 e Claude sono oggi in grado di generare testi, immagini e persino audio con una credibilità sorprendente. Recensioni di prodotti, articoli di cronaca, interviste inventate o perfino testimonianze personali vengono creati e diffusi online senza che l’utente medio abbia strumenti per distinguerli da contenuti reali.

In questo scenario, l’autenticità sta diventando una risorsa scarsa, e sempre più difficile da verificare. Non basta più affidarsi all’occhio umano: serve ripensare le infrastrutture dell’informazione e dotarsi di nuovi strumenti per riconoscere, segnalare e contestualizzare ciò che leggiamo, vediamo e ascoltiamo. Se un tempo eravamo abituati ai CAPTCHA o all’analisi dei comportamenti digitali per verificare l’origine umana di un contenuto (le cosiddette tecniche di Proof of Personhood – PoP), oggi queste difese stanno rapidamente perdendo efficacia. Le IA generative imitano sempre più fedelmente il comportamento umano.

Disinformazione 2.0: tre nuovi volti della manipolazione

Se in passato l’urgenza era smascherare le fake news, oggi la minaccia è più sottile e strutturale: contenuti autentici nella forma, ma artificiali nella sostanza.

  • Contenuti sintetici credibili. Editoriali, recensioni, testimonianze e interviste prodotte da modelli linguistici avanzati stanno invadendo la rete. Un’indagine condotta da NewsGuard ha scoperto oltre 150 siti pseudo-giornalistici completamente generati da IA, molti dei quali scrivono notizie politiche o di salute pubblica senza supervisione umana.
  • Manipolazione automatizzata del consenso. Durante le elezioni indiane del 2024, numerosi video deepfake sono stati condivisi su TikTok e Telegram per diffondere messaggi politici falsi. Intere reti di bot IA hanno simulato sostegno popolare a candidati, amplificando tendenze artificiali.
  • Erosione della fiducia. Quando i lettori iniziano a dubitare della provenienza di ogni contenuto, il rischio è che perdano fiducia anche nelle fonti legittime. Giornalismo, scienza e attivismo rischiano di diventare indistinguibili da una produzione sintetica ben confezionata.

Le nuove frontiere della verifica: biometria, blockchain e identità digitale

Di fronte alla crescente crisi dell’autenticità online, i sistemi di Proof-of-Personhood (PoP) stanno emergendo come soluzioni chiave per garantire che dietro a un’interazione digitale ci sia davvero un essere umano.

Worldcoin: l’identità globale tra ambizione e controversie

Tra le proposte più discusse spicca Worldcoin, il progetto co-fondato da Sam Altman (CEO di OpenAI), che punta a creare un’identità digitale universale tramite un dispositivo biometrico chiamato Orb, in grado di scannerizzare l’iride dell’utente e generare un identificativo univoco: il World ID.

L’obiettivo è ambizioso: garantire un’identità verificata a ogni individuo, per contrastare bot, spam e manipolazioni su larga scala. Tuttavia, il sistema ha sollevato forti perplessità etiche e legali, soprattutto per il suo approccio centralizzato alla raccolta e gestione dei dati biometrici. Paesi come Germania e Kenya hanno sospeso le attività del progetto, richiedendo garanzie normative più solide in materia di privacy e governance dei dati sensibili.

Verso una nuova infrastruttura dell’identità digitale

Oltre ai sistemi PoP dedicati, si stanno diffondendo strumenti più generali di autenticazione e identificazione decentralizzata, in grado di supportare un’architettura più robusta e rispettosa dei diritti.

  • Passkeys (FIDO/WebAuthn). Già adottate da Apple, Google e altre grandi piattaforme, le Passkeys sostituiscono le password tradizionali con credenziali crittografiche associate al dispositivo dell’utente, autenticabili tramite biometria locale o PIN. Questo approccio rende difficile per bot e attacchi automatizzati accedere agli account, rafforzando l’identificazione personale nei servizi digitali.
  • Digital Identity Wallets & Verifiable Credentials (DIDs/VCs). Questi portafogli digitali permettono agli utenti di conservare attestazioni crittograficamente verificabili (come “sono maggiorenne” o “sono un essere umano verificato”) rilasciate da enti certificati. Le credenziali possono essere condivise in modo selettivo e protetto, anche attraverso tecniche come gli zero-knowledge proofs, che consentono di provare un’informazione senza rivelare altro. Questo approccio potrebbe costituire l’infrastruttura di riferimento per le future soluzioni PoP, coniugando verifica dell’identità e tutela della privacy.

Alternative decentralizzate: PoP senza biometria invasiva

Non tutte le soluzioni PoP si basano su dati biometrici. Diversi progetti esplorano modelli decentralizzati e orientati alla privacy individuale.

  • Proof of Humanity. Un’iniziativa open source che unisce video-selfie, verifica tra pari (gli utenti si certificano a vicenda) e una rete blockchain pubblica. Il risultato è un registro distribuito di identità umane, costruito dalla comunità e resistente a manipolazioni centralizzate.
  • IOTA Identity
    Basato sulla tecnologia Tangle, un’alternativa leggera alla blockchain, mira a creare identità digitali sovrane. Gli utenti controllano completamente i propri dati, decidendo quando e con chi condividerli. L’obiettivo è combinare privacy, scalabilità e interoperabilità in un ecosistema digitale in evoluzione.

Un nuovo ecosistema dell’informazione è possibile?

Se ben implementate e adottate con cautela, queste tecnologie potrebbero inaugurare una nuova fase dell’informazione digitale basata su identità trasparenti, responsabilità e tracciabilità. Questo consentirebbe di realizzare un sistema in grado di garantire:

  • Fonti verificabili: ogni autore potrebbe certificare la propria identità, restituendo autorevolezza alle firme e alle fonti giornalistiche.
  • Etichettatura chiara: i lettori potrebbero sapere se un contenuto è stato scritto da una persona, co-creato con IA o generato interamente da algoritmi.
  • Filtro per la disinformazione: le piattaforme avrebbero strumenti migliori per identificare e neutralizzare reti di bot o campagne di manipolazione.

Tuttavia, questa trasformazione non può avvenire senza un serio dibattito etico e politico.

Verifica e potere: una sfida politica prima che tecnologica

Dietro la promessa di un’autentica verifica dell’identità digitale si celano questioni etiche, sociali e politiche profonde. La raccolta di dati biometrici — come impronte digitali o scansioni oculari — solleva preoccupazioni legittime su privacy, sorveglianza, uso improprio dei dati e discriminazione algoritmica. I rischi di abuso o violazione dei sistemi sono concreti, così come quelli legati all’esclusione digitale: non tutti dispongono delle tecnologie necessarie per partecipare, con il rischio di aggravare disuguaglianze già esistenti.

Il nodo più delicato, però, è quello della governance. Se queste infrastrutture vengono gestite da attori privati o da governi privi di adeguati contrappesi democratici, si rischia di costruire nuove concentrazioni di potere sotto la maschera della verifica. Iniziative come Worldcoin o Proof of Humanity mostrano che modelli alternativi sono possibili, ma nessuna tecnologia sarà sufficiente senza regole chiare, trasparenza istituzionale e un confronto pubblico aperto.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x