intelligenza artificiale

L’AI ha rotto la realtà. E ora?



Indirizzo copiato

Tutti i rimedi per identificare cosa è vero e cosa è AI su internet stanno fallendo. Dalle C2PA alle nuove regole europee. Il problema è complesso e le big tech non hanno interesse a risolverlo. Ora è su utenti e società il peso di distinguere ciò che è reale. Ma c’è speranza

Pubblicato il 13 feb 2026

Alessandro Longo
Alessandro Longo

Direttore agendadigitale.eu



intelligenza artificiale realtà

A fine 2025 il capo di Instagram, Adam Mosseri, ha scritto che dobbiamo smettere di “dare per scontato che ciò che vediamo sia reale” e che comincia l’era dello “scetticismo”.

Forse non abbiamo colto davvero il peso di queste parole, che vengono da una delle principali autorità in materia di social, specchio ormai deformato e anzi rotto della nostra realtà.

Come tutti possono vedere, è l’invasione di contenuti AI, nei social ma non solo, a rompere il patto di fiducia che per secoli ha regnato tra i nostri occhi e le immagini riprodotte.

One year of Trump 2.0: how he's weaponised AI as political propaganda • FRANCE 24 English

L’AI ha rotto la realtà

Un problema che fa saltare tutto. Internet ha aiutato l’umanità a informarsi in tempo reale su ciò che succede a qualunque distanza. Ma se non possiamo fidarci di ciò che vediamo, il gioco non funziona più.

A danno di qualunque forma di informazione e comunicazione: dai documentari alla pubblicità alla propaganda politica. Adesso la Casa Bianca è uno dei principali diffusori di immagini fatte con l’AI, senza indicare la loro natura artificiale, a scopo di propaganda, sui social X (di Elon Musk, amico del presidente Usa Donald Trump) e Truth (di Trump)

Come risolvere? Brutte notizie: non si sa.

I certificati contro l’AI ingannevole

Per anni l’idea è stata semplice: aggiungere ai contenuti digitali una sorta di “certificato di origine”, un po’ come l’etichetta nutrizionale sul cibo. Questo è lo scopo di C2PA, lo standard di “Content Credentials” promosso da aziende come Adobe, Microsoft, OpenAI, Meta e molte altre.

Ma l’idea che bastino metadati e bollini per ricostruire una “realtà condivisa” non sta reggendo.

Perché le etichette anti deepfake non bastano più

C2PA nasce come standard tecnico per registrare, in un “manifesto” di metadati, la storia di un file: chi lo ha creato, con quale dispositivo, quali modifiche ha subito, con quali strumenti.

Nella visione dei promotori, dovrebbe funzionare così:

  • scatti una foto con la fotocamera o lo smartphone;
  • apri l’immagine in software compatibili (per esempio Photoshop);
  • ogni modifica viene aggiunta al manifesto C2PA, che viaggia insieme al file;
  • le piattaforme che pubblicano l’immagine leggono quel manifesto e mostrano un pannello al pubblico: autore, app usate, eventuale uso di strumenti di AI, ecc.

Tecnicamente è un’estensione sofisticata dei vecchi metadati Exif delle fotografie, con in più firme crittografiche per rendere difficile la manipolazione. Il progetto “Content Credentials” è ospitato da una fondazione che oggi dichiara di coinvolgere oltre 500 aziende, tra cui anche Google, Sony, Bbc, Amazon e altre.

Nato come strumento di tracciabilità per fotografi, media e creativi, è stato rapidamente promosso come “risposta” all’invasione di immagini generate o alterate dall’intelligenza artificiale. Ed è qui che iniziano i problemi.

Perché i bollini non stanno funzionando

Dal punto di vista tecnico, C2PA ha due limiti strutturali:

  • Funziona bene se chi crea il contenuto vuole farsi tracciare. Un autore che genera un deepfake in malafede può produrre un file senza credenziali, o ripulito con uno screenshot o una conversione. Lo standard non è un “rivelatore di AI”, è un registro di provenienza per chi accetta di usarlo.
  • In teoria le firme C2PA dovrebbero sopravvivere a operazioni come compressione o ridimensionamento. In pratica, diversi operatori – compresi membri della stessa coalizione – riconoscono che è facile rimuovere o corrompere le credenziali, a volte persino “per sbaglio”, durante l’upload o la rielaborazione dei file.

A questo si aggiunge il problema forse più grave: la catena si spezza in distribuzione.

Sul lato “creazione” qualcosa si muove: software di editing, alcuni modelli di fotocamere e gli strumenti generativi delle grandi aziende iniziano a scrivere manifest C2PA nei file.

Ma fa acqua il rispetto di quei metadati su social network, piattaforme video, app di messaggistica. È lì che oggi il sistema si inceppa.

Big tech e incentivi: chi decide sulle etichette anti deepfake

Le grandi piattaforme hanno mosse molto diverse tra loro, spesso incoerenti.

Google e i watermark nascosti

Google ha sviluppato SynthID, un sistema di watermark “nascosto” che inserisce segnali direttamente dentro i contenuti generati dai suoi modelli (immagini, audio, video, testo).

Oggi Google offre anche un “Detector” e strumenti nel suo assistente Gemini per verificare se un’immagine o un video contengono il watermark di SynthID.

Alcuni prodotti Google combinano SynthID e metadati C2PA, ma questo non risolve il problema di interoperabilità: altri player non sono obbligati né tecnicamente pronti a leggere quei segnali.

TikTok, YouTube, X, Apple: strategie divergenti

TikTok ha annunciato nel 2024 che avrebbe usato C2PA per riconoscere e etichettare automaticamente i contenuti AI provenienti da altre piattaforme, diventando il primo grande social video ad adottare ufficialmente lo standard.

Nel 2025 ha introdotto anche un controllo per ridurre la quantità di contenuti AI nel feed e un watermark “AI-made” sui video generati o individuati come tali.

YouTube usa etichette testuali (“contenuto generato con l’AI”) ma l’applicazione è irregolare: molti video generati o pesantemente manipolati sfuggono alle segnalazioni automatiche, e Google risponde spesso caso per caso, dopo segnalazioni specifiche.

X era tra i membri originari del progetto, ma dopo l’acquisizione da parte di Elon Musk ha smesso di collaborare. Oggi non c’è alcun impegno visibile su C2PA, mentre il flusso di contenuti sintetici e disinformazione è esploso.

Apple per ora resta defilata. Fonti di settore parlano di contatti informali con la coalizione C2PA, ma non ci sono annunci pubblici sull’adozione né di C2PA né di watermark come SynthID sui contenuti in uscita dagli iPhone.

Intanto, molte fotocamere “pro” – Sony, Nikon, Leica – hanno iniziato a integrare Content Credentials sui modelli più recenti, ma non possono aggiornare l’enorme parco di corpi macchina già in circolazione, che resteranno per anni la dotazione principale di fotografi e reporter.

Il risultato è un mosaico: qualche tassello avanzato, molti vuoti, nessuna copertura uniforme.

Percezione sociale dell’AI tra creatori e pubblico

C’è poi un problema di percezione sociale. L’etichetta “creato con l’AI” non è neutra:

  • per molti creativi equivale a dire “hai barato”;
  • per i brand fa pensare a un lavoro a basso costo;
  • per il pubblico indica spesso un contenuto meno autentico, meno “umano”.

Non sorprende che molti autori si arrabbino quando una piattaforma marca come “AI” un contenuto che, dal loro punto di vista, è semplicemente una foto ritoccata o un video montato con strumenti di editing moderni.

Teniamo conto che quasi tutti i software creativi usano già qualche forma di AI “sotto il cofano”: riduzione del rumore, correzione colore, maschere automatiche. Quando scattiamo una foto, lo smartphone in realtà ne fa molte in rapida sequenza e ci restituisce il risultato migliore interpolato dai diversi scatti, per esaltare la luce, i dettagli.

Dove si traccia allora il confine tra AI e non AI?

Un volto lievemente ammorbidito dal software della fotocamera è “AI”? E una foto in cui il cielo è stato sostituito con uno generato da un modello o semplicemente il frutto di date foto scattate in automatico da smartphone? E un video in cui la voce è stata “ripulita” da un sistema basato su reti neurali?

A cadere è l’idea che una foto sia la riproduzione di un momento preciso nel tempo. Non abbiamo nemmeno gli strumenti cognitivi per tracciare il confine di realtà nell’immagine digitale.

Finché non esiste un consenso minimo su quanto intervento algoritmico trasforma un contenuto in “AI-generated”, ogni etichetta rischia di essere troppo aggressiva (e irritare creatori e inserzionisti); oppure troppo permissiva (e lasciare passare contenuti ingannevoli).

Molte piattaforme, dopo esperimenti rumorosi e critiche violente, sembrano aver tirato il freno, tornando a etichette più vaghe o a una applicazione molto prudente.

Deepfake, disinformazione e crisi delle etichette anti deepfake

Il nodo politico è che il problema non riguarda solo la pubblicità o i meme.

Video girati con il telefono hanno documentato proteste, abusi di polizia, crimini di guerra. Fino a poco tempo fa, il patto implicito era: un video grezzo da più angolazioni è una prova credibile.

Oggi, con la facilità di generare o alterare immagini, quel patto vacilla.

Se lo fa anche il Governo

Anche attori istituzionali usano sempre più spesso immagini generate dall’AI nelle proprie comunicazioni: il Governo degli Stati Uniti, come altri, ha diffuso in vari casi grafica e foto sintetiche per campagne informative o propaganda, rendendo più difficile distinguere tra documentazione e messa in scena.

La foto “ritoccata” dell’arresto di Nekima Levy Armstrong è il caso più chiaro perché non parliamo di satira evidente, ma di un’immagine che simula una fotografia realistica. Dopo l’arresto della civil rights attorney Armstrong durante una protesta in Minnesota, l’account ufficiale della Casa Bianca su X ha pubblicato un’immagine in cui la donna appare in lacrime, con tratti del volto alterati digitalmente per aumentare l’effetto emotivo. La manipolazione cambia il significato dell’immagine (da “arresto con atteggiamento composto” a “cedimento emotivo”), rafforzando la cornice accusatoria del post e delegittimando la persona rappresentata.

In altri casi l’uso dell’AI a scopo propaganda da parte del Governo Usa non è ingannevole ma comunque manipolatorio e conferma l’interesse del potere in questo strumento: vedi le immagini che ritraggono Trump come un Re o un Jedi (culto della personalità) o Gaza immaginata come un resort di lusso.

Chi produce disinformazione – Stati, partiti politici, gruppi criminali – ha poco incentivo a usare strumenti che “autodenunciano” l’uso dell’AI. E tende a servirsi di modelli open source o servizi opachi, totalmente fuori dal perimetro delle coalizioni tipo C2PA. Se lo fa anche il potere istituzionale, come potrebbe fare o fare applicare leggi in questo senso?

Affidarsi solo alla buona volontà delle piattaforme e degli sviluppatori di AI è evidentemente insufficiente.

Il paradosso economico: chi vende l’AI controlla anche il flusso

Di base c’è un conflitto di interessi: le aziende che guadagnano di più dall’AI sono le stesse che controllano i canali di distribuzione delle informazioni.

Google investe miliardi in modelli generativi e contemporaneamente vive di YouTube dove i ricavi aumentano anche grazie all’AI slop.

Meta spinge l’AI dentro Instagram e Facebook, dove misura il successo sul tempo di permanenza e sul numero di contenuti consumati, e pure investe miliardi su AI.

OpenAI fornisce modelli che generano immagini e video, che finiscono poi su social controllati da partner commerciali.

Etichettare in modo chiaro “fatto con l’AI” rischia di ridurre il valore percepito di un contenuto – e quindi la sua monetizzazione – e di svalutare al tempo stesso gli investimenti in AI delle big tech. La tentazione di applicare i bollini in modo timido o incoerente è forte. La trasparenza, in pratica, si scontra con i ricavi.

Tentativi di alternative: piattaforme “no-AI” e filtri per gli utenti

Esistono esperimenti in controtendenza. La piattaforma per artisti Cara, per esempio, ha promesso di escludere l’arte generata dall’AI, posizionandosi esplicitamente come spazio “per umani”.

Ma senza strumenti di rilevazione affidabili è difficile trasformare questa promessa in pratica: un utente può sempre caricare immagini sintetiche spacciandole per illustrazioni originali.

Altre piattaforme, come TikTok, stanno iniziando a dare agli utenti controlli per ridurre la presenza di contenuti AI nel feed, sfruttando le etichette C2PA e i tag dichiarativi.

È una direzione interessante: non promette di “ripulire il mondo”, ma di restituire almeno un po’ di controllo alla persona che guarda.

Resta però un dato: la responsabilità del discernimento viene spostata sempre più sull’utente, che deve interpretare etichette, controlli, metadati, fidarsi o meno di singoli creator.

E adesso? Regole, non solo standard tecnici

Dalle parole degli addetti ai lavori emerge un punto di fondo: C2PA non è “sbagliato”, è semplicemente insufficiente rispetto a ciò che gli è stato chiesto di fare.

Come strumento di certificazione per chi vuole dimostrare la paternità di un’opera, ha un’utilità concreta.

Come “scudo” universale contro i deepfake, è già fallito.

Perché qualcosa cambi davvero, serviranno varie cose.

C2PA, watermark tipo SynthID, sistemi di analisi “forense” basati su AI dovranno convivere, con specifiche chiare su come combinare i segnali e quali decisioni prendere nei casi dubbi.

Norme che impongano davvero (e facciano rispettare):

  • trasparenza sui contenuti generati o manipolati;
  • requisiti minimi di labeling;
  • responsabilità per la mancata rimozione di deepfake lesivi,

Altrimenti, resteremo nel regno delle promesse volontarie e dei piloti.

Il messaggio di Mosseri – “partire dallo scetticismo” – indica un cambio di mentalità: fidarsi meno del singolo fotogramma e molto di più del contesto, delle fonti, delle verifiche incrociate.

È un cambiamento faticoso, ma probabilmente inevitabile.

AI Act, DSA e il futuro delle etichette anti deepfake

A proposito di regole, si può pensare che noi siamo messi meglio in Europa, ma la situazione non è così semplice.

L’Unione Europea ha tentato di affrontare il problema per via legislativa con l’AI Act (Regolamento UE 2024/1689, entrato in vigore ad agosto 2024), che rappresenta il tentativo normativo più avanzato a livello globale per regolamentare i contenuti sintetici.

Obblighi specifici per i deepfake

L’articolo 50(4) dell’AI Act impone un obbligo di etichettatura chiara per contenuti audio, video, testo o immagini generati o manipolati da AI che “assomigliano palesemente a persone, oggetti, luoghi, entità o eventi esistenti”.

Esiste un’eccezione se è “evidente dal contesto” che si tratta di contenuto sintetico. Le sanzioni previste arrivano fino a 15 milioni di euro o il 3% del fatturato globale.

Il problema principale è che si tratta di un obbligo “a valle”: copre chi distribuisce i contenuti, non necessariamente chi li genera.

Inoltre, non specifica come etichettare tecnicamente (C2PA? watermark? disclaimer testuale?) e non risolve il nodo fondamentale: contenuti prodotti in malafede o con strumenti non-UE semplicemente ignorano l’obbligo.

Sistemi ad alto rischio

Gli articoli 6 e l’Allegato III dell’AI Act classificano i deepfake usati per “biometric identification” o in contesti critici (elezioni, giustizia) come sistemi ad alto rischio.

Questi richiedono valutazione di conformità, documentazione tecnica dettagliata e tracciabilità completa.

La maggior parte dei deepfake “ordinari”, meme, disinformazione generica, pornografia non consensuale, non rientra in questa categoria e quindi sfugge ai requisiti più stringenti.

Digital Services Act: responsabilità delle piattaforme

Il Digital Services Act (DSA), in applicazione da febbraio 2024, offre leve complementari all’AI Act:

Trasparenza della pubblicità (Art. 14 e 15)

Le piattaforme devono rendere visibile quando un contenuto pubblicitario usa AI generativa.

Questo potrebbe forzare Meta, Google e TikTok a implementare meglio C2PA almeno per gli annunci.

Il problema è che questa norma copre solo contenuti commerciali, non organici.

Obblighi per Very Large Online Platforms (Art. 34-35)

Le piattaforme molto grandi devono condurre valutazioni sui rischi sistemici, inclusa la disinformazione amplificata da contenuti sintetici, e sottoporsi ad audit indipendenti annuali.

Questa è un’opportunità: la Commissione Europea potrebbe usare questi audit per spingere l’adozione di standard tecnici uniformi.

Segnalazione contenuti illeciti (Art. 16)

Include “immagini intime manipolate” (deepfake pornografici) con meccanismo di notice-and-action.

Tuttavia, l’intervento avviene dopo la pubblicazione, quando il danno è spesso già fatto.

Limiti strutturali dell’approccio europeo

AI Act e DSA vincolano i fornitori che operano in UE, ma modelli open source o servizi offshore sfuggono completamente.

Un creatore di deepfake può usare Stable Diffusion da un server russo: né AI Act né DSA possono intervenire.

Enforcement debole nella fase iniziale

L’AI Act è appena entrato in vigore, con applicazione graduale fino al 2027. Gli Stati membri devono ancora nominare le autorità di controllo nazionali.

I primi casi sanzionatori non sono attesi prima del 2026-2027.

Definizioni ambigue

L’espressione “palesemente assomigliare” (Art. 50) lascia margini interpretativi enormi.

La linea di demarcazione tra ritocchi con AI in Photoshop e deepfake integrale resta poco chiara.

Nessun obbligo di interoperabilità tecnica

L’AI Act dice “devi etichettare”, ma non impone C2PA, SynthID o altri standard specifici.

Il rischio è una frammentazione ancora maggiore, con ogni piattaforma che usa sistemi proprietari incompatibili tra loro.

Dove l’AI Act potrebbe fare differenza

La minaccia di sanzioni spinge le piattaforme VLOP (Very Large Online Platforms) a standardizzare davvero su C2PA o equivalente.

Gli audit DSA obbligano Meta, Google e TikTok a dimostrare di aver ridotto la circolazione di deepfake non etichettati.

La Commissione pubblica linee guida tecniche vincolanti sull’etichettatura, simili a quanto fatto con il GDPR.

Scenario realistico

Insomma, è prevedibile un’applicazione a macchia di leopardo: alcune piattaforme si adeguano, altre no.

Contenuti prodotti fuori UE o con strumenti non commerciali che continuano a circolare senza etichette.

I deepfake più pericolosi, campagne di disinformazione statale, ricatti, restano fuori radar perché prodotti da attori che ignorano deliberatamente le regole.

Oltre le etichette anti deepfake: verso un nuovo ecosistema di prove

In sostanza: l’AI Act è un tassello importante, forse il più avanzato a livello globale, da solo non basta.

L’AI Act alza il costo della non-compliance per le piattaforme “rispettabili”, ma non risolve il problema di fondo: chi produce disinformazione ignora deliberatamente le regole.

Servirebbe un ecosistema che combini:

  • Obblighi legali (AI Act, DSA)
  • Standard tecnici interoperabili (C2PA evoluto + watermark + forensics AI)
  • Responsabilità delle piattaforme (audit, trasparenza algoritmica)
  • Educazione degli utenti allo scetticismo metodico

Il rischio è che l’UE crei una “bolla di relativa trasparenza” mentre il resto del web rimane una giungla.

La vera sfida sarà estendere questi principi oltre i confini europei e rendere gli standard tecnici davvero vincolanti per tutti gli attori dell’ecosistema digitale.

La vera questione è se società, legislatori e piattaforme riusciranno a costruire, sopra questi strumenti imperfetti, un nuovo ecosistema di prove, verifiche e responsabilità che renda di nuovo possibile dire, almeno in alcuni casi cruciali: “questo è successo davvero”.

Ha collaborato Maurizio Carmignani per la parte giuridica finale

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x