Stiamo entrando nell’era in cui non basta più vedere per credere. E non perché improvvisamente siamo diventati tutti ingenui, ma perché la realtà digitale ha perso una proprietà fondamentale: la stabilità della prova. Un’immagine, un video, una voce, oggi possono essere alterati con una facilità e una fedeltà tale da rendere irrilevante la domanda “ti sembra vero?”.
La domanda sensata potrebbe oggi diventare un’altra: “da dove arriva, e cosa è successo lungo il percorso?”.
È qui che arriva un’interessante proposta da Microsoft: un’idea di “infrastruttura della fiducia” che non pretenda di decidere cosa sia vero, ma provi a rendere trasparente l’origine dei contenuti. Sembra un dettaglio, ma è un interessante cambio di paradigma.
Per anni abbiamo discusso come se il problema fosse distinguere vero e falso. In realtà, nella maggior parte dei casi, ciò che ci serve è poter ricostruire la storia di un contenuto: chi lo ha creato, con quali strumenti, se è stato modificato, e quanto.
Indice degli argomenti
Fiducia digitale e provenienza dei contenuti
Proviamo a fare un ragionamento di dettaglio con una semplice ma efficace metafora: come si autentica un quadro?
Quando sei in un museo non lo fai chiedendoti se “ti convince”. Lo fai con la provenienza, con la catena di passaggi, con segni verificabili, con una sorta di impronta. Nel digitale l’equivalente sono tre cose che, combinate, iniziano a somigliare a un valido sistema: dati di provenienza allegati ai file, watermark invisibili ma leggibili dalle macchine, firme crittografiche che permettono di capire se quel contenuto è stato manomesso.
Va però aggiunta una considerazione molto chiara: la tecnologia qui non è onnipotente. Non potrà dire se un video è “vero” nel senso giornalistico (o morale) del termine. Dirà, al massimo, se è stato generato o alterato e se esiste una traccia credibile di come è arrivato a noi. Ma questo, nel mondo reale, è già un bel salto in avanti. Perché oggi spesso non abbiamo nemmeno quello: abbiamo contenuti che diventano virali senza identità e senza storia, come se fossero apparsi dal nulla.
Quando la fiducia digitale dipende dalle etichette
La parte più delicata è, per ovvie ragioni, che questi sistemi di etichettatura devono funzionare bene, oppure è meglio non mostrarli affatto. Può sembrare controintuitivo, ma è logico: se un’etichetta sbaglia spesso, le persone non saranno propense a pensare che “ogni tanto capita”, ma probabilmente penseranno “quindi questo sistema non vale niente”.
Come sempre, la fiducia è un capitale strano: si costruisce lentamente e si brucia in fretta. E quando si brucia, per farla tornare serve un enorme sforzo.
Gli incentivi economici che frenano la fiducia digitale
Molto probabilmente dobbiamo anche aggiungere l’elefante nella stanza: gli incentivi economici.
Se mettere “AI-generated” riduce l’attenzione e l’interazione degli utenti, molte piattaforme saranno tentate di applicare le regole in modo blando o intermittente. Semplicemente perché sono aziende che ottimizzano un obiettivo.
Ci sono audit indipendenti che hanno mostrato che, su centinaia di contenuti testati, solo poco più del 30% risultava etichettato correttamente.
Fiducia digitale, sicurezza e tenuta democratica
Per chi guida organizzazioni, istituzioni e community professionali c’è un punto di estremo interesse: la fiducia online è una questione di sicurezza, reputazione ma anche di tenuta democratica. Se non sappiamo più distinguere contenuti originali da contenuti alterati, perdiamo la base comune su cui possiamo discutere.
Con il rischio che vinca chi urla meglio e non chi argomenta meglio.
A mio avviso, non credo che possa essere sufficiente solo la buona volontà. Gli standard devono diventare pratiche diffuse, e le pratiche diffuse spesso arrivano quando arrivano regole chiare e verificabili.
Le regole sulla fiducia digitale tra California ed Europa
Lo stato della California, per fare un esempio, sta andando in quella direzione con obblighi di trasparenza che entreranno in gioco dall’agosto 2026. La nostra Europa, invece, ha già iniziato a muovere passi simili con l’AI Act.
Il tema, probabilmente, non è “come smascheriamo ogni bugia”.
Diventa come riduciamo drasticamente il costo della verifica per le “persone normali”, non per gli esperti o gli “addetti ai lavori” che possono avere l’occhio più allenato (qualcuno sta pensando al phishing via mail?).
Non per gli analisti forensi, ma per chi scorre un feed o un social, anche tra una cosa e un’altra, e deve comunque prendere decisioni, formarsi un’opinione, votare, fidarsi o non fidarsi.
Perché la fiducia digitale può diventare uno standard invisibile
In un certo senso, come il protocollo HTTPS è diventato uno standard per la sicurezza, così la trasparenza della provenienza potrebbe diventare una utility.
Non qualcosa che notiamo ogni giorno, ma qualcosa di cui ci accorgiamo immediatamente quando manca (proprio come il messaggio di “connessione non sicura” che può apparire nei certificati HTTPS).
Perché nell’era dell’intelligenza artificiale il problema non è più soltanto capire che cosa stiamo guardando, ma se possiamo fidarci del percorso che quel contenuto ha fatto prima di arrivare fino a noi.










