L’intelligenza artificiale ha superato da tempo la soglia dell’innovazione di frontiera. Non è più una tecnologia “in prova”, né un ambito riservato ai laboratori di ricerca o alle grandi piattaforme tecnologiche. Oggi l’AI è infrastruttura, visibile e invisibile. Visibile quando utilizziamo ormai tutti i giorni ChatGPT, Claude, Copilot, Gemini, Grok[1] o altre per scrivere testi, comporre immagini, chiedere la dieta perfetta vegana, il programma di allenamento settimanale, integrare il CRM aziendale[2] per il marketing o per automatizzare le FAQ di un sito. Invisibile, quando opera silenziosamente nei motori di ricerca, nei sistemi di raccomandazione, nei software professionali, nei processi decisionali aziendali, nei servizi pubblici, nella selezione delle informazioni che leggiamo e delle scelte che compiamo.
Sempre più spesso le decisioni umane non sono prese con l’AI (utilizzo visibile), ma dopo l’AI (utilizzo invisibile o silenzioso). L’algoritmo filtra, pre-ordina, suggerisce, anticipa. L’essere umano, a quel punto, quasi sempre ratifica.
Questa delega cognitiva, che si verifica per entrambi gli utilizzi, visibile e invisibile dell’AI, non è neutrale. Produce una asimmetria strutturale: da un lato sistemi sempre più potenti e autonomi; dall’altro utenti, professionisti e istituzioni che li utilizzano senza poterli realmente comprendere o verificare.
È anche in questo scarto che nasce l’inquietudine contemporanea verso l’AI. Un’inquietudine che si manifesta attraverso parole-chiave ormai ricorrenti: black box, bias, hallucinations, lack of accountability, loss of control. Parole che descrivono fenomeni reali ma che spesso vengono affrontate come problemi etici o politici quando invece sono prima di tutto problemi architetturali.
Indice degli argomenti
Il ruolo dell’AI Act
L’Unione europea è stata la prima giurisdizione a tentare una risposta sistemica a questa asimmetria. Con l’AI Act l’UE ha introdotto un quadro regolatorio ambizioso fondato su un approccio risk-based.
L’AI non è vietata in quanto tale ma classificata in base al rischio che comporta per i diritti fondamentali, la sicurezza e l’ordine pubblico. Ne derivano obblighi crescenti per i sistemi considerati ad alto rischio: qualità dei dati, documentazione tecnica, tracciabilità, sorveglianza umana, robustezza, sicurezza informatica. Di qui una parte delle critiche di avere, da un lato, “ingabbiato” l’AI e il suo sviluppo nella UE e, dall’altro, di una legge troppo “strutturata”, dunque di difficile applicazione e non adeguata a tutta una serie di applicazioni.
Il messaggio politico e giuridico è però inequivocabile: l’AI non può essere lasciata all’autoregolazione del mercato. Eppure, proprio nella sua ambizione, l’AI Act rivela anche il suo limite strutturale.[3] È un regolamento che agisce prevalentemente ex ante attraverso obblighi procedurali, organizzativi e documentali. Chiede agli operatori di dimostrare di aver fatto “quanto ragionevolmente possibile” per garantire conformità, sicurezza e controllo.
Ma il diritto, da solo, non può trasformarsi in codice. Può indicare che cosa deve essere garantito ma non sempre come garantirlo tecnicamente. È qui che si apre uno spazio di riflessione cruciale: quale infrastruttura tecnologica può rendere effettivi, verificabili e continuativi gli obiettivi dell’AI Act?
L’ipotesi: la blockchain come layer di controllo tecnico
L’ipotesi che questo articolo sviluppa è la seguente: la blockchain può operare come layer tecnico di controllo dell’AI, complementare alla regolazione giuridica, capace di trasformare obblighi normativi in proprietà tecniche verificabili.
Non si tratta di sostituire la legge con il codice né di immaginare una governance algoritmica dell’AI[4]. Si tratta, più modestamente ma più concretamente, di affiancare alla fiducia giuridica una verificabilità tecnica.
La blockchain, nella sua essenza, non è solo una tecnologia finanziaria. È una infrastruttura vera e propria progettata per funzionare in ambienti a bassa fiducia, dove le parti non possono o non vogliono affidarsi a un’autorità centrale e non si conoscono e/o non si fidano l’una delle altre.
È esattamente il contesto in cui oggi opera l’AI.
Lo studio e l’applicazione della blockchain all’AI sono agli albori e questo articolo ha, nelle intenzioni degli autori, la valenza di spunto o provocazione per contribuire al dibattito e “spingere” la ricerca in territori ancora in gran parte inesplorati.
Fiducia e verificabilità: due paradigmi opposti
L’AI moderna funziona sulla base di un presupposto implicito: la fiducia. Fiducia nei dati utilizzati, nei modelli addestrati, nei fornitori, nelle procedure interne, nei controlli organizzativi. La blockchain nasce, al contrario, da una diffidenza strutturale. Non chiede di fidarsi di qualcuno, ma di verificare ciò che è accaduto. Questa differenza non è filosofica ma operativa.
Quando un sistema di AI produce un risultato, l’utente medio non è in grado di verificare:
- quali dati siano stati utilizzati;
- se quei dati fossero affidabili;
- quale versione del modello sia stata impiegata;
- se il sistema fosse conforme alle regole dichiarate.
La blockchain, invece, è progettata per:
- registrare eventi;
- renderli immutabili;
- renderli attribuibili; e
- consentirne la verifica ex post.
Integrare blockchain e AI significa, in ultima analisi, spostare il baricentro del controllo: dalla fiducia nella promessa del sistema alla possibilità di verificarne il comportamento fermo restando che, molto probabilmente, una ponderata integrazione tra regole a monte e tracciamento dei flussi può essere un primo approccio di controllo e gestione dell’AI.
Input, oracoli e gerarchia della fiducia
Uno degli aspetti meno discussi dell’AI riguarda la natura degli input. Dal punto di vista del modello i dati sono entità statistiche: ciò che conta è la frequenza, non l’affidabilità epistemica della fonte[5]. Questo approccio è efficace dal punto di vista computazionale ma fragile dal punto di vista umano e giuridico.
La blockchain consente di (re)introdurre una distinzione fondamentale: non tutti i dati devono avere lo stesso valore. Attraverso meccanismi analoghi agli oracoli[6] blockchain, sarebbe infatti possibile:
- certificare l’origine di un’informazione;
- collegarla a un soggetto identificabile; e
- renderla immutabile e verificabile.
Un sistema di AI progettato per interagire con dati registrati su blockchain può riconoscere tali input come “qualificati” e attribuire loro un peso maggiore rispetto a informazioni anonime o non verificate.
Questo approccio è perfettamente coerente con l’AI Act, che insiste sulla qualità, rappresentatività e appropriatezza dei dati (art. 10). La blockchain non garantisce che i dati siano “veri”, ma garantisce che siano attribuibili e verificabili. Ed è già un enorme passo avanti. Per fare un esempio pratico è non solo ragionevole ma ovvio che l’AI dovrebbe dare un peso specifico ben maggiore alle notizie delle testate giornalistiche che aderiscono, ad esempio, al Trust Project[7], piuttosto che all’ipotetico blog news di perfetti sconosciuti.
Dataset, addestramento e responsabilità epistemica
Se l’output è il volto visibile dell’AI, il dataset è la sua memoria profonda. Eppure, nella maggior parte dei casi, i dataset restano opachi: non si sa da dove provengano, come siano stati modificati, chi ne sia responsabile. L’AI Act tenta di colmare questo vuoto imponendo obblighi di documentazione e governance dei dati. Ma anche qui il problema è l’effettività.
La blockchain consente di trattare dataset, modelli e versioni come oggetti tracciabili nel tempo. Ogni modifica può essere registrata, marcata temporalmente e collegata a un responsabile. In questo modo il dato cessa di essere un’entità anonima e diventa un bene responsabile. Un sistema di AI che utilizza dati certificati su blockchain può:
- rendere trasparente la propria base informativa;
- facilitare audit indipendenti; e
- dimostrare conformità regolatoria in modo oggettivo.
Si introduce così una forma di responsabilità epistemica oggi largamente assente nei sistemi di AI.
Smart contract e regole che si auto-eseguono
Un altro punto critico del governo dell’AI riguarda le regole. Nel modello tradizionale le regole sono esterne al sistema: policy interne, codici etici, linee guida. La blockchain introduce un paradigma radicalmente diverso: le regole possono essere incorporate nel funzionamento tecnico tramite smart contract[8].
Applicati all’AI, gli smart contract possono definire:
- chi può accedere a determinati dati;
- per quali finalità;
- per quanto tempo; e
- entro quali soglie quantitative.
L’AI non è più semplicemente “obbligata” a rispettare una regola. È tecnicamente impedita dal violarla. Questo modello realizza in modo concreto l’idea di compliance by design richiamata più volte dall’AI Act ma difficilmente attuabile senza un’infrastruttura tecnica adeguata.
Tracciabilità, audit e accountability
Uno dei concetti cardine dell’AI Act è la tracciabilità. Ma tracciabilità non significa spiegare ogni decisione in tempo reale né rendere ogni modello completamente trasparente. Significa, più realisticamente, rendere possibile la ricostruzione ex post di ciò che è accaduto. La blockchain può funzionare come registro immutabile delle decisioni rilevanti dell’AI:
- input significativi;
- modello utilizzato;
- output prodotto; e
- contesto temporale.
In caso di errore, abuso o danno, diventa possibile:
- ricostruire il processo decisionale;
- individuare responsabilità; e
- valutare la conformità alle regole.
L’accountability non nasce dalla trasparenza totale, che non è sempre possibile e raramente in real time, ma dalla possibilità di verifica. Ed è esattamente ciò che la blockchain rende possibile.
Facciamo un esempio pratico. Si pensi a un sistema di AI utilizzato da una banca per valutare l’affidabilità creditizia di una PMI. L’AI rifiuta una richiesta di finanziamento ma la decisione non è spiegata in tempo reale. Grazie alla blockchain, però, restano registrati: i dati utilizzati (bilanci, rating, fonti esterne), la versione del modello impiegato e l’orario della decisione. Se l’impresa contesta l’esito o l’autorità di vigilanza avvia un controllo, è possibile ricostruire ex post l’intero processo decisionale. Non per “discutere con l’algoritmo”, ma per verificare se il sistema abbia operato correttamente, con dati leciti e secondo le regole dichiarate.
Privacy, identità e limiti tecnici
Il tema della privacy rappresenta forse il banco di prova più delicato. L’AI Act, in continuità con il GDPR[9], pone grande enfasi sulla tutela dei diritti fondamentali. Ma senza limiti tecnici tali diritti rischiano di restare astratti. La blockchain consente di integrare:
- identità decentralizzate;
- credenziali verificabili; e
- registri di consenso e revoca.
In questo modo l’accesso dell’AI ai dati può essere tecnicamente condizionato, non solo giuridicamente vietato. L’AI non “dovrebbe” utilizzare certi dati. Semplicemente, non può. Questo passaggio – dal divieto normativo al vincolo tecnico – rappresenta uno dei contributi più rilevanti della blockchain al governo dell’AI.
Anche qui facciamo un esempio pratico. Si immagini un sistema di AI utilizzato in ambito sanitario per analizzare dati clinici a fini di ricerca. Il paziente rilascia il consenso tramite una credenziale verificabile, registrata su blockchain, limitata a uno specifico progetto e a un periodo di tempo definito. Quando il consenso è revocato, la revoca è immediatamente registrata on-chain. Da quel momento l’AI è tecnicamente impedita dall’accedere o (ri)utilizzare quei dati perché i sistemi di accesso verificano automaticamente il registro blockchain. La tutela della privacy non dipende più solo dal rispetto di una norma ma da un vincolo tecnico che l’AI non può aggirare.
La priorità: controllo umano, non ostilità tecnologica
La blockchain non rende l’AI etica per definizione né elimina tutti i rischi. Ma consente di affrontarli con strumenti tecnici coerenti con la complessità del fenomeno.
In un’epoca in cui l’intelligenza artificiale cresce più rapidamente della capacità di comprenderla e governarla, la blockchain può diventare il layer di controllo mancante: non contro l’AIma a tutela dell’uomo che la utilizza. È, in fondo, lo stesso obiettivo che anima l’AI Act europeo: ricondurre l’intelligenza artificiale entro confini verificabili, responsabili e, in ultima analisi, umani.
Note
[1] Ecco un elenco sintetico delle principali AI (assistenti/chatbot) per numero stimato di utilizzatori globali (2025) con dati aggregati alla data di questo articolo, fonte www.avantigrade.com:
- ChatGPT (OpenAI) – ~700–800 milioni utenti attivi mensili (≈10% della popolazione adulta mondiale) con oltre 5 miliardi di visite mensili sui canali web/app;
- Google Gemini (Google) – ~400–450 milioni utenti attivi mensili secondo stime di traffico;
- Microsoft Copilot (Microsoft) – ~30–33 milioni utenti attivi mensili stimati;
- Perplexity AI – ~20–30 milioni utenti attivi mensili stimati;
- Claude (Anthropic) – ~18–20 milioni utenti attivi mensili stimati;
- DeepSeek – ~90–100 milioni utenti attivi mensili stimati (tra le AI più popolari secondo metriche di traffico);
- Grok (xAI) – ~25–30 milioni visite/mensili secondo alcune metriche di utilizzo;
- Meta AI (Meta Platforms) – stime aggregate indicano ~1 miliardo utenti attivi mensili in categorie generiche di AI applicazioni (incluse funzionalità integrate);
- Canva AI – ~220 milioni utenti attivi mensili stimati (AI integrata in strumenti di design); e
- Google AI Mode / Google AI integrata – ~100 milioni utenti attivi mensili stimati.
[2] Un CRM aziendale (Customer Relationship Management) è un sistema informatico che consente all’impresa di gestire, organizzare e analizzare in modo strutturato le relazioni con clienti e potenziali clienti.
Centralizza dati, interazioni e processi commerciali (vendite, marketing, assistenza), permettendo di migliorare la qualità del rapporto con il cliente e l’efficacia delle decisioni aziendali.
[3] Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024 che stabilisce norme armonizzate sull’intelligenza artificiale (AI Act), pubblicato nella Gazzetta Ufficiale dell’Unione Europea L 1689 il 12 luglio 2024, in vigore dal 1° agosto 2024. Questa legge costituisce il primo quadro normativo completo a livello mondiale per la regolamentazione dei sistemi di intelligenza artificiale.
[4] In questo contesto, per “governance algoritmica dell’AI” intendiamo l’idea che le decisioni, i comportamenti e le regole operative di sistemi intelligenti siano determinate, coordinate o influenzate da algoritmi stessi, potenzialmente sostituendo o riducendo il ruolo del controllo umano e delle istituzioni tradizionali. In altri termini, anziché governance dell’AI (cioè regole esterne che guidano l’uso dell’AI), la governance algoritmica è un modello in cui gli algoritmi diventano essi stessi agenti di governo e regolazione dei processi sociali o decisionali. Questo concetto emerge nella letteratura interdisciplinare (sociologia digitale, policy, diritto e studi tecnologici). Alcune tra le fonti più autorevoli che hanno discusso e analizzato la governance algoritmica sono:
- Katzenbach et al. (2019), Algorithmic Governance – definisce la governance algoritmica come una nuova forma di “ordinamento sociale” basata su procedure informative complesse e coordinate tra più attori attraverso regole automatiche, distinguendo tra governance by algorithms e governance of algorithms.
- Kango (2025), Algorithmic Governance – concetto approfondito come paradigma che trasforma il modo in cui le decisioni sono prese nei sistemi digitali moderni, evidenziando le implicazioni su trasparenza, accountability e giustizia.
- Studi accademici su “governance by algorithm” sottolineano come l’uso di algoritmi per automatizzare funzioni tipicamente umane (quali l’applicazione di regole, la gestione dei servizi pubblici o l’allocazione di risorse) ridefinisca i modelli tradizionali di controllo e responsabilità.
Confrontare questa nozione con la governance dell’AI (intesa come insieme di processi, standard e controlli per garantire un uso responsabile e conforme dei sistemi AI) consente di chiarire perché nell’articolo precisiamo che non si intende governance algoritmica dell’AI in senso tecnocratico, bensì controllo tecnico dell’AI attraverso infrastrutture che non sostituiscono l’autorità umana o normativa.
[5] Per “affidabilità epistemica della fonte” intendiamo il grado in cui una fonte di informazione è in grado di giustificare razionalmente la credenza che ciò che afferma sia vero o attendibile. In termini semplici ma rigorosi, non riguarda quanto un’informazione è diffusa, ma quanto è fondata. Più precisamente, l’affidabilità epistemica di una fonte dipende da fattori quali:
- identificabilità: la fonte è riconoscibile e non anonima;
- competenza: la fonte ha conoscenze, ruolo o autorità nel dominio di riferimento;
- responsabilità: la fonte può essere chiamata a rispondere di ciò che afferma;
- verificabilità: le informazioni fornite possono essere controllate o corroborate; e
- contesto e metodo: il dato è prodotto secondo procedure note (scientifiche, professionali, istituzionali).
Nel contesto dell’AI, parlare di affidabilità epistemica significa distinguere tra un’informazione statisticamente frequente ma priva di fondamento e un’informazione epistemicamente forte perché proveniente da una fonte tracciabile, competente e verificabile. È proprio questa distinzione che oggi manca nei modelli di AI generalisti e che l’uso della blockchain (certificazione delle fonti, tracciabilità, attribuzione) può contribuire a reintrodurre in modo tecnico.
[6] Un oracolo blockchain è un meccanismo che consente a una blockchain di ricevere, verificare e utilizzare dati provenienti dal mondo esterno mantenendo integrità, tracciabilità e affidabilità dell’informazione. Poiché le blockchain non possono accedere autonomamente a dati off-chain, l’oracolo funge da ponte fiduciario e tecnico tra sistemi esterni e smart contract (Ethereum Foundation, Oracles – Ethereum Documentation / Chainlink, Chainlink Whitepaper: A Decentralized Oracle Network).
[7] Il Trust Project, un consorzio internazionale di testate giornalistiche che sviluppa e applica standard di trasparenza, accountability e indicatori di fiducia per rafforzare la credibilità delle notizie. Tra i membri figurano oltre 120 organizzazioni, tra cui La Stampa, The Economist, The Washington Post, Deutsche Presse-Agentur, Corriere della Sera e Il Sole 24 Ore (https://thetrustproject.org/).
[8] Uno smart contract è un programma informatico eseguito su una blockchain che applica automaticamente regole e condizioni predefinite al verificarsi di determinati eventi. Consente di eseguire accordi senza intermediari, in modo trasparente, verificabile e non modificabile.
[9] Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (General Data Protection Regulation – GDPR), pubblicato nella Gazzetta ufficiale dell’Unione europea L 119 del 4 maggio 2016.
Bibliografia
Audit trail, accountability, “AI logging” (decisioni e output tracciabili)
- Kulothungan et al. (2025) – Using Blockchain Ledgers to Record AI Decisions in IoT (audit trail di inferenze: input, model ID, output).
- Sachan & Liu (2024) – Blockchain-based auditing of legal decisions supported by explainable AI and generative AI tools (audit anti-tampering su decisioni + spiegazioni).
- Comegna (2025) – articolo su integrazione AI–blockchain per supportare compliance/enforcement (anche EU AI Act) via audit trail immutabili.
- Ramos (2024) – Blockchain for Artificial Intelligence (AI) (audit trail e accountability come driver di trust/compliance).
- Regueiro et al. (2021) – A Blockchain-Based Audit Trail Mechanism: Design and Implementation (meccanismo audit trail on-chain, architettura e prototipo).
- Kovács (2025) – The Role of Blockchain-Enabled Audit Trails (blockchain come audit trail verificabile).
- AiAuditTrack (arXiv, 2025) – framework blockchain-based per registrazione traffico/uso AI e governance (auditability/risk traceability).
- “Decentralised Governance-Driven Architecture… Role of Blockchain in Responsible AI” (arXiv, 2023/2024) – governance + audit trail per foundation models/responsible AI.
- ExecMesh (Preprints, 2025) – “verifiable computation” + architettura per evidenze verificabili e audit in workflow AI/ML.
- “Verifiable AI: The Strategic Imperative…” (SSRN, 2026) – focus su audit trail/verificabilità come requisito strategico e regolatorio.
Data provenance, model provenance, “certificazione” di dataset e pipeline
- Lüthi et al. (2020) – Distributed Ledger for Provenance Tracking of Artificial Intelligence Assets (smart contract per tracciamento asset AI lungo value chain).
- Gu et al. (2024) – Enhancing Data Provenance and Model Transparency… (provenance e trasparenza modello; include blockchain come opzione architetturale).
- Wittek et al. (2021) – approccio blockchain per “certificare” pipeline/ricerca (utile per analogia su pipeline ML/AI).
- Filatovas et al. (2024) – Advancing Research Reproducibility in Machine Learning through Blockchain Technology (registrazione metadati/artefatti per audit e riproducibilità).
- Xie et al. (CVPR 2025) – Training Data Provenance Verification… (verifica provenance dei dati; rilevante per “peso maggiore” a dati attestati/verificabili).
- Lohachab & Urovi (Springer CAiSE Workshops, 2024) – Blockchain-Based Approach for Model Card Accountability and Regulatory Compliance.
- Bandara et al. (IEEE CCNC, 2022) – Bassa-ML: Blockchain + Model Cards per FL provenance e trust.
- Jyoti & Chauhan (Wireless Networks, 2022) – Blockchain and smart contract-based data provenance… (collezione/archiviazione provenance con smart contract).
- ProvChain (Liang et al., IEEE/ACM CCGRID 2017) – data provenance in cloud (base teorica/tecnica per audit di pipeline e accessi).
- Zyskind, Nathan, Pentland (IEEE SPW 2015) – Decentralizing Privacy… (log accessi/controllo dati: fondazione per “privacy gates” e tracciamento accessi).
Federated learning, integrità del training, controlli automatici via smart contract
- Shayan et al. (IEEE TPDS 2021) – Biscotti: Private and Secure Federated Learning (coordination on blockchain + privacy/robustness).
- Kuo & Ohno-Machado (2018) – ModelChain (privacy-preserving ML su private blockchain; “proof-of-information”).
- Kuo et al. (2020) – Privacy-preserving model learning on a blockchain… (evoluzione/variante su learning e dissemination).
- Lo et al. (2021, arXiv) – Blockchain-based Trustworthy Federated Learning… (trustworthiness/fairness/accountability via registries e smart contract).
- Zhu et al. (2022) – Secure verifiable aggregation for blockchain-based federated averaging (verificabilità aggregazione: controllo su training).
- Moulahi et al. (2023) – blockchain-based federated learning mechanism… (trusted FL applicativo; utile per pattern architetturale).
- Mehammed et al. (2025, Wiley/IET) – Blockchain-Audited Federated Learning… (audit e policy/endorsement: controllo del processo).
- Javed et al. (2025, MDPI Electronics) – Quorum + FL per audit trail tamper-proof su model sharing.
- Babayomi et al. (2025, Int. J. of Electrical Power & Energy Systems) – review su blockchain+FL (resilienza, cyber threat, governance).
- Liang et al. (2023, ScienceDirect) – architettura governance/FL con riferimenti a provenance e model cards (design pattern).
Oracoli, trusted inputs, “dati prioritari/attestati”
- Town Crier (ACM CCS 2016) – oracolo autenticato (bridge on-chain ↔ siti web): base per “input certificati”.
- Wang et al. (2025, ScienceDirect) – schema di distributed oracle con threshold signature (data verification/robustness).
- Zhang et al. (2025, arXiv) – modello trust-aware e cost-optimized per selezione/gestione oracoli (controllo qualità input).
- Kava (2025) – nota tecnica su “AI-powered oracles” (non accademica, ma utile come mapping di use case e terminologia).
Privacy, identity, consent, “gate” e limiti (controllo accessi/uso dati)
- W3C (2025) – Verifiable Credentials Data Model v2.0 (standard base per attestazioni/identità verificabili collegate a dati/modelli).
- INATBA (2025) – report Integrating AI, Blockchain, and Digital Identity (SSI/VC, trust registry: governance e controlli).
- ACM (2023) – A Privacy-Preserving Blockchain Platform for a Data Marketplace (consent/access control e accountability nei data market).
- Merlec et al. (2024, PMC) – DataMesh+… Self-Sovereign Data Marketplaces (p2p data exchange, smart contract e consent).
- Malik et al. (2021, arXiv) – PrivChain (provenance + privacy con ZK: utile per audit senza esporre dati sensibili).
- Farhan et al. (2025, MDPI) – SSI + content provenance (VC issuance/ruoli verificati; applicabile a “attribuzione” e responsabilità).



















