Le piattaforme di AI Governance stanno diventando un elemento centrale nelle strategie delle imprese che utilizzano l’intelligenza artificiale in produzione. Modelli predittivi, GenAI e agenti autonomi prendono decisioni, accedono a dati sensibili e operano su processi critici: governarne l’uso diventa quindi un tema di controllo del rischio, responsabilità e continuità operativa, che coinvolge IT, legal, compliance e top management.
Indice degli argomenti
Perché la AI Governance è diventata una priorità strategica per le imprese
L’adozione dell’intelligenza artificiale nelle aziende è entrata in una fase di industrializzazione: modelli predittivi, sistemi di machine learning, soluzioni di GenAI e, sempre più spesso, agenti AI operano in produzione, accedono a dati critici e influenzano decisioni operative e di business.
Secondo Gartner (Gartner, Market Guide for AI Governance Platforms), le imprese stanno estendendo le strutture esistenti di governance, risk management e compliance per coprire anche l’AI, ma questi modelli risultano spesso insufficienti quando applicati a sistemi che apprendono, si aggiornano e prendono decisioni in modo continuo. È proprio questa discontinuità rispetto ai sistemi tradizionali a rendere la AI Governance un tema di corporate governance, che coinvolge non solo IT, ma anche funzioni legali, risk, compliance e il board.
La pressione regolatoria contribuisce ad accelerare questa trasformazione. Normative come l’AI Act, insieme a framework internazionali come NIST AI Risk Management Framework e ISO/IEC 42001, richiedono alle organizzazioni di dimostrare in modo strutturato controllo, tracciabilità e responsabilità sull’uso dell’AI.
In questo contesto, la AI Governance diventa una leva strategica per:
- Ridurre il rischio legale e reputazionale
- Abilitare un uso scalabile e sicuro dell’AI
- Fornire evidenze verificabili sull’aderenza a policy e regolamenti
- Allineare l’AI agli obiettivi di business, evitando proliferazione incontrollata di modelli e use case
Dalla sperimentazione all’uso pervasivo: cosa cambia con GenAI e agenti autonomi
Il passaggio dalla sperimentazione all’adozione pervasiva dell’AI è reso ancora più complesso dalla diffusione di Generative AI e sistemi agentici, che introducono nuove superfici di rischio rispetto ai modelli tradizionali. A differenza dei sistemi predittivi “chiusi”, questi strumenti interagiscono con utenti, applicazioni e fonti dati esterne, generando output dinamici e difficilmente prevedibili a priori.
L’analisi di Gartner evidenzia come i processi di assurance basati su audit periodici o controlli point-in-time non siano più adeguati: l’AI opera in modo continuo e richiede monitoraggio costante per intercettare anomalie, comportamenti non conformi o violazioni di policy nel momento in cui si verificano. Questo vale in particolare per gli agenti AI, che possono agire su più sistemi, orchestrare task complessi e prendere decisioni con un elevato grado di autonomia.
Un ulteriore elemento critico è la proliferazione della shadow AI: modelli integrati nei SaaS, strumenti di terze parti, copilot e soluzioni introdotte dalle linee di business senza un coordinamento centrale. Senza una visione unificata, le organizzazioni perdono il controllo su dove l’AI viene utilizzata, con quali dati e con quali livelli di rischio.
È proprio per rispondere a questa complessità che stanno emergendo le piattaforme di AI Governance, progettate per fornire oversight centralizzato, automazione dei processi di governance e integrazione con i sistemi esistenti lungo l’intero ciclo di vita dell’AI .
Cosa si intende oggi per piattaforme di AI Governance
A differenza di strumenti puntuali – come soluzioni di data governance, AI security o GRC tradizionale – le piattaforme di AI Governance hanno l’obiettivo di fornire una visione unificata e trasversale sull’uso dell’AI, fungendo da sistema di controllo centrale per policy, rischi, compliance e responsabilità. Il focus non è solo documentale, ma operativo: queste piattaforme permettono di tradurre principi etici, requisiti normativi e policy aziendali in controlli applicabili e verificabili lungo l’intero ciclo di vita dell’AI.
Un elemento distintivo è la capacità di supportare tutte le forme di AI presenti in azienda: soluzioni sviluppate internamente, modelli di terze parti, AI integrate in applicazioni SaaS. Questo approccio è fondamentale per evitare una governance frammentata, in cui ogni team applica regole e processi diversi, rendendo impossibile una supervisione efficace a livello enterprise.
Governance, risk management e controllo runtime lungo l’intero ciclo di vita dell’AI
Il cuore di una piattaforma di AI Governance è la capacità di allineare governance, gestione del rischio e controllo operativo in un unico framework coerente. Questo significa accompagnare ogni sistema di AI dalla fase di ideazione fino alla dismissione, garantendo che policy, controlli e responsabilità restino coerenti nel tempo.
In pratica, le piattaforme di AI Governance operano su tre livelli principali:
- Governance ex ante, supportando la valutazione e l’approvazione dei casi d’uso AI prima della messa in produzione, attraverso workflow strutturati, classificazione del rischio e allineamento a policy interne e regolamenti.
- Gestione del rischio continua, con la capacità di aggiornare valutazioni e controlli man mano che modelli, dati e contesti cambiano, evitando che decisioni prese in fase di progetto diventino obsolete.
- Controllo ed enforcement a runtime, ovvero l’applicazione dinamica delle policy durante l’operatività dei sistemi AI, per intercettare deviazioni, anomalie, violazioni di policy o rischi emergenti come bias, data leakage o comportamenti non conformi.
Questa impostazione consente di superare l’approccio tradizionale, basato su verifiche periodiche, introducendo una governance “viva”, capace di adattarsi alla natura dinamica dell’AI. Allo stesso tempo, permette di produrre evidenze strutturate e auditabili, indispensabili per dimostrare conformità a regolatori, auditor e stakeholder interni.
Le capacità chiave delle piattaforme di AI Governance
Non tutte le soluzioni che si presentano come piattaforme di AI Governance offrono lo stesso livello di copertura. Una piattaforma realmente efficace si distingue per la capacità di orchestrare processi, controlli e informazioni lungo l’intero ciclo di vita dell’AI, superando l’approccio a silos tipico delle soluzioni tradizionali.
Questo significa non limitarsi a documentare policy o a mappare modelli, ma abilitare l’esecuzione concreta della governance, rendendola misurabile, verificabile e ripetibile.
Le capacità considerate fondamentali includono:
- Visibilità completa sull’uso dell’AI, indipendentemente da dove i modelli siano sviluppati o distribuiti.
- Standardizzazione dei processi di valutazione e approvazione, per ridurre ambiguità e dipendenza da iniziative isolate.
- Automazione dei controlli, per gestire la scala e la velocità con cui l’AI evolve.
- Integrazione con lo stack tecnologico esistente, evitando duplicazioni e governance parallele.
In assenza di queste caratteristiche, il rischio è quello di adottare soluzioni che coprono solo singoli aspetti – come la documentazione o il monitoraggio tecnico – senza offrire una governance end-to-end realmente sostenibile nel tempo.
Inventario AI, gestione del rischio, enforcement delle policy e auditabilità
Una piattaforma di AI Governance si fonda su un insieme di capacità operative strettamente interconnesse, che permettono di passare dalla teoria alla pratica.
Il primo elemento è un inventario centralizzato dell’AI, che funge da sistema di record per tutti i modelli, applicazioni, agenti e servizi AI utilizzati in azienda. Questo inventario non si limita a elencare gli asset, ma ne raccoglie metadati chiave come finalità, dati utilizzati, algoritmi, ownership, stato di sviluppo e contesto di utilizzo.
A questo si affianca la gestione del rischio specifica per l’AI, che consente di classificare casi d’uso e modelli in base a criteri di rischio legati a bias, robustezza, sicurezza, privacy e impatto sul business. Le piattaforme più evolute integrano framework e regolamenti preconfigurati, consentendo di adattare le valutazioni alle policy aziendali e ai requisiti normativi applicabili.
Un elemento distintivo rispetto agli strumenti tradizionali è l’enforcement automatizzato delle policy, inclusa la possibilità di applicare controlli a runtime. Questo significa tradurre policy e requisiti di compliance in guardrail operativi, capaci di intervenire durante l’esecuzione dei sistemi AI, ad esempio bloccando usi non conformi, segnalando anomalie o suggerendo azioni correttive.
Infine, l’auditabilità rappresenta un fattore critico di adozione. Le piattaforme di AI Governance devono essere in grado di produrre evidenze strutturate, tracciando decisioni, approvazioni, controlli e interventi lungo tutto il ciclo di vita dell’AI.
AI Governance e regolamentazione: dal EU AI Act agli standard internazionali
L’aumento della complessità regolatoria è uno dei principali driver di investimento nelle piattaforme di AI Governance. La frammentazione delle normative – con requisiti diversi per settore, area geografica e tipologia di utilizzo dell’AI – rende impraticabile un approccio basato su processi manuali o su strumenti non integrati. Le piattaforme diventano quindi un abilitatore operativo della compliance, non un semplice supporto documentale.
Un aspetto chiave è che molte normative sull’AI non si limitano a richiedere controlli ex ante, ma introducono il concetto di responsabilità continua. Le organizzazioni devono essere in grado di dimostrare che i sistemi AI restano conformi anche dopo la messa in produzione, nonostante aggiornamenti, cambiamenti nei dati o nuove modalità d’uso.
Come le piattaforme supportano compliance, evidenze e reporting continuo
Le piattaforme di AI Governance rispondono a queste esigenze traducendo requisiti normativi e standard in processi strutturati e verificabili. In particolare, supportano la compliance su tre dimensioni fondamentali.
La prima è la mappatura dei requisiti normativi. Le piattaforme più mature integrano librerie di policy, framework e standard – come AI Act, NIST AI RMF e ISO/IEC 42001 – che possono essere adattate al contesto aziendale. Questo consente di collegare ogni sistema AI a un set chiaro di obblighi, controlli e responsabilità, riducendo il rischio di interpretazioni incoerenti tra team diversi.
La seconda dimensione è la raccolta sistematica delle evidenze. Valutazioni del rischio, test di bias, controlli di sicurezza, approvazioni e remediation vengono tracciati in modo strutturato, creando un audit trail continuo. Questo approccio consente di rispondere in modo più rapido ed efficace a richieste di auditor, regolatori o stakeholder interni, evitando attività manuali a posteriori e riducendo il rischio di lacune informative.
La terza dimensione riguarda il reporting continuo e contestualizzato. Le piattaforme di AI Governance permettono di generare report standardizzati e dashboard che offrono una visione aggiornata dello stato di conformità, dei rischi residui e delle azioni intraprese. Questo è particolarmente rilevante per i livelli direzionali e per il board, che necessitano di una sintesi chiara e affidabile sull’esposizione al rischio AI dell’organizzazione.
In questo modo, la compliance non viene più percepita come un freno all’innovazione, ma come un fattore abilitante, che consente di scalare l’adozione dell’AI in modo controllato e sostenibile.
Piattaforme di AI Governance: le 5 soluzioni da considerare
Il mercato delle piattaforme di AI Governance è in una fase di forte espansione e, allo stesso tempo, di notevole frammentazione. Accanto a player nativi focalizzati esclusivamente sulla governance dell’AI, operano vendor più strutturati che estendono funzionalità di sicurezza, data governance o GRC tradizionale per coprire anche i requisiti legati all’intelligenza artificiale.
Secondo la già citata Market Guide di Gartner, molte soluzioni presenti sul mercato tendono a sovrastimare la propria copertura funzionale, dichiarando un supporto end-to-end alla AI Governance pur concentrandosi, nella pratica, solo su alcune fasi del ciclo di vita dell’AI. Per questo motivo, la selezione di una piattaforma richiede un’analisi attenta non solo delle funzionalità dichiarate, ma anche della maturità del prodotto, della capacità di integrazione con l’ecosistema enterprise e dell’esperienza reale degli utenti.
La selezione che segue si basa su:
- Il posizionamento dei vendor all’interno della Gartner Market Guide
- La coerenza delle soluzioni con i requisiti di AI Governance enterprise (inventario, rischio, compliance, enforcement)
- Le opinioni verificate degli utenti raccolte su G2, utili per comprendere punti di forza e limiti operativi nell’adozione reale
L’obiettivo finale non è individuare una “soluzione migliore in assoluto”, ma evidenziare cinque piattaforme rappresentative di approcci diversi alla AI Governance, ciascuna con specifici punti di forza in relazione a contesto organizzativo, maturità dell’AI e priorità di governance.
IBM watsonx.governance
IBM watsonx.governance è la piattaforma di AI Governance enterprise di IBM, progettata per supportare il controllo dei rischi lungo l’intero ciclo di vita dell’AI, includendo modelli tradizionali, sistemi di Generative AI e agenti autonomi.
La soluzione si inserisce nell’ecosistema watsonx e punta a offrire una governance strutturata, integrata con processi di compliance, risk management e sicurezza, in contesti complessi e altamente regolamentati.
Secondo Gartner, IBM si distingue per un approccio maturo alla governance, che combina documentazione, tracciabilità e monitoraggio continuo, con una forte attenzione all’allineamento agli standard internazionali e alle normative emergenti.
Funzionalità principali
La piattaforma fornisce un inventario centralizzato dei modelli e dei casi d’uso AI, automatizzando la raccolta di metadati e la documentazione necessaria per audit e compliance. Supporta valutazioni del rischio, controlli su bias ed explainability, oltre a dashboard dinamiche per il monitoraggio dello stato di conformità.
IBM watsonx.governance integra inoltre funzionalità di AgentOps, estendendo la governance anche a sistemi agentici e a soluzioni GenAI, e può essere affiancata da componenti di sicurezza come Guardium AI Security per coprire aspetti di data protection e runtime risk.
Opinioni degli utenti
Dalle recensioni raccolte su G2 emerge un giudizio complessivamente positivo sull’approccio completo e strutturato alla governance dell’AI. Gli utenti apprezzano in particolare la capacità della piattaforma di automatizzare la discovery e la classificazione dei dati, semplificando la gestione dei requisiti di compliance e rendendo più accessibili processi complessi.
Allo stesso tempo, viene evidenziato come la soluzione presenti un costo elevato e una curva di apprendimento significativa, soprattutto per organizzazioni meno familiari con l’ecosistema IBM o con iniziative di AI Governance già mature. Le integrazioni e la configurazione iniziale possono risultare impegnative, rendendo la piattaforma più adatta a contesti enterprise strutturati piuttosto che a realtà di piccole dimensioni.
Principali punti di forza
- Approccio enterprise-grade alla AI Governance, pensato per organizzazioni complesse
- Copertura estesa del ciclo di vita dell’AI, inclusi GenAI e agenti autonomi
- Allineamento nativo a framework e normative come EU AI Act e standard internazionali
- Automazione della documentazione e delle evidenze per audit e compliance
- Integrazione con l’ecosistema IBM per sicurezza, data governance e risk management
Securiti AI Security & Governance
Securiti AI Security & Governance è una piattaforma che combina AI Governance, data security e privacy automation, con un forte orientamento alla protezione dei dati e alla conformità normativa. La soluzione nasce per offrire visibilità e controllo centralizzato sull’uso dell’AI in ambienti eterogenei — cloud pubblici e privati, SaaS e applicazioni enterprise — affrontando in modo integrato rischi legati a dati, modelli e flussi informativi.
Securiti viene citata come uno dei player in grado di coprire governance e sicurezza dell’AI in modo olistico, con particolare attenzione alla gestione dei dati sensibili e ai controlli a runtime.
Funzionalità principali
La piattaforma consente la scoperta e classificazione dei modelli AI, la mappatura dei flussi di dati utilizzati e la valutazione dei rischi associati a privacy, sicurezza e compliance. Securiti integra guardrail a runtime, controlli di accesso ai dati, data sanitization e meccanismi di prevenzione contro utilizzi non conformi o attacchi avversari.
Un elemento distintivo è il supporto nativo a numerosi framework normativi e regolamenti internazionali, che consente di automatizzare test, controlli e produzione delle evidenze richieste, riducendo il carico operativo per i team di compliance e legal.
Opinioni degli utenti
Le recensioni su G2 evidenziano un apprezzamento diffuso per la completezza della piattaforma e per la qualità del supporto clienti, spesso descritto come proattivo e collaborativo. Gli utenti sottolineano il valore della soluzione in contesti complessi, dove integrazione e scalabilità sono fattori critici.
Allo stesso tempo, emerge una complessità significativa nell’adozione: diversi utenti segnalano una curva di apprendimento ripida e un processo di implementazione impegnativo, che richiede tempo e competenze specialistiche, soprattutto nelle organizzazioni globali con sistemi già consolidati.
Principali punti di forza
- Approccio integrato tra AI Governance, sicurezza e privacy
- Forte copertura dei requisiti normativi globali, inclusi EU AI Act e regolamenti privacy
- Controlli e guardrail a runtime per prevenire violazioni e usi non conformi
- Elevata scalabilità e capacità di integrazione in ambienti enterprise complessi
- Supporto clienti apprezzato in contesti di adozione avanzata
ModelOp Center
ModelOp Center è una piattaforma focalizzata sulla governance e gestione del ciclo di vita dei modelli AI, progettata per supportare organizzazioni che operano con un mix di machine learning tradizionale, Generative AI, agentic AI e soluzioni di terze parti. L’obiettivo della piattaforma è fornire un sistema di controllo centralizzato che permetta di governare modelli e casi d’uso AI in modo coerente, riducendo il rischio operativo e facilitando la conformità normativa.
Nel contesto delineato da Gartner, ModelOp viene posizionata come una soluzione orientata alla operationalizzazione della AI Governance, con una forte enfasi sull’integrazione nei processi esistenti di data science, IT e risk management.
Funzionalità principali
La piattaforma mette a disposizione un inventario centralizzato dei modelli e dei casi d’uso AI, che funge da sistema di record auditabile per l’organizzazione. Supporta la classificazione del rischio, il tracciamento delle versioni dei modelli e la gestione delle approvazioni attraverso workflow configurabili.
ModelOp Center si distingue per l’elevato numero di connettori out-of-the-box, che facilitano l’integrazione con ambienti di sviluppo, infrastrutture cloud, data platform e strumenti enterprise già presenti. Le funzionalità di reporting e monitoraggio consentono di effettuare revisioni periodiche, valutazioni del rischio e controlli di conformità in modo strutturato.
Opinioni degli utenti
Dalle recensioni su G2 emerge un apprezzamento per la facilità d’uso della piattaforma e per il suo impatto positivo sulla produttività, in particolare nella gestione dei processi di approvazione e nel coordinamento tra team tecnici e di governance. Gli utenti sottolineano anche la reattività del supporto clienti, spesso citato come un elemento distintivo.
Tra i limiti segnalati compaiono una curva di apprendimento iniziale significativa, dovuta alla ricchezza funzionale della piattaforma, e alcune criticità di performance o di user experience, soprattutto per utenti meno esperti o in fase di onboarding.
Principali punti di forza
- Forte orientamento al ciclo di vita dei modelli AI, inclusi GenAI e agentic AI
- Inventario centralizzato e auditabile come base della governance
- Ampia disponibilità di integrazioni con tool e piattaforme enterprise
- Workflow strutturati per approvazioni, revisioni e controlli di rischio
- Supporto clienti considerato efficace dagli utenti
Airia AI Security and Governance
Airia AI Security and Governance è una piattaforma orientata alla governance operativa di modelli, agenti e applicazioni AI, con un posizionamento che combina policy-based governance e controlli di sicurezza a runtime. La soluzione nasce per rispondere alle esigenze di organizzazioni che stanno adottando rapidamente GenAI e AI agent, e che necessitano di un controllo centralizzato senza introdurre eccessiva complessità architetturale.
Airia viene citata come vendor focalizzato sull’oversight degli agenti AI, distinguendosi per l’integrazione tra governance, sicurezza e meccanismi di human-in-the-loop.
Funzionalità principali
La piattaforma fornisce strumenti per la registrazione e supervisione di modelli e agenti AI, con workflow configurabili per la revisione dei casi d’uso e dashboard dedicate al monitoraggio di performance e compliance. Un elemento caratterizzante è l’Agent Constraints engine, che consente di applicare policy e guardrail operativi direttamente sul comportamento degli agenti.
Airia integra inoltre funzionalità di runtime monitoring, auditing dettagliato, controlli di accesso contestuali e protezioni contro prompt injection e utilizzi non autorizzati. L’architettura è pensata per facilitare l’integrazione con ambienti enterprise e per supportare un approccio incrementale alla AI Governance.
Opinioni degli utenti
Le recensioni G2 evidenziano una forte soddisfazione per la facilità di utilizzo e per la rapidità di implementazione, aspetti particolarmente apprezzati da team che vogliono portare rapidamente la governance nei processi AI esistenti. Gli utenti sottolineano anche la qualità del supporto clienti, spesso descritto come reattivo e orientato alla risoluzione dei problemi.
Tra i limiti segnalati emergono alcune restrizioni nelle integrazioni disponibili e funzionalità di role-based access control meno mature rispetto a piattaforme più consolidate, elementi che possono pesare in contesti molto strutturati .
Principali punti di forza
- Focus specifico su GenAI e AI agent, con controlli dedicati
- Approccio policy-based con enforcement a runtime
- Implementazione rapida e user experience accessibile
- Meccanismi di human-in-the-loop per la governance operativa
- Supporto clienti percepito come efficace dagli utenti
Cortex Cloud / Prisma Cloud – AI governance capabilities
Cortex Cloud (parte della piattaforma Prisma Cloud di Palo Alto Networks) non nasce come una piattaforma di AI Governance “pura”, ma estende le proprie capacità di cloud security, compliance e risk management per includere anche aspetti rilevanti di governance dell’AI, soprattutto in ambienti cloud-native. L’approccio è fortemente orientato alla sicurezza operativa, con l’obiettivo di garantire visibilità e controllo su workload, dati e servizi AI distribuiti su infrastrutture complesse.
Soluzioni di questo tipo rappresentano un esempio di estensione di piattaforme di sicurezza esistenti verso la AI Governance, particolarmente appetibili per organizzazioni che hanno già adottato Prisma Cloud come pilastro della propria strategia di cloud security.
Funzionalità principali
Le funzionalità di AI governance di Cortex Cloud si innestano su un set consolidato di capacità di monitoraggio, policy enforcement e compliance in ambienti multi-cloud. La piattaforma offre visibilità centralizzata su configurazioni, utilizzo e rischi, supportando controlli di sicurezza, gestione delle policy e integrazione con framework di compliance.
In ambito AI, il valore principale risiede nella capacità di intercettare rischi operativi e di sicurezza legati all’uso di modelli e servizi AI in cloud, più che nella gestione completa del ciclo di vita o nella documentazione di governance in senso stretto. Questo rende Cortex Cloud particolarmente adatto a contesti in cui la AI Governance è vista come un’estensione della cloud security.
Opinioni degli utenti
Le recensioni su G2 evidenziano un forte apprezzamento per la completezza delle funzionalità di sicurezza, la visibilità sui workload cloud e la capacità di semplificare il monitoraggio e il reporting in ambienti complessi. Gli utenti riconoscono a Cortex Cloud una solida integrazione con l’ecosistema cloud e un buon livello di automazione.
D’altra parte, vengono spesso segnalati costi elevati, una user experience complessa e una curva di apprendimento ripida, soprattutto per team meno esperti. Alcuni utenti evidenziano inoltre che l’approccio security-first può risultare meno immediato per esigenze di governance AI più ampie, come workflow di approvazione o gestione strutturata delle evidenze.
Principali punti di forza
- Integrazione nativa con la cloud security e ambienti multi-cloud
- Elevata visibilità operativa e capacità di enforcement delle policy
- Approccio solido alla gestione dei rischi e della compliance
- Scalabilità enterprise per infrastrutture complesse
- Adatta a organizzazioni già utenti di Prisma Cloud
AI Governance: da obbligo normativo a leva di controllo e crescita
In definitiva, emerge con chiarezza che non esiste una soluzione universale. Le piattaforme analizzate mostrano approcci diversi: alcune privilegiano la compliance e la documentazione, altre l’integrazione con la sicurezza e la data governance, altre ancora l’operational governance di modelli e agenti. La scelta dipende dalla maturità dell’organizzazione, dal livello di esposizione regolatoria e dal ruolo che l’AI ha — o avrà — nei processi core di business.
Un elemento trasversale, tuttavia, accomuna tutte le esperienze più avanzate: la necessità di superare una governance frammentata, costruita su strumenti eterogenei e processi manuali. Senza una piattaforma in grado di unificare informazioni, responsabilità e controlli, il rischio è quello di rallentare l’innovazione o, al contrario, di esporre l’organizzazione a rischi difficilmente gestibili a posteriori.
In questa prospettiva, investire oggi in una piattaforma di AI Governance significa preparare l’organizzazione a un futuro in cui l’AI sarà sempre più pervasiva, regolamentata e strategica. Non solo per rispettare le regole, ma per governare consapevolmente valore, rischio e fiducia nell’uso dell’intelligenza artificiale.












