La gestione dei rischi dell’intelligenza artificiale richiede oggi un cambio di paradigma profondo, e la norma ISO/IEC 42001:2023 rappresenta il primo riferimento globale a fornire una struttura concreta.
Rispetto agli standard già noti come la ISO/IEC 27001, lo standard sull’IA propone un approccio radicalmente diverso, centrato sull’impatto che i sistemi intelligenti possono avere sulle persone e sulla società. Da qui nasce la necessità di distinguere chiaramente natura, finalità e complessità dei due standard.
Indice degli argomenti
La specificità della ISO 42001 rispetto alla sicurezza informatica
Focus sull’intero ciclo di vita dell’IA; gestione dei rischi caratteristici dell’IA; governance e controlli specifici per l’IA: se dovessi pensare a tre elementi di unicità dello standard ISO/IEC 42001:2023, il primo al mondo dedicato ai sistemi di gestione dell’intelligenza artificiale, tradotto in Italia con la UNI CEI ISO/IEC 42001:2024, partirei proprio da qui.
Ho avuto il privilegio di far parte del gruppo di professionisti che ha portato a certificazione ISO 42001 secondo lo schema Accredia, la prima azienda italiana – SMI Technologies and Consulting, l’azienda di cui sono CISO – e se dovessi dare un contributo alle altre organizzazioni che stanno pensando d’intraprendere questo percorso suggerirei di non sottovalutare questi tre elementi.
La ISO 42001 sta generando interesse e curiosità, ma allo stesso tempo sta alimentando fraintendimenti soprattutto tra chi tende a considerarla un’evoluzione naturale o magari un’estensione della ben più nota ISO/IEC 27001:2022 sulla sicurezza delle informazioni.
Tra questi fraintendimenti, la convinzione che ISO 27001 e 42001 siano “simili”, che una certificazione 27001 esistente semplifichi il percorso verso la 42001 e che certificarsi secondo lo standard 42001 sia equivalente in complessità a quello sulla sicurezza delle informazioni.
Questa errata percezione, alimentata dalla presenza della struttura High Level Structure (HLS) e dall’adozione del ciclo Plan-Do-Check-Act (PDCA), rappresenta un fraintendimento che può portare a decisioni strategiche errate e a fallimenti costosi nei progetti di certificazione. Sia chiaro, ISO/IEC 42001 è integrabile con qualsiasi altro standard a partire da ISO 9001:2015 e 27001:2022, ma lo fa con un approccio unico a partire dalle 7 fasi dello sviluppo e implementazione dei sistemi di IA, affrontando i rischi tipici dell’intelligenza artificiale come bias algoritmici, trasparenza delle decisioni automatizzate, equità dei risultati, impatti sociali ed etici, introducendo controlli specifici di governance inclusa la supervisione umana, la documentazione degli algoritmi, la gestione dei dataset di training, il monitoraggio delle performance dei modelli nel tempo e soprattutto la gestione degli impatti su stakeholder e società.
Questi aspetti sono completamente assenti negli altri standard e soprattutto nella ISO 27001 che si concentra giustamente, sulla protezione di riservatezza, integrità e disponibilità delle informazioni, attraverso un approccio sistematico d’identificazione, valutazione e gestione dei rischi di sicurezza informatica il cui fulcro operativo è l’individuazione degli asset informativi e delle minacce che potrebbero comprometterli, la valutazione delle vulnerabilità esistenti e l’adozione di controlli per la mitigazione del rischio.
ISO 42001: il nuovo oggetto della tutela nella governance dell’IA
La ISO 42001 non si concentra sulla difesa degli asset, ma sull’impatto sistemico che l’intelligenza artificiale può produrre e l’oggetto della tutela non è il dato in sé, bensì gli individui, i gruppi d’individui e la società nel suo complesso. L’attenzione si sposta radicalmente dai rischi per l’organizzazione ai possibili rischi creati dall’organizzazione e questo cambio di prospettiva impone una rilettura del concetto stesso di rischio: non più evento dannoso discreto e misurabile, ma insieme complesso di conseguenze potenziali, che possono emergere anche a lungo termine attraverso meccanismi di feedback sociale, discriminazione indiretta o erosione di diritti fondamentali in cui un algoritmo può essere tecnicamente accurato ma socialmente discriminatorio, un sistema può funzionare perfettamente in laboratorio ma produrre bias inaccettabili in contesti reali, un modello può ottimizzare metriche quantitative deteriorando al contempo valori qualitativi fondamentali come equità, dignità o autonomia individuale.
L’introduzione dell’impact assessment nella ISO 42001
Questo approccio si manifesta chiaramente nell’introduzione della valutazione d’impatto dei sistemi di IA previsto dalla Clausola 6.1.4 della ISO 42001, un processo completamente assente nella ISO 27001 e che rappresenta forse l’innovazione più significativa dello standard. Mentre il risk assessment tradizionale si concentra su eventi probabilistici futuri e quantificabili, l’impact assessment valuta conseguenze etiche e sociali che possono emergere gradualmente, in modi imprevedibili e attraverso catene causali complesse. Non si tratta solo di una valutazione tecnica, ma di un esercizio di responsabilità che ha l’obiettivo di analizzare come il sistema di IA possa agire nel mondo reale, quali categorie di persone possa potenzialmente danneggiare, quali valori fondamentali possa mettere a rischio, quali diritti possa compromettere anche involontariamente.
Il ciclo PDCA nella gestione dei sistemi di intelligenza artificiale
Anche il ciclo Plan-Do-Check-Act, presente in tutti gli standard ISO, subisce una trasformazione semantica quando applicato ai due diversi domini.
- Nella ISO 27001, la fase di pianificazione parte dalla mappatura sistematica degli asset informativi e culmina nella definizione di controlli di sicurezza specifici e misurabili dove “pianificare” significa: contenere, ridurre, prevenire minacce identificabili attraverso un approccio ingegneristico in cui si analizzano sistemi esistenti, si identificano debolezze, si progettano contromisure, si implementano soluzioni tecniche.
- Nella ISO/IEC 42001, la pianificazione assume invece connotati quasi sociologici per i quali si deve partire dalla comprensione degli impatti che un algoritmo può avere sulle persone, sulle dinamiche, sulle disuguaglianze sociali esistenti, sulla discriminazione diretta e indiretta, sulla possibile marginalizzazione digitale.
Non si pianifica solo per far funzionare un sistema, ma per far funzionare un sistema in modo che rispetti la dignità umana e promuova il benessere collettivo. È un esercizio che richiede uno sforzo concettuale che va be oltre il contesto tecnico e una sensibilità “etica” delle dinamiche sociali e delle possibili conseguenze di uno o più usi non previsti di un sistema di IA.
Anche la fase “Do” si distingue altrettanto profondamente tra i due standard. Se nella 27001 l’implementazione dei controlli si affida prevalentemente a misure codificate, tecnologie e procedure standardizzate, nella 42001 il “fare” diventa un atto di progettazione responsabile che deve essere reinventato per ogni contesto specifico. Significa sviluppare modelli intrinsecamente trasparenti, definire regole di uso accettabile che bilancino efficienza e equità, significa testare sistematicamente la presenza di bias attraverso metodologie ancora in evoluzione, documentare ogni decisione progettuale con le sue motivazioni etiche, predisporre processi di fallback umano che consentano di mantenere il controllo sulle azioni e sui loro esiti nel tempo. Questa implementazione non può seguire checklist predefinite perché ogni sistema di IA ed ogni suo possibile uso, sono unici nella loro combinazione di dati, algoritmi, contesto di utilizzo e stakeholder impattati e richiedono un processo creativo di trasformazione dei principi generali in soluzioni specifiche per adattare continuamente l’approccio in base ai feedback emersi dall’interazione con il mondo reale.
Audit e governance etica: una nuova sfida per le organizzazioni
Il “Check” della ISO/IEC 27001 si concentra sulla verifica della conformità tecnica attraverso metodologie oggettive, consolidate e tracciabili, ma nella 42001, assume una complessità che non ammette semplificazioni perché non si tratta di verificare se il sistema funzioni come previsto dal punto di vista tecnico, ma se il suo funzionamento possa produrre effetti accettabili secondo criteri che possono evolvere nel tempo e che richiedono indicatori in grado di “catturare” non solo performance tecniche ma anche effetti distributivi, percezioni e impatti a lungo termine su diverse categorie di soggetti a partire dagli individui.
Il falso vantaggio della certificazione ISO 27001 esistente
Il secondo possibile errore, particolarmente insidioso per la sua apparente ragionevolezza, è quello di pensare che un’organizzazione già certificata ISO/IEC 27001 abbia un vantaggio significativo nel perseguire la certificazione ISO/IEC 42001. Credo che la convinzione si basi sull’assunto che la familiarità con i processi di gestione del rischio, la padronanza delle metodologie di documentazione dei sistemi di gestione e l’esperienza con le procedure di audit interno ed esterno forniscano condizioni solide per affrontare i requisiti della governance dell’intelligenza artificiale. Se infatti è vero da un lato che le organizzazioni con esperienza consolidata nella ISO 27001, sviluppano una mentalità e un approccio metodologico che tendono ad applicare naturalmente ai nuovi requisiti, è altrettanto vero che le questioni sottostanti alle due norme siano fondamentalmente diverse tra loro e il rischio di commettere imprudenze è elevato.
Pur non volendo in alcun modo semplificare la gestione della sicurezza delle informazioni, il paradigma su cui si basa, opera in un contesto in cui le vulnerabilità, una volta identificate, possono essere categorizzate secondo tassonomie consolidate come ad esempio il Common Vulnerability Scoring System (CVSS), quantificate attraverso metriche standardizzate e corrette mediante patch, configurazioni o controlli compensativi.
Tra l’altro, gli attacchi informatici, per quanto sofisticati, di regola seguono pattern riconoscibili che possono essere classificati secondo framework come il MITRE ATT&CK e i controlli di sicurezza hanno effetti misurabili e prevedibili.
Paradigmi di ambiguità nell’intelligenza artificiale
L’intelligenza artificiale, di contro, opera invece in un paradigma di ambiguità intrinseca che sfida i fondamenti stessi dell’approccio tradizionale al risk management. Un modello di machine learning può produrre risultati diversi con gli stessi input a causa di variazioni impercettibili nei dati di training, nell’ambiente operativo o persino nell’ordine di processamento dei dati.
Gli effetti di bias algoritmici possono rimanere latenti per mesi o anni prima di manifestarsi attraverso pattern discriminatori che emergono gradualmente dall’interazione tra algoritmo e contesto sociale.
Governance e audit nei sistemi di gestione dell’IA
Un altro aspetto che distingue radicalmente i due standard riguarda la complessità della governance richiesta. Sebbene entrambi gli standard utilizzino la struttura HLS specificamente progettata per facilitare l’integrazione tra sistemi di gestione diversi, questa compatibilità formale non si traduce automaticamente in semplicità implementativa, ma al contrario, può creare una falsa sensazione di controllo e familiarità che porta sistematicamente a sottostimare la complessità reale del progetto ISO 42001. L’architettura comune induce l’illusione che i processi possano essere semplicemente estesi o adattati, quando in realtà richiedono una ricontestualizzazione completa. Pensiamo ad esempio ai processi di audit interno che devono essere ripensati per valutare aspetti etici e sociali che non contemplino solo verifiche “tecniche”, ma che rispondano a domande tipo: Come si audita la “trasparenza” di un algoritmo? Come si verifica che un processo decisionale automatizzato rispetti la “dignità umana”? Questi concetti richiedono framework di valutazione non semplici da individuare.
Complessità multidimensionale della gestione responsabile IA
La terza e più sottile delle false credenze riguarda in fine la presunta equivalenza di complessità tra i due standard. Credo che questa sottovalutazione nasca da una comprensione superficiale di cosa significhi realmente gestire “responsabilmente” un sistema di IA rispetto alla gestione di un sistema “sicuro”.
Pur nella logica di garantire nel tempo adattabilità ai cambiamenti di contesto e miglioramento continuo, credo il possibile fraintendimento sia alimentato dal fatto che entrambi gli standard richiedono competenze tecniche avanzate, processi documentati e sistemi di monitoraggio sofisticati. Tuttavia, questa similarità superficiale nasconde differenze di complessità importanti. A differenza della ISO 27001, la ISO 42001 affronta domini di complessità interconnessi che vanno ben oltre la dimensione puramente tecnica, richiedendo approfondimenti statistici, sociologici, di diritto e cognitivi e ogni sistema di IA deve essere valutato contemporaneamente su molteplici dimensioni che sono spesso in tensione reciproca perché ad esempio, migliorare la trasparenza di un algoritmo può ridurne le sue performance, migliorare l’equità nei confronti di un gruppo d’individui può peggiorarla per un altro, rendere un sistema più spiegabile può renderlo meno accurato.
Trasparenza e spiegabilità come requisiti distintivi
Un ulteriore aspetto di complessità della ISO 42001 riguarda i requisiti di trasparenza e spiegabilità dei sistemi IA, che rappresentano una categoria di sfide completamente nuova nel panorama dei sistemi di gestione. Mentre un sistema di sicurezza delle informazioni può essere validato attraverso test, scansioni di vulnerabilità e audit tecnici che producono risultati oggettivi e verificabili, un sistema AI deve essere anche intrinsecamente comprensibile a tutti coloro che direttamente o indirettamente possano subirne gli effetti delle sue decisioni.
Questo requisito va ben oltre la semplice documentazione tecnica tradizionale. Richiede lo sviluppo di interfacce di comunicazione che aiutino a tradurre il comportamento algoritmico in linguaggio accessibile a stakeholder non tecnici, mantenendo al contempo l’accuratezza scientifica e la completezza informativa. È una sfida che combina competenze tecniche, cognitive e comunicative in modi che sono raramente richiesti in altri domini di compliance. Ad esempio, la spiegabilità non è un attributo binario che un sistema possiede o non possiede, ma un continuum multidimensionale che dipende dal pubblico, dal contesto, dal tipo di decisione e dalle conseguenze coinvolte. Spiegare un algoritmo di raccomandazione per l’intrattenimento richiede approcci completamente diversi da quelli necessari per spiegare un sistema di valutazione di triage medico e ogni implementazione richiede soluzioni personalizzate che devono essere validate empiricamente attraverso test di comprensione anche e con utenti reali.
Orizzonti temporali estesi nella gestione dell’IA
Un’ulteriore differenza fondamentale riguarda gli orizzonti temporali di riferimento. La sicurezza informatica opera tipicamente su cicli relativamente brevi ( ad es: incidenti che devono essere risolti entro un numero definito di ore) mentre la gestione dei sistemi di IA deve poter pensare a periodi decisamente più ampi, in quanto le decisioni prese oggi possono avere conseguenze che si manifestano nell’arco di decenni, influenzando intere generazioni attraverso meccanismi di feedback sociale, polarizzazione culturale, erosione di competenze umane o modifica di aspettative comportamentali ed naturale pensare che questa prospettiva richieda forme di responsabilità estesa che vanno ben oltre la gestione del rischio aziendale tradizionale.
In sintesi, la ISO/IEC 42001 non rappresenta semplicemente un nuovo standard da implementare, ma un cambio di paradigma che richiede una comprensione profonda delle dinamiche che l’IA introduce nei processi decisionali e per le organizzazioni che intendono intraprendere questo percorso, il messaggio deve essere chiaro: investire tempo e risorse nella comprensione delle specificità dello standard è una condizione essenziale per il successo del progetto.












