il quadro operativo

UNI 11621-8, l’Italia mappa i profili professionali dell’AI: cosa cambia per PA e imprese



Indirizzo copiato

La norma UNI 11621-8:2026 definisce dodici profili professionali AI, dal Chief AI Officer all’AI Research Scientist. Prima in Europa, collega AI Act, certificazioni e formazione, offrendo a imprese e PA un quadro operativo concreto per gestire competenze e conformità nei sistemi di intelligenza artificiale

Pubblicato il 8 mag 2026

Silvia Stefanelli

Studio Legale Stefanelli & Stefanelli



UNI 11621-8
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

I profili professionali che operano nei sistemi AI sono stati a lungo una zona grigia: titoli inventati, competenze non misurabili, organigrammi costruiti per convenienza. La norma UNI 11621-8:2026 cambia questo scenario, offrendo per la prima volta in Europa un quadro sistematico e certificabile delle dodici figure che operano nei sistemi di intelligenza artificiale.

Per imprese e PA che devono rispondere agli obblighi dell’AI Act, non si tratta di uno standard tra i tanti: è lo strumento che trasforma un obbligo astratto in un adempimento dimostrabile.

L’Italia prima in Europa: UNI pubblica lo standard sui profili professionali AI

Il 30 aprile 2026 UNI ha pubblicato la norma UNI 11621-8:2026, dedicata ai profili di ruolo professionale relativi all’intelligenza artificiale.

Si tratta – secondo quanto dichiarato congiuntamente da UNI e dal Dipartimento per la trasformazione digitale della Presidenza del Consiglio dei ministri – del primo standard nazionale in Europa che mappa in modo sistematico le figure professionali che operano nei sistemi di AI. Dodici profili, dal Chief AI Officer all’AI Research Scientist, descritti ciascuno per missione, compiti, conoscenze, abilità, autonomia, responsabilità e indicatori chiave di prestazione (KPI).

La pubblicazione arriva nel pieno del calendario applicativo del Regolamento (UE) 2024/1689 (AI Act), che impone — tra molti altri obblighi — la presenza di personale dotato di competenze adeguate allo sviluppo e la gestione dei sistemi di AI. La nuova norma tecnica si lega anche alla L. 23 settembre 2025, n. 132 (Disposizioni e deleghe al Governo in materia di intelligenza artificiale), che promuove alfabetizzazione, formazione e certificazione delle competenze AI.

La rilevanza non è solo normativa: si ritiene infatti che la UNI 11621-8 ponga uno dei tasselli pratici più richiesti dal mercato del lavoro AI, dove fino a ieri il “AI Specialist” poteva essere — letteralmente — qualunque cosa.


Cos’è (e cosa non è) una norma UNI sui profili professionali

Conviene partire dal piano gerarchico. Una norma UNI non è una legge: è uno standard tecnico volontario, elaborato in seno all’ente nazionale di normazione (UNI) attraverso commissioni tecniche partecipate da imprese, organizzazioni di rappresentanza, ordini professionali, università, organismi di valutazione della conformità.

Più precisamente, la UNI 11621-8 si inserisce nell’alveo della L. 14 gennaio 2013, n. 4, che disciplina le professioni non organizzate — ossia quelle non riservate a un albo, ma di rilevante peso economico e sociale. L’art. 6, comma 3, della L. 4/2013 stabilisce che le norme tecniche UNI «costituiscono i principi e criteri generali per la disciplina dell’esercizio autoregolamentato della singola attività professionale e ne assicurano la qualificazione». In sostanza: la norma non vincola, ma offre un quadro di riferimento riconosciuto dall’ordinamento.

A cosa serve, allora? A diverse cose.

In primo luogo, fornisce un linguaggio tecnico condiviso. Quando la UNI 11621-8 descrive il Chief AI Officer indicando missione, compiti principali, risultati attesi, conoscenze e abilità, sta facendo un’operazione di standardizzazione concettuale: chi cerca un Chief AI Officer e chi si propone come Chief AI Officer parlano (se entrambi adottano lo standard) la stessa lingua. Vale per i contratti di lavoro, per le job description, per le clausole dei capitolati di gara.

In secondo luogo, abilita la certificazione delle competenze. Ai sensi della L. 4/2013 e del D.Lgs. 16 gennaio 2013, n. 13, gli organismi accreditati da Accredia possono certificare il singolo professionista come conforme a uno dei profili UNI: lo schema utilizzato è quello della UNI CEI EN ISO/IEC 17024:2012 sulla certificazione delle persone. Nascono così le credenziali spendibili — anche, e soprattutto, per le gare pubbliche.

In terzo luogo, costituisce un parametro per la formazione. Università, ITS Academy ed enti di formazione possono allineare i propri percorsi ai descrittori (conoscenze, abilità, autonomia e responsabilità) di ciascun profilo, in coerenza con il Quadro Nazionale delle Qualificazioni (QNQ) e con il Quadro Europeo delle Qualifiche (EQF).

Infine — ed è il punto che interessa di più chi si occupa di compliance AI — le norme tecniche sono lo strumento privilegiato attraverso cui la legislazione europea pretende che gli obblighi astratti (avere «personale competente») si traducano in adempimenti misurabili. Non c’è strumento tecnico-giuridico più adatto a colmare la zona grigia tra l’art. 4 AI Act sull’AI literacy e ciò che effettivamente serve dimostrare al regolatore o al cliente.


Il primato italiano: vantaggi e rischi

L’Italia è – al momento della pubblicazione di questo contributo – il primo Paese in Europa ad aver adottato uno standard nazionale che mappa in modo sistematico i profili professionali dell’AI. Il dato è stato ribadito anche dal Sottosegretario alla Presidenza del Consiglio con delega all’innovazione tecnologica e alla transizione digitale, Alessio Butti, in occasione della pubblicazione.

Cosa significa, concretamente, essere i primi? Più di un commentatore, sui giorni successivi alla pubblicazione, ha sottolineato il valore politico e culturale dell’operazione.

A bene vedere, a che scrive pare che i vantaggi pratici siano almeno quattro.

Il primo è l’effetto di ancoraggio sul lavoro normativo europeo. Quando — verosimilmente nei prossimi mesi — il CEN/CENELEC affronterà la stessa materia per produrre uno standard armonizzato a livello UE, ovvero quando ISO/IEC svilupperà ulteriormente il proprio corpus su AI management (UNI CEI ISO/IEC 42001:2024 in primis), la norma italiana costituirà inevitabilmente un riferimento di ingresso. Di solito chi scrive per primo, ne ha un vantaggio.

Il secondo è la spendibilità immediata per le imprese italiane in sede di gara, di vendor due diligence e di documentazione di conformità all’AI Act. Avere un Chief AI Officer certificato UNI 11621-8 è — diciamocelo — un argomento più solido di un generico organigramma che riporta lo stesso titolo.

Il terzo è il posizionamento del sistema formativo italiano. Università e ITS che si attrezzano subito con percorsi allineati ai dodici profili anticipano una domanda che, da qui a dodici-diciotto mesi, sarà strutturale.

Il quarto — più sottile ma decisivo — è l’orientamento del mercato del lavoro AI italiano. Il documento mette ordine in un settore dove fino a ieri proliferavano titoli inventati, competenze non verificabili e job description costruite di pancia. A parere di chi scrive, già solo questo giustifica la norma.

Per onestà va poi detto che una norma tecnica sui profili professionali non rende automaticamente più maturo il mercato. Il rischio — segnalato da più di un commentatore — è che la pubblicazione si trasformi in un adempimento formale, con organigrammi rinominati e poco altro.

Ovviamente poi la norma è volontaria. Non sostituisce gli obblighi dell’AI Act né la disciplina nazionale della L. 132/2025. Tuttavia, il combinato disposto di queste fonti rende l’adesione allo standard — di fatto — fortemente raccomandata per chiunque tratti sistemi di AI ad alto rischio o operi nel settore pubblico.


I dodici profili: una mappa ragionata

La UNI 11621-8 descrive dodici profili di ruolo professionale, ciascuno articolato secondo la metodologia consolidata della UNI 11621-1:2021 e allineato all’e-Competence Framework europeo (UNI EN 16234-1:2020).

Vediamoli rapidamente, con un’ottica funzionale che aiuta a visualizzarne il posizionamento nel ciclo di vita di un sistema AI.

Funzioni di indirizzo, governance e prodotto

Il Chief AI Officer (CAIO) presidia la strategia AI, la governance interna, la gestione del rischio, la conformità all’AI Act e alla UNI CEI ISO/IEC 42001:2024. È il punto di accountability apicale per le decisioni in materia di AI.

L’AI Consultant è la figura consulenziale che accompagna l’organizzazione nell’identificazione dei casi d’uso, nella valutazione di costi/benefici/rischi, nell’allineamento alla legislazione vigente e nel change management. Tipicamente esterno all’organizzazione, ma con interlocuzione apicale.

L’AI Product Manager governa il ciclo di vita di un prodotto AI, traducendo gli obiettivi di business in requisiti, coordinando team multidisciplinari e supervisionando trasparenza, fairness e accountability post-lancio.

Funzioni di progettazione e sviluppo del modello

L’AI Algorithm Engineer progetta, valida e ottimizza algoritmi AI, presidiando robustezza, sicurezza, efficienza computazionale, sostenibilità e tracciabilità. Si lega ai requisiti della serie UNI CEI ISO/IEC 25000 e della UNI CEI ISO/IEC 42001:2024.

L’AI Deep Learning Engineer è specialista delle reti neurali profonde: dalla progettazione di architetture (CNN, RNN, Transformer, GAN) all’integrazione in produzione, con attenzione a explainability e drift.

L’AI Machine Learning Engineer è la figura di ponte tra ricerca e produzione. Industrializza i modelli ML, costruisce pipeline MLOps, automatizza training, validazione, deployment e monitoring.

L’AI Natural Language Processing Engineer progetta soluzioni di NLP e di AI generativa basate su LLM, con attenzione a bias linguistici e culturali, qualità degli output e conformità.

L’AI Prompt Engineer è un profilo emergente, ma già critico. Progetta prompt, template e catene di tool per sistemi di AI generativa, presidia guardrail, valutazione, riduzione di allucinazioni e bias. La norma — correttamente — lo include come ruolo a sé, non come variante di un ruolo di sviluppo.

Funzioni dei dati

L’AI Data Engineer progetta e mantiene le pipeline e le infrastrutture dati che alimentano modelli e inferenza, presidiando qualità, interoperabilità (UNI CEI EN ISO/IEC 8183:2024) e conformità al Reg. (UE) 2016/679 (GDPR).

L’AI Data Scientist raccoglie, pulisce, modella e interpreta i dati, sviluppando modelli predittivi e comunicandone i risultati agli stakeholder con tecniche di data storytelling.

Funzioni trasversali e di ricerca

L’AI Security Specialist presidia la cybersecurity dei sistemi AI: dalle minacce specifiche (evasion, poisoning, model inversion, jailbreak) alla compliance con UNI CEI EN ISO/IEC 27001:2024 e con la Direttiva (UE) 2022/2555 (NIS2). È il profilo che — nei sistemi ad alto rischio — non può mancare.

L’AI Research Scientist è una figura di frontiera, dedicata a ricerca esplorativa e produzione di nuova conoscenza scientifica nei paradigmi emergenti dell’AI (self-supervised learning, neuro-symbolic AI, AI multimodale).

Per ciascun profilo, la norma definisce — oltre al perimetro funzionale — le competenze e-CF assegnate (con i livelli da 3 a 5), le abilità (siglate da S001 a S122), le conoscenze (siglate da K001 a K132) e gli indicatori chiave di prestazione per la misurazione delle prestazioni.

Pare a chi scrive utile sottolineare un punto. La norma esclude esplicitamente — al punto 3.1.1 — il power user, inteso come mero utilizzatore, per quanto esperto, di sistemi AI già esistenti. Lo standard riguarda chi progetta, sviluppa, addestra, integra, valuta o fornisce sistemi AI; non chi si limita a usare ChatGPT con perizia.

È una distinzione che — nelle policy aziendali interne — andrà tenuta a mente: l’altro tema, quello dell’AI literacy ex art. 4 AI Act, riguarda invece l’intera popolazione aziendale e non si esaurisce nei dodici profili.


Caso d’uso in sanità: i profili UNI nel ciclo di vita di un sistema AI ad alto rischio

Per capire meglio ci fa cosa, proviamo adesso ad immaginare un esempio concreto: cioè un caso d’uso ricorrente nello scenario healthcare e medical device.

Un’azienda sviluppa un sistema di clinical decision support (CDS) basato su AI, classificato come dispositivo medico ai sensi del Reg. (UE) 2017/745 (MDR) e qualificato come ad alto rischio ai sensi dell’AI Act, allegato III, punto 5.

Vediamo allora, tra le diverse figure disegnare dalla norma UNI, chi entra in scena, e quando.

Fase 1 — Ideazione, valutazione di fattibilità e allineamento strategico

Il Chief AI Officer costruisce il business case, la valutazione del rischio e la governance del progetto, e si interfaccia con il CdA. L’AI Consultant affianca la valutazione di costi/benefici e l’analisi di mercato. L’AI Product Manager comincia a tradurre il bisogno clinico in requisiti di prodotto.

Fase 2 — Progettazione del dataset e dell’architettura

L’AI Data Engineer disegna la pipeline che acquisirà i dati clinici (con tutte le complessità di interoperabilità FHIR, anonimizzazione, qualità). L’AI Data Scientist esplora i dati, costruisce i primi modelli predittivi, ne valuta la fattibilità statistica. L’AI Algorithm Engineer definisce l’architettura algoritmica più adatta, bilanciando accuratezza, scalabilità ed explainability. Se il sistema integra componenti di NLP — per esempio sintesi di referti — entra in gioco l’AI Natural Language Processing Engineer.

Fase 3 — Sviluppo, addestramento, ottimizzazione

L’AI Deep Learning Engineer o l’AI Machine Learning Engineer — a seconda dell’approccio scelto — costruisce e addestra il modello, ne ottimizza le performance, applica tecniche di explainability (SHAP, LIME) richieste sia dal MDR (informazione al clinico) sia dall’AI Act, artt. 13 e 14, sulla trasparenza e sulla supervisione umana. L’AI Prompt Engineer entra in scena se il sistema include moduli generativi (per esempio, redazione automatica di parti del referto).

Fase 4 — Validazione, sicurezza, conformità

L’AI Security Specialist presidia robustezza, adversarial testing, gestione degli incidenti, conformità a UNI CEI EN ISO/IEC 27001:2024 e a NIS2. L’AI Algorithm Engineer esegue benchmarking e validazione statistica. Il Chief AI Officer firma — insieme al regulatory affairs e al DPO — la documentazione tecnica per la marcatura CE (allegato II MDR) e il fascicolo AI Act (artt. 11 e 18).

Fase 5 — Messa in produzione e monitoraggio post-market

L’AI Machine Learning Engineer gestisce la pipeline MLOps, il versioning, il rollback. L’AI Data Engineer assicura l’integrità dei flussi. L’AI Product Manager monitora le metriche di adozione clinica e di valore. Il Chief AI Officer coordina la sorveglianza post-market richiesta sia dal MDR (artt. 83-86) sia dall’AI Act (art. 72).

Fase 6 — Evoluzione, retraining, ricerca

L’AI Research Scientist alimenta la roadmap evolutiva con sperimentazioni su nuovi paradigmi e con benchmark scientifici. Il ciclo ricomincia.

In un progetto reale, naturalmente, alcuni profili potrebbero fondersi in figure singole (specie nelle PMI) e altri richiedono squadre dedicate. Ma è proprio questa la funzione della norma: offrire una griglia ordinata su cui ciascuna organizzazione può costruire l’organigramma effettivo, con consapevolezza delle responsabilità che restano comunque presidiate.


Cosa fare adesso: implicazioni operative per imprese, PA e professionisti

L’arrivo della UNI 11621-8 chiede ad aziende, pubbliche amministrazioni e ordini professionali di prendere alcune decisioni operative.

Non c’è nessuna “urgenza” normativa, ma c’è una finestra temporale conveniente per non rimanere indietro.

Questi i suggerimenti che mi sentirei di dare ad una azienda:

  • mappare le competenze interne secondo i 12 profili e individuare i gap, anche in vista degli adempimenti dell’art. 4 AI Act sull’AI literacy;
  • riallineare le job description aperte e quelle in essere ai descrittori UNI, riducendo l’ambiguità nei processi di reclutamento e di valutazione interna;
  • prevedere la certificazione UNI di almeno i ruoli apicali — Chief AI Officer, AI Security Specialist — per rafforzare la documentazione di conformità all’AI Act;
  • inserire nelle vendor due diligence la verifica delle qualifiche del personale dei fornitori AI, con specifica menzione dello standard.

La UNI 11621-8 è poi il primo passo di una traiettoria che non si esaurisce qui.

La materia AI è in continua evoluzione e — come avverte la stessa norma al punto 4.1 — i profili definiti non sono «completamente esaustivi» della globalità delle professionalità che operano nei sistemi di AI.

È ragionevole attendere revisioni e integrazioni nei prossimi anni: chi si attrezza ora trova un terreno relativamente sgombro; chi aspetta troverà un mercato già strutturato attorno ad altri.

Conviene, dunque, non aspettare.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x