Con l’introduzione della legge sull’AI n. 132/2025, diventa indispensabile per le organizzazioni che operano in settori ad alto rischio, adottare approcci strutturati per dimostrare l’affidabilità dei sistemi di intelligenza artificiale, garantendo al contempo la tutela dei diritti fondamentali e la sicurezza degli utenti.
Compliance evidence-based
Sistemi IA ad alto rischio: come dimostrare la conformità
L’Italia introduce la prima legge nazionale sull’intelligenza artificiale allineata all’AI Act europeo. La normativa impone obblighi stringenti per i sistemi ad alto rischio. Una gerarchia dei livelli di evidenza offre un framework strutturato per verificare affidabilità e conformità
Associate Professor SESAR Lab – Dipartimento di Informatica Università degli Studi di Milano

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business











