Ad agosto 2026 entreranno in vigore le sanzioni per i sistemi di IA ad alto rischio. Le organizzazioni che sviluppano tali sistemi – i cosiddetti provider – dovranno garantire la conformità agli articoli 9-15 e 17 dell’AI Act per qualsiasi sistema che abbia impatto su individui nell’UE, anche se sviluppato e gestito fuori dall’Europa. Questi articoli delineano obblighi chiave, tra cui la valutazione e la mitigazione del rischio, la registrazione degli eventi, l’accuratezza, la robustezza, la cybersicurezza, la supervisione umana e le misure di trasparenza. Inoltre, richiedono l’istituzione di un sistema di governance attraverso un Quality Management System (QMS).
obblighi normativi
AI Act, corsa alla conformità: l’urgenza di standard armonizzati
L’AI Act impone rigidi obblighi normativi, ma manca di indicazioni pratiche. Questa ambiguità solleva preoccupazioni tra le aziende e i difensori dei diritti, evidenziando la necessità di standard chiari per un’implementazione efficace e inclusiva
EU Standard Leader "AI Trustworthiness Framework", Co-Founder of DEXAI, Researcher
Università degli Studi di Roma “La Sapienza”

Continua a leggere questo articolo
Canali
EU Stories - La coesione innova l'Italia