valutazione del rischio

AI Act, perché la Fria diventa centrale per i diritti fondamentali



Indirizzo copiato

La FRIA è lo strumento previsto per valutare l’impatto dei sistemi di AI ad alto rischio sui diritti fondamentali. Tra rinvii europei e obblighi già presenti, emerge l’utilità del modello pubblicato da ECNL e dall’Istituto danese per i Diritti Umani

Pubblicato il 17 apr 2026

Flavia Scarpellini

Avvocato specializzato nella Corporate Governance della Cybersecurity



Soluzioni intelligent document processing

La FRIA è lo strumento previsto, in casi particolari, dall’AI Act[1] per valutare l’impatto dei sistemi di intelligenza artificiale (AI) ad “alto rischio” sui diritti fondamentali[2]. Si tratta di un’autovalutazione, senza un controllo esterno obbligatorio, ma con la sola comunicazione da effettuarsi all’autorità di sorveglianza del mercato (ex art. 27, comma 4, AI Act).

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x