La FRIA è lo strumento previsto, in casi particolari, dall’AI Act[1] per valutare l’impatto dei sistemi di intelligenza artificiale (AI) ad “alto rischio” sui diritti fondamentali[2]. Si tratta di un’autovalutazione, senza un controllo esterno obbligatorio, ma con la sola comunicazione da effettuarsi all’autorità di sorveglianza del mercato (ex art. 27, comma 4, AI Act).
valutazione del rischio
AI Act, perché la Fria diventa centrale per i diritti fondamentali
La FRIA è lo strumento previsto per valutare l’impatto dei sistemi di AI ad alto rischio sui diritti fondamentali. Tra rinvii europei e obblighi già presenti, emerge l’utilità del modello pubblicato da ECNL e dall’Istituto danese per i Diritti Umani
Avvocato specializzato nella Corporate Governance della Cybersecurity

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026









