intelligenza artificiale

AI Act e standard tecnici: come garantire la conformità e l’affidabilità dell’AI



Indirizzo copiato

L’evoluzione dei sistemi di intelligenza artificiale richiede standard tecnici per garantire conformità e fiducia. L’AI Act dell’UE regola i sistemi ad alto rischio, imponendo obblighi di compliance. Gli standard come ISO/IEC 42001 forniscono linee guida per gestire la qualità e il rischio, sostenendo l’adozione responsabile dell’IA

Pubblicato il 7 giu 2024

Luca Belli

Sator Labs & Tech Policy Fellow, UC Berkeley

Mario Di Carlo

Partner, Ristuccia Tufarelli e partners



Coltivando il verso: la sfida di scrivere poesia con GPT4

Il processo di rapida evoluzione dei modelli e dei sistemi di intelligenza artificiale (IA) e dei prodotti e servizi che si basano su di essi ha rapidamente portato in luce l’esigenza di fornire una guida riconosciuta, come gli standard tecnici (d’ora in avanti anche solo gli “standard”), che consenta alle organizzazioni di conoscere lo stato dell’arte e adeguarvisi, anche al fine di mantenere un elevato livello di fiducia nell’adozione di soluzioni algoritmiche e farne un uso responsabile.

Continua a leggere questo articolo

Articoli correlati