Un recente studio condotto da un team di ricercatori della Stanford University[1] (California, USA) ha introdotto nuovi benchmark o “parametri di riferimento” [2] per l’Intelligenza Artificiale che potrebbero aiutare a ridurre i pregiudizi (o “bias”) nei modelli, contribuendo a renderli più equi e meno inclini a causare danni.
i benchmark
Nuovi strumenti contro i pregiudizi dell’IA: lo studio Stanford
Un team della Stanford University ha sviluppato nuovi benchmark per valutare i bias nell’intelligenza artificiale, distinguendo tra parametri descrittivi e normativi per migliorare l’equità dei modelli oltre l’approccio “trattare tutti ugualmente”
Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026 -

San Raffaele, l’AI entra nella pratica clinica: meno burocrazia, più ascolto
23 Feb 2026










