eXplainable AI

Spiegare l’intelligenza artificiale: la sfida dei valori di Shapley



Indirizzo copiato

I valori di Shapley misurano il contributo dei token nei Large Language Models, aprendo nuove frontiere per la trasparenza algoritmica. Modelli ibridi come Mamba e RWKV superano i limiti dei Transformer, riducendo consumi e rendendo più praticabile l’analisi interpretativa, anche in contesti normativi come l’AI Act europeo

Pubblicato il 27 mar 2026

Ernesto Damiani

Università degli Studi di Milano



società di intelligenza artificiale (1)

La ricerca sull’eXplainable AI (XAI) è oggi al centro del dibattito sull’intelligenza artificiale affidabile: spiegare perché un modello produce una certa risposta è diventato un requisito tecnico, etico e normativo. Al cuore di questa sfida ci sono i Large Language Models, sistemi potenti ma difficili da interpretare proprio a causa della loro architettura opaca.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x