La ricerca sull’eXplainable AI (XAI) è oggi al centro del dibattito sull’intelligenza artificiale affidabile: spiegare perché un modello produce una certa risposta è diventato un requisito tecnico, etico e normativo. Al cuore di questa sfida ci sono i Large Language Models, sistemi potenti ma difficili da interpretare proprio a causa della loro architettura opaca.
eXplainable AI
Spiegare l’intelligenza artificiale: la sfida dei valori di Shapley
I valori di Shapley misurano il contributo dei token nei Large Language Models, aprendo nuove frontiere per la trasparenza algoritmica. Modelli ibridi come Mamba e RWKV superano i limiti dei Transformer, riducendo consumi e rendendo più praticabile l’analisi interpretativa, anche in contesti normativi come l’AI Act europeo
Università degli Studi di Milano

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026











