La ricerca sull’eXplainable AI (XAI) è oggi al centro del dibattito sull’intelligenza artificiale affidabile: spiegare perché un modello produce una certa risposta è diventato un requisito tecnico, etico e normativo. Al cuore di questa sfida ci sono i Large Language Models, sistemi potenti ma difficili da interpretare proprio a causa della loro architettura opaca.
eXplainable AI
Spiegare l’intelligenza artificiale: la sfida dei valori di Shapley
I valori di Shapley misurano il contributo dei token nei Large Language Models, aprendo nuove frontiere per la trasparenza algoritmica. Modelli ibridi come Mamba e RWKV superano i limiti dei Transformer, riducendo consumi e rendendo più praticabile l’analisi interpretativa, anche in contesti normativi come l’AI Act europeo
Università degli Studi di Milano

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026











