AI spiegabile

Capire come “ragiona” la Gen AI: perché è sempre più urgente



Indirizzo copiato

L’intelligenza artificiale entra in ospedali e sistemi militari senza che medici e comandanti sappiano come arriva alle sue conclusioni. Interpretability ed explainability sono i concetti chiave per ridurre il rischio e mantenere un controllo umano reale sui modelli generativi

Pubblicato il 20 apr 2026

Alessandro Longo

Direttore agendadigitale.eu



società di intelligenza artificiale (1)

Siamo pazienti in attesa di responso e il nostro medico ci dice: l’intelligenza artificiale suggerisce che non è il caso di operare. Ma perché, come fa a dirlo? Il medico non è in grado di rispondere. Altro scenario. Un’intelligenza artificiale dice a un militare che in quell’edificio c’è un terrorista, ma nessun civile. Ma come è arrivato a quella conclusione? Chissà. Ma indugiare troppo nella decisione comporta rischi. Medici, militari. Altri rischi però ci sono se scegliamo di fidarci a occhi chiusi.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x