Siamo pazienti in attesa di responso e il nostro medico ci dice: l’intelligenza artificiale suggerisce che non è il caso di operare. Ma perché, come fa a dirlo? Il medico non è in grado di rispondere. Altro scenario. Un’intelligenza artificiale dice a un militare che in quell’edificio c’è un terrorista, ma nessun civile. Ma come è arrivato a quella conclusione? Chissà. Ma indugiare troppo nella decisione comporta rischi. Medici, militari. Altri rischi però ci sono se scegliamo di fidarci a occhi chiusi.
AI spiegabile
Capire come “ragiona” la Gen AI: perché è sempre più urgente
L’intelligenza artificiale entra in ospedali e sistemi militari senza che medici e comandanti sappiano come arriva alle sue conclusioni. Interpretability ed explainability sono i concetti chiave per ridurre il rischio e mantenere un controllo umano reale sui modelli generativi
Direttore agendadigitale.eu

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026












