lo studio nature

IA in corsia: perché gli LLM “indovinano” la diagnosi ma sbagliano il percorso clinico



Indirizzo copiato

Gli LLM nei casi clinici promettono supporto a medici e pazienti, ma i test su storie reali mostrano un punto critico: non basta “azzeccare” la diagnosi. Conta scegliere gli esami giusti al momento giusto e proporre terapie coerenti con comorbidità, vincoli e variabilità individuale

Pubblicato il 11 feb 2026

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



Massimizzare l’adozione dell’AI in sanità: verso un approccio strategico di lungo periodo; AI gen consulenza; superintelligenza; AI industria
Foto: Shutterstock

I modelli lingistici di gradi dimensioni (LLM), messi alla prova su casi clinici possono sembrare “dottori virtuali”, ma quando vengono testati su storie reali emergono limiti concreti: non tanto nel riconoscere una diagnosi già ben documentata, quanto nel decidere quali esami chiedere e nel costruire piani di cura completi e coerenti con la complessità del paziente.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x