sanità digitale

Agenti AI in medicina: il passaggio dal task al processo clinico



Indirizzo copiato

A differenza dei modelli predittivi e generativi classici, gli agenti di IA integrano pianificazione, memoria, uso di strumenti e revisione iterativa. Queste quattro funzioni li rendono adatti alla complessità del lavoro clinico, dove i processi decisionali sono articolati, progressivi e raramente lineari

Pubblicato il 30 apr 2026

Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria



Gli scienziati surclassano la miglior Agentic AI nei compiti complessi: la creatività è ancora umana nel campo delle scienze naturali; intelligent workplace
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Gli agenti di intelligenza artificiale in sanità rappresentano qualcosa di qualitativamente diverso rispetto ai sistemi che li hanno preceduti. Non si tratta di modelli più potenti che fanno meglio le stesse cose, ma di architetture che cambiano la natura stessa dell’intervento dell’IA nel lavoro clinico: dal singolo compito alla gestione di processi articolati. È su questa discontinuità che vale la pena ragionare.


Il salto dall’output all’azione: perché gli agenti cambiano tutto

L’elemento decisivo dell’attuale fase dell’intelligenza artificiale in sanità non è l’aumento generico delle prestazioni dei modelli, bensì il passaggio da sistemi che producono risposte a sistemi che organizzano azioni. È qui che si colloca il ruolo degli agenti.

L’intelligenza artificiale precedente, compresa gran parte dei modelli predittivi e dei primi sistemi generativi, operava in modo sostanzialmente puntuale. Riceveva un input ben definito e restituiva un output: una classificazione, una segmentazione, una probabilità diagnostica, una previsione di rischio, una trascrizione, una sintesi o una risposta testuale. Anche quando molto efficace, restava confinata a un compito singolo.


Cosa fa davvero un agente: dal task singolo al workflow clinico

Non gestiva il processo. Non decideva quali passaggi eseguire. Non richiamava autonomamente strumenti esterni. Non manteneva una memoria operativa strutturata del caso. Non coordinava sotto compiti diversi dentro una stessa sequenza clinica. Gli agenti introducono una discontinuità proprio su questo punto.

Non sono definiti soltanto dalla capacità di generare linguaggio, ma dalla capacità di perseguire un obiettivo attraverso più operazioni concatenate. In pratica, un agente non si limita a dire qualcosa su un caso clinico, ma può raccogliere informazioni mancanti, interrogare una cartella, richiamare linee guida, usare strumenti di calcolo, confrontare ipotesi alternative, aggiornare la propria rappresentazione del problema e produrre un output finale dopo avere attraversato una serie di passaggi intermedi.


Quattro funzioni che ridefiniscono l’IA in medicina

Questo cambia la natura dell’uso dell’intelligenza artificiale in medicina. Il focus non è più il singolo task, ma il workflow.

La differenza con l’intelligenza artificiale precedente si vede bene già nella struttura tecnica. I sistemi classici di machine learning erano in larga parte costruiti per compiti verticali e chiusi. Un modello leggeva un’immagine radiologica e identificava una lesione. Un altro stimava il rischio di sepsi. Un altro ancora riconosceva pattern in un segnale elettrocardiografico. Anche i grandi modelli linguistici della prima fase generativa, pur molto più flessibili, restavano spesso confinati a una logica di prompt e risposta.

Potevano spiegare, riassumere o simulare un dialogo clinico, ma non avevano una vera capacità di gestione autonoma del compito. Gli agenti, invece, incorporano almeno quattro funzioni aggiuntive: pianificazione, memoria, uso di strumenti e controllo iterativo del risultato. Sono queste funzioni, più ancora del modello linguistico di base, a distinguerli dalle forme precedenti di intelligenza artificiale.

Pianificazione: il ragionamento clinico non è lineare

La pianificazione è il primo tratto distintivo. Un sistema precedente tendeva a trattare ogni richiesta come un problema isolato. Un agente, invece, può scomporre un obiettivo complesso in passaggi successivi. Se il compito è supportare una decisione clinica, non restituisce immediatamente una risposta finale, ma può definire una sequenza: raccogliere dati rilevanti, verificare la completezza dell’anamnesi, esaminare esami di laboratorio, confrontare linee guida, individuare controindicazioni farmacologiche, stimare rischi e infine formulare una proposta. In medicina questa capacità è cruciale perché il ragionamento clinico non è lineare, né istantaneo. È un processo progressivo, spesso incompleto, che richiede revisione continua.

Memoria operativa: la continuità che l’IA precedente non aveva

La memoria è il secondo elemento di rottura. Molte forme precedenti di intelligenza artificiale erano essenzialmente stateless: trattavano ogni input senza una vera continuità con i passaggi precedenti, oppure conservavano contesto in modo limitato e non strutturato. Un agente, al contrario, deve mantenere una memoria operativa del caso. Questo significa conservare sintomi, esiti precedenti, preferenze del paziente, risultati intermedi, problemi aperti e obiettivi non ancora risolti. In un contesto clinico reale, questa funzione è decisiva. Senza memoria non c’è continuità del ragionamento; senza continuità non c’è vero supporto al processo assistenziale.

Strumenti esterni: quando l’IA esce dal proprio modello

Il terzo elemento è l’uso di strumenti. L’intelligenza artificiale precedente, soprattutto quella predittiva, era in genere chiusa nel proprio modello. Anche quando molto accurata, lavorava su dati già disponibili e su uno spazio d’azione limitato. Gli agenti, invece, sono progettati per interagire con ambienti esterni. Possono interrogare database farmacologici, consultare cartelle cliniche elettroniche, usare calcolatori di rischio, recuperare linee guida aggiornate, richiamare moduli specialistici per immagini o laboratorio. Questo punto è fondamentale perché la medicina non è un problema di sola inferenza. È un problema di accesso selettivo a conoscenze distribuite e di coordinamento di risorse informative diverse.

Revisione interna: un’iterazione che avvicina l’IA al team clinico

Il quarto elemento è la possibilità di revisione interna. I modelli precedenti, nella maggior parte dei casi, producevano un risultato che doveva essere verificato dall’esterno. Un agente può invece essere progettato per riesaminare il proprio output, confrontare opzioni, cercare incoerenze, chiedere ulteriori dati o attivare un secondo livello di controllo. Questo non elimina il rischio di errore, ma introduce una dinamica iterativa che avvicina il sistema, almeno in parte, a una logica di lavoro più simile a quella di un team clinico che discute, corregge e raffina una decisione.


Dalla frammentazione all’integrazione: gli agenti in diagnostica

Queste differenze strutturali hanno effetti diretti sulle applicazioni. Nella fase precedente, l’intelligenza artificiale in sanità era molto forte nei compiti ben delimitati. Classificare immagini, rilevare anomalie, stimare probabilità, automatizzare trascrizioni o supportare singole decisioni su dati standardizzati. Il suo limite era la frammentazione.

Ogni sistema funzionava come un modulo separato. Gli agenti, invece, puntano a integrare moduli diversi all’interno di una stessa sequenza operativa. In diagnostica, per esempio, non si limitano a riconoscere un pattern in una TAC o in una radiografia. Possono collegare quel pattern al contesto clinico, verificare se esistono esami precedenti, costruire una diagnosi differenziale, suggerire approfondimenti e produrre una bozza di referto coerente con la domanda clinica iniziale.


Perché la logica agentica è naturalmente adatta alla medicina

Questa capacità di integrazione spiega perché il concetto di agente sia particolarmente rilevante in sanità. Il lavoro clinico non consiste nella soluzione di problemi isolati, ma nella gestione di processi articolati. Una diagnosi nasce da una sequenza di acquisizione, selezione e interpretazione di dati.

Una decisione terapeutica richiede di pesare efficacia, rischio, interazioni, controindicazioni, preferenze del paziente e vincoli organizzativi. Una dimissione richiede sintesi clinica, istruzioni, documentazione e continuità con il territorio. I sistemi di IA precedenti intervenivano su frammenti di questi processi. Gli agenti aspirano a intervenire sulla loro organizzazione.


Sistemi multiagente: la collaborazione multidisciplinare in forma computazionale

Anche il passaggio dai sistemi singoli ai sistemi multiagente è importante. La precedente intelligenza artificiale tendeva a concentrare il compito in un unico modello specializzato. I sistemi multiagente distribuiscono invece funzioni diverse tra più unità operative. Un agente può simulare il ruolo del radiologo, uno del farmacologo, uno del coordinatore clinico, uno del verificatore finale. Il vantaggio teorico è duplice. Da un lato aumenta la specializzazione locale.

Dall’altro si introduce una forma di controllo reciproco, perché i diversi agenti possono confrontare risultati, sollevare obiezioni o integrare informazioni mancanti. In medicina questo approccio è particolarmente interessante perché replica, almeno in forma computazionale, la logica della collaborazione multidisciplinare.


Autonomia e rischio: il lato critico degli agenti in sanità

Va però chiarito che la differenza tra agenti e IA precedente non coincide semplicemente con una maggiore autonomia superficiale. Il punto non è rendere il sistema “più indipendente” in senso vago, ma renderlo capace di gestire compiti complessi. Questo comporta anche nuovi rischi. Un modello predittivo tradizionale può sbagliare una classificazione.

Un agente può sbagliare una sequenza intera di azioni, propagando un errore iniziale lungo vari passaggi del processo. Più cresce la sua capacità di integrazione, più cresce il bisogno di tracciabilità, controllo e supervisione. Per questo la comparsa degli agenti non rappresenta solo un avanzamento prestazionale, ma anche un cambiamento nel profilo di rischio dell’intelligenza artificiale medica.


Documentazione clinica: dall’automazione del testo alla gestione del processo

Il punto diventa particolarmente evidente nella documentazione clinica. I sistemi precedenti erano in grado di trascrivere o sintetizzare testi. Gli agenti possono fare di più: raccogliere dati da fonti diverse, verificare se mancano informazioni essenziali, adattare il linguaggio al destinatario, generare una bozza tecnica, produrre una versione semplificata per il paziente e segnalare incongruenze tra il referto e la richiesta clinica.

Ancora una volta, la differenza non sta nella qualità stilistica del testo, ma nella capacità di gestire il processo documentale come una catena di operazioni coordinate.


Agenti conversazionali: dal chatbot al sistema di accompagnamento operativo

Lo stesso vale per l’interazione con il paziente. I chatbot sanitari precedenti erano per lo più sistemi di risposta, più o meno avanzati, ma comunque centrati sulla conversazione come evento singolo o poco persistente. Gli agenti conversazionali possono invece mantenere una continuità, ricordare elementi clinici già emersi, monitorare obiettivi, adattare i messaggi nel tempo e attivare funzioni diverse a seconda del contesto.

In teoria possono passare da una semplice interfaccia informativa a uno strumento di accompagnamento operativo. Anche qui, però, il vantaggio funzionale porta con sé un problema nuovo: più il sistema appare coerente nel tempo, più è facile attribuirgli una competenza clinica o relazionale superiore a quella reale.


Analitica vs orchestrativa: due generazioni di IA a confronto

In termini storici, si può dire che l’intelligenza artificiale precedente in medicina era soprattutto analitica, mentre quella agentica tende a essere orchestrativa.

La prima eccelleva nell’estrarre segnali da dati complessi. La seconda prova a organizzare tali segnali dentro sequenze di azione.

La prima era uno strumento di supporto per compiti definiti. La seconda aspira a diventare una infrastruttura cognitiva di supporto ai processi.

La prima interveniva a valle o a monte di una decisione. La seconda entra potenzialmente nel mezzo del processo decisionale, coordinandone le fasi.


Come si valuta un agente: nuove metriche per nuovi sistemi

Questa distinzione è importante anche sul piano della valutazione. I sistemi precedenti potevano essere misurati con metriche relativamente ben definite: accuratezza, sensibilità, specificità, area under the curve, errore di classificazione. Gli agenti richiedono criteri più complessi, perché non basta misurare il risultato finale.

Bisogna valutare la qualità della sequenza operativa, la robustezza del recupero di informazioni, l’uso corretto degli strumenti, la gestione della memoria, la capacità di fermarsi quando i dati sono insufficienti, la trasparenza dei passaggi e l’impatto sul flusso di lavoro clinico. In altre parole, l’unità di analisi non è più solo la previsione, ma il comportamento del sistema.


Dalla funzione al processo: il vero salto qualitativo dell’IA agentica

La centralità degli agenti, quindi, non dipende dal fatto che siano semplicemente “più avanzati” dei modelli precedenti. Dipende dal fatto che rispondono meglio alla struttura reale del lavoro sanitario. La medicina è fatta di catene decisionali, coordinamento tra professionisti, accesso a fonti eterogenee, necessità di aggiornamento continuo e gestione dell’incertezza. I modelli precedenti hanno mostrato che l’IA può essere utile in molti di questi punti. Gli agenti propongono di collegarli.

È questo il salto qualitativo. Non una IA che produce singole risposte migliori, ma una IA che prova a muoversi dentro il processo clinico come un sistema operativo di supporto. Resta però una condizione essenziale. Proprio perché gli agenti intervengono sulla sequenza delle azioni e non solo sulla singola previsione, il loro impiego richiede soglie di affidabilità e di controllo più elevate rispetto all’intelligenza artificiale precedente. Se un modello tradizionale fallisce, il danno può restare confinato a un task specifico.

Se un agente fallisce, può compromettere l’intero percorso che ha costruito attorno al caso. Per questo la loro rilevanza non va letta in chiave puramente entusiastica. Il ruolo degli agenti è centrale perché segnano il passaggio dalla IA come funzione alla IA come processo. Ed è proprio questo passaggio a renderli, insieme, più promettenti e più critici delle forme precedenti di intelligenza artificiale in sanità.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x