sanità digitale

AI in diagnostica per immagini: le tre cose che mancano all’Italia



Indirizzo copiato

L’AI sta entrando nei flussi di diagnostica per immagini con triage, refertazione e ottimizzazione dei protocolli. L’UE regola sicurezza e rischio con AI Act e MDR, ma in Italia manca un framework nazionale per misurare impatto clinico, organizzativo ed economico

Pubblicato il 25 feb 2026

Alex Dell'Era

Co-coordinatore



AI in diagnostica per immagini (1)

L’adozione dell’Intelligenza Artificiale nei sistemi di diagnostica per immagini sta accelerando in tutta Europa.

Algoritmi di supporto alla diagnosi e alla refertazione, strumenti di triage automatizzato, sistemi di ottimizzazione dei protocolli e soluzioni di analisi predittiva stanno progressivamente entrando nella pratica clinica quotidiana. Si tratta di un’evoluzione tecnologica che promette di ridefinire processi diagnostici consolidati da decenni, con implicazioni profonde sul piano organizzativo, clinico ed economico.

Sul piano normativo, l’Unione Europea ha definito un quadro regolatorio tra i più avanzati a livello globale. L’AI Act introduce una classificazione per livelli di rischio, prevedendo obblighi stringenti per i sistemi ad alto rischio, tra cui quelli impiegati in ambito sanitario. Parallelamente, il Medical Device Regulation (MDR) disciplina i dispositivi medici, includendo software e sistemi basati su AI che influenzano decisioni diagnostiche o terapeutiche. Il quadro europeo, dunque, appare strutturato sul piano della sicurezza, della trasparenza e della responsabilità d’uso.

Dalla regolazione del prodotto alla valutazione di sistema

Tuttavia, la regolazione del prodotto non coincide necessariamente con la valutazione sistemica del suo impatto organizzativo, economico e clinico all’interno dei sistemi sanitari nazionali.

Ed è proprio su questo punto che si apre una questione rilevante per l’Italia: siamo attrezzati per valutare l’AI in diagnostica per immagini non solo come dispositivo conforme, ma come fattore di trasformazione del sistema?

Il vuoto metodologico nazionale e il rischio di proliferazione incontrollata

Nel contesto italiano, l’introduzione di soluzioni di AI nella diagnostica per immagini avviene prevalentemente attraverso percorsi locali. Può infatti riguardare singole aziende sanitarie, sperimentazioni regionali, iniziative ospedaliere o progetti pilota promossi da centri di eccellenza. Sono spesso esperienze di qualità elevata, condotte da professionisti competenti e motivati, ma che raramente dialogano tra loro secondo schemi metodologici condivisi.

Manca, allo stato attuale, un framework nazionale strutturato e condiviso che definisca criteri omogenei per la valutazione clinica comparativa degli algoritmi, l’analisi dell’impatto sui workflow radiologici, la misurazione degli effetti su tempi di diagnosi e appropriatezza, la sostenibilità economica nel medio-lungo periodo e l’integrazione nei processi di Health Technology Assessment tradizionali.

Il rischio di AI washing e l’offerta “AI” solo dichiarata

Questo vuoto metodologico espone il sistema a un rischio concreto, e più precisamente a una crescente offerta di soluzioni commercializzate come “AI” che, ad un’analisi tecnica approfondita, non impiegano né deep learning né machine learning in senso proprio, ma si limitano a implementare algoritmi tradizionali ridenominati per fini di marketing.

Si tratta di un fenomeno noto a livello internazionale come “AI washing, che nel settore sanitario assume connotati particolarmente problematici.

Evidenze difficili da verificare e standard non replicabili

A questo si aggiunge la presenza sul mercato europeo di soluzioni provenienti da paesi extracomunitari, in alcuni casi prive di una validazione clinica condotta secondo standard metodologici rigorosi e trasparenti.

Non si tratta necessariamente di tecnologie inefficaci, ma di prodotti la cui base di evidenza clinica risulta difficilmente verificabile, con studi condotti su popolazioni non rappresentative del contesto europeo, protocolli non sempre replicabili e risultati non sempre pubblicati su riviste peer-reviewed. La questione ovviamente non è geografica, ma metodologica.

Il rischio duplice: costi senza valore e perdita di credibilità

In assenza di un framework di valutazione nazionale capace di distinguere l’innovazione sostanziale dal riposizionamento commerciale, il rischio è duplice. Da un lato troviamo l’adozione di soluzioni inadeguate che generano costi senza produrre valore clinico, e dall’altro vi è la perdita di credibilità dell’AI stessa presso i professionisti sanitari, con conseguente resistenza anche verso soluzioni effettivamente innovative.

L’assenza di un modello metodologico unitario non implica assenza di competenze, infatti esistono eccellenze diffuse in ambito clinico, ingegneristico e valutativo. Ad esempio le società scientifiche hanno prodotto documenti importanti, alcune regioni hanno avviato percorsi avanzati e diverse strutture hanno maturato esperienze significative. Tuttavia, tali competenze operano spesso in modo non coordinato, generando un quadro frammentato che rischia di tradursi in disomogeneità decisionale.

In un ambito ad alta complessità tecnologica e organizzativa come l’AI applicata all’imaging, la frammentazione può diventare un problema strutturale. Non si tratta solo di efficienza ma di equità, perché senza criteri condivisi, il rischio è che territori diversi adottino soluzioni diverse sulla base di valutazioni non comparabili, con possibili ricadute sulla qualità dell’assistenza e sull’allocazione delle risorse pubbliche.

Il rischio di valutazioni disomogenee e la necessità di validazione rigorosa

La valutazione non sistemica comporta almeno tre rischi strutturali che meritano attenzione.

Variabilità territoriale e adozioni non comparabili

Il primo è una variabilità territoriale nell’adozione e nella valutazione delle soluzioni di AI, con potenziali differenze significative tra regioni o tra singole aziende sanitarie. In assenza di parametri comuni, ciò che viene considerato efficace in un contesto potrebbe non esserlo in un altro, non necessariamente per ragioni cliniche, ma per differenze metodologiche o organizzative.

Peggio ancora, una soluzione tecnicamente inadeguata potrebbe essere adottata in alcuni contesti semplicemente perché mancano gli strumenti per riconoscerne i limiti.

Metriche condivise assenti e isolamento delle sperimentazioni

Il secondo rischio è la difficoltà nel confrontare esperienze e risultati. In assenza di metriche condivise e standardizzate, anche le sperimentazioni meglio condotte rischiano di rimanere isolate, senza generare apprendimento collettivo né favorire economie di scala nella valutazione.

Ogni centro riparte da zero, duplicando sforzi e risorse. E soprattutto, diventa impossibile distinguere in modo oggettivo le soluzioni che hanno dimostrato un reale valore aggiunto da quelle che si limitano a promesse commerciali.

Disallineamento tra conformità regolatoria e impatto organizzativo

Il terzo rischio, forse il più insidioso, è un possibile disallineamento tra conformità regolatoria e valutazione di impatto organizzativo. L’AI Act e il MDR garantiscono che i dispositivi siano sicuri e conformi a standard definiti. Ma la certificazione del dispositivo non equivale automaticamente alla dimostrazione della sua utilità clinica netta, né alla sostenibilità economica della sua adozione in un contesto organizzativo reale.

Soprattutto, la marcatura CE non certifica che un sistema impieghi effettivamente tecnologie di intelligenza artificiale avanzate, né garantisce che sia stato validato su popolazioni clinicamente rilevanti per il contesto italiano.

Il rischio è che la conformità normativa venga percepita come sufficiente, in assenza di una piena analisi sistemica dell’impatto. In altri termini, la regolazione del rischio tecnologico non sostituisce la governance dell’innovazione. L’AI nella diagnostica per immagini non è solo una tecnologia da certificare, ma un fattore che potenzialmente incide su modelli decisionali, responsabilità, allocazione delle risorse, organizzazione dei percorsi clinici e, in ultima analisi, sulla relazione tra professionista e paziente.

Senza un approccio sistemico, l’innovazione rischia di procedere per accumulo, più che per integrazione. E in sanità, l’accumulo non organizzato raramente produce valore sostenibile.

L’urgenza di un framework integrato con criteri di validazione tecnica e clinica

Alla luce di questo scenario, appare necessario avviare una riflessione strutturata su un possibile framework nazionale di valutazione dell’AI in diagnostica per immagini, capace di integrare diverse dimensioni. Innanzitutto quella regolatoria (garantita da AI Act e MDR) e quella di validazione tecnica, che verifichi l’effettivo impiego di tecnologie di intelligenza artificiale e ne attesti le caratteristiche algoritmiche.

A queste si affianca la dimensione clinica, relativa all’efficacia diagnostica e all’impatto sui percorsi di cura, con particolare attenzione alla qualità degli studi di validazione e alla loro applicabilità al contesto italiano. Non meno rilevanti sono gli aspetti di ingegneria clinica e tecnologica, legati all’interoperabilità e alla gestione dei sistemi, così come la dimensione economico-organizzativa, che misura sostenibilità ed efficienza. Infine, occorre considerare la sfera etica e di accountability professionale, che riguarda responsabilità, trasparenza e coinvolgimento del paziente.

Un tale framework dovrebbe includere criteri espliciti per distinguere soluzioni basate su tecnologie di AI genuine da software tradizionali ridenominati, e per valutare la solidità delle evidenze cliniche presentate dai produttori. Dovrebbe inoltre prevedere meccanismi di verifica della validazione clinica su popolazioni comparabili al contesto dei sistemi sanitari nazionali, evitando l’adozione acritica di soluzioni validate esclusivamente in contesti organizzativi radicalmente diversi.

Un framework di questo tipo non dovrebbe sostituire i processi esistenti, né sovrapporsi alle competenze già presenti, ma coordinarli, fornendo criteri metodologici comuni e strumenti di comparabilità. L’obiettivo non è rallentare l’adozione dell’innovazione, bensì renderla coerente, valutabile e sostenibile nel tempo. Non si tratta di burocratizzare, ma di strutturare. Non di frenare, ma di orientare e qualificare.

In assenza di una visione integrata, il rischio concreto è quello di una diffusione eterogenea, difficilmente monitorabile e complessa da governare a livello di sistema. Ogni soluzione adottata localmente rischia di diventare un caso a sé, con difficoltà crescenti nel costruire evidenze solide, condividere best practice e garantire equità nell’accesso all’innovazione effettiva, non a quella solo dichiarata.

Un tavolo tecnico multi-stakeholder come possibile direzione

Un primo passo concreto potrebbe consistere nell’istituzione di un tavolo tecnico multi-stakeholder dedicato alla valutazione dell’AI in diagnostica per immagini. Non un ulteriore organismo burocratico, ma uno spazio di confronto tecnico e metodologico in cui convergano competenze diverse e complementari.

Competenze da coinvolgere e ruoli

Un tavolo di questo tipo dovrebbe coinvolgere rappresentanti istituzionali con responsabilità di indirizzo e governance, esperti di Health Technology Assessment con competenze nella valutazione di tecnologie complesse, clinici e radiologi che operano quotidianamente con questi strumenti e sono in grado di riconoscere le differenze sostanziali tra soluzioni diverse, ingegneri clinici responsabili dell’integrazione tecnologica e capaci di valutare la natura effettiva degli algoritmi, esperti di governance digitale e valutazione economica in grado di misurare impatto e sostenibilità.

Obiettivi metodologici e strumenti operativi

La finalità non sarebbe normativa in senso stretto, ma metodologica, in quanto aiuterebbe a definire criteri condivisi per la valutazione tecnica e clinica delle soluzioni, linee guida operative per l’adozione che includano requisiti minimi di validazione, indicatori di monitoraggio dell’impatto clinico ed economico, protocolli di raccolta dati che consentano confronti nel tempo e tra contesti diversi, e strumenti per identificare e segnalare pratiche di AI washing. Un lavoro tecnico, pragmatico, orientato a produrre strumenti utilizzabili e a tutelare il sistema da investimenti inefficaci.

In un contesto europeo che ha già tracciato il perimetro regolatorio dell’AI, la sfida italiana non è più quella della compliance formale, ma quella della coerenza sistemica e della capacità di discernimento.

Alla luce dell’evoluzione tecnologica degli ultimi anni, non basta più che i dispositivi siano a norma, ma occorre che il sistema sanitario sappia valutarli nella loro sostanza tecnica e clinica, adottarli e governarli in modo integrato, con un approccio che tenga insieme sicurezza, efficacia, sostenibilità ed equità.

Governare l’innovazione, non subirla

La domanda, dunque, non è se l’Intelligenza Artificiale entrerà stabilmente nella diagnostica per immagini. Questo processo è già in atto, ed è irreversibile. La vera questione è se il sistema sanitario italiano sia pronto a valutarla e governarla in modo realmente integrato, distinguendo l’innovazione sostanziale da quella apparente, o se continuerà a procedere per sperimentazioni frammentate, con il rischio di generare isole di eccellenza circondate da vuoti metodologici e da adozioni inappropriate.

L’Italia dispone delle competenze necessarie, di fatto può vantare professionisti di altissimo livello, centri di ricerca riconosciuti ed esperienze cliniche avanzate. Ciò che manca non è il sapere, ma la sua organizzazione sistemica. E in un settore strategico come la sanità, l’organizzazione del sapere è già, di per sé, una forma di innovazione.

Costruire un framework nazionale di valutazione dell’AI in diagnostica per immagini non è un lusso metodologico, né un esercizio accademico. È una scelta di policy, che può fare la differenza tra un’innovazione governata e un’innovazione subita. Tra un sistema che apprende dall’esperienza e uno che la replica senza memoria. Tra equità e casualità nell’accesso all’innovazione tecnologica effettiva. Tra investimenti mirati e dispersione di risorse pubbliche in soluzioni inadeguate.

Il tempo per questa riflessione non è illimitato. L’AI si sta diffondendo rapidamente, e ogni mese che passa senza un quadro condiviso è un mese in cui le valutazioni procedono in ordine sparso, le esperienze non si confrontano, le risorse si disperdono e il mercato si popola di soluzioni di qualità eterogenea. La costruzione di un framework richiede tempo, ma richiede soprattutto la volontà di considerare la valutazione dell’innovazione non come un vincolo, ma come una condizione per renderla davvero utile e sostenibile.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x