L’intelligenza artificiale in sanità sta ridisegnando i confini della medicina europea, aprendo nuove opportunità diagnostiche e terapeutiche ma sollevando al tempo stesso interrogativi inediti sul piano giuridico e deontologico.
Comprendere il quadro normativo di riferimento – e le indicazioni operative che ne derivano – è pertanto diventato indispensabile per chiunque operi nel settore sanitario.
Indice degli argomenti
L’IA nei sistemi sanitari europei: una trasformazione in corso
L’integrazione crescente dei sistemi di intelligenza artificiale (IA) nei contesti sanitari rappresenta uno degli sviluppi più significativi nella trasformazione digitale dei sistemi sanitari europei.
Le tecnologie di IA trovano applicazione in numerosi ambiti, tra cui il supporto alla diagnosi clinica, l’analisi delle immagini mediche, la previsione dei rischi clinici e l’ottimizzazione dei percorsi di cura.
Le sfide giuridiche dell’IA in sanità
Tuttavia, l’impiego di tali strumenti pone rilevanti questioni sotto il profilo giuridico, in particolare con riferimento alla responsabilità professionale sanitaria, alla sicurezza delle cure, alla protezione dei dati personali e alla regolazione delle tecnologie digitali in sanità.
Le raccomandazioni HAS-CNIL e il quadro normativo europeo
In questo contesto si inseriscono le raccomandazioni elaborate congiuntamente dalla Haute Autorité de Santé (HAS) e dalla Commission nationale de l’informatique et des libertés (CNIL), che mirano a fornire orientamenti operativi per un utilizzo responsabile dei sistemi di IA nei percorsi di cura.
Il documento assume particolare rilevanza se collocato nel più ampio quadro della regolazione europea dell’intelligenza artificiale, caratterizzato dall’interazione tra diverse fonti normative, tra cui il Regolamento (UE) 2017/745 sui dispositivi medici (MDR), il Regolamento (UE) 2016/679 sulla protezione dei dati personali (GDPR) e il recente Regolamento europeo sull’intelligenza artificiale (AI Act).
IA come dispositivo medico e supporto alla decisione clinica
Una delle questioni centrali riguarda la qualificazione giuridica dei sistemi di intelligenza artificiale utilizzati nel contesto sanitario.
La qualificazione giuridica dei sistemi di IA
Molti sistemi di IA impiegati per finalità diagnostiche o terapeutiche rientrano infatti nella definizione di dispositivo medico software ai sensi del Regolamento (UE) 2017/745 (Medical Device Regulation – MDR). In tali casi, il software basato su algoritmi di apprendimento automatico è soggetto ai requisiti previsti dalla normativa europea in materia di sicurezza, valutazione clinica e marcatura CE.
La responsabilità del professionista sanitario
In questo quadro, le raccomandazioni HAS-CNIL sottolineano la necessità di considerare l’IA come strumento di supporto alla decisione clinica, mantenendo la centralità del professionista sanitario nel processo decisionale.
Questa impostazione assume particolare rilievo sotto il profilo della responsabilità sanitaria, in quanto la decisione finale resta attribuita al professionista, il quale deve valutare criticamente le indicazioni fornite dal sistema.
L’AI Act e i sistemi sanitari ad alto rischio
L’adozione del Regolamento europeo sull’intelligenza artificiale (AI Act) introduce un nuovo quadro normativo per la regolazione dei sistemi di IA nell’Unione europea.
L’AI Act adotta un approccio basato sul rischio e classifica come sistemi di IA ad alto rischio numerose applicazioni nel settore sanitario, in particolare quelle integrate nei dispositivi medici.
Per tali sistemi sono previsti specifici obblighi, tra cui:
- requisiti di gestione del rischio;
- requisiti di qualità dei dati utilizzati per l’addestramento degli algoritmi;
- requisiti di trasparenza e documentazione tecnica;
- obblighi di sorveglianza post-commercializzazione.
Le raccomandazioni HAS-CNIL anticipano in larga misura questa impostazione, ponendo particolare attenzione alla necessità di garantire affidabilità, tracciabilità e supervisione umana nell’utilizzo dei sistemi di IA.
Protezione dei dati sanitari e conformità al GDPR
Un ulteriore profilo di rilievo riguarda il trattamento dei dati sanitari utilizzati per lo sviluppo e l’impiego dei sistemi di intelligenza artificiale.
Ai sensi del Regolamento (UE) 2016/679 (GDPR), i dati relativi alla salute rientrano tra le categorie particolari di dati personali e sono soggetti a un regime di protezione rafforzato.
L’utilizzo di tali dati nell’ambito dei sistemi di IA richiede pertanto il rispetto di una serie di principi fondamentali, tra cui:
- il principio di limitazione delle finalità;
- il principio di minimizzazione dei dati;
- l’adozione di misure tecniche e organizzative adeguate per garantire la sicurezza dei dati;
- il rispetto degli obblighi di trasparenza nei confronti degli interessati.
Le raccomandazioni HAS-CNIL sottolineano inoltre l’importanza di assicurare la tracciabilità dei trattamenti e di garantire un adeguato livello di informazione ai pazienti quando sistemi di IA sono utilizzati nel loro percorso di cura.
Governance dell’IA nelle strutture sanitarie
Oltre agli aspetti normativi, il documento evidenzia la necessità di sviluppare modelli di governance dell’intelligenza artificiale all’interno delle strutture sanitarie.
L’introduzione di tali tecnologie richiede infatti il coinvolgimento di diversi attori istituzionali e professionali, tra cui:
- la direzione delle strutture sanitarie;
- i professionisti sanitari;
- i responsabili dei sistemi informativi;
- i responsabili della protezione dei dati (DPO).
In questo contesto, le strutture sanitarie sono chiamate a sviluppare procedure di valutazione e monitoraggio continuo dei sistemi di IA, al fine di garantire la sicurezza delle cure e la conformità alle normative applicabili.
Trasparenza algoritmica e fiducia dei pazienti
La questione della trasparenza rappresenta un ulteriore elemento centrale nella regolazione dell’intelligenza artificiale in sanità.
La guida sottolinea l’importanza di garantire che i professionisti sanitari comprendano il funzionamento generale dei sistemi utilizzati e siano consapevoli dei limiti degli algoritmi.
Parallelamente, deve essere assicurato un adeguato livello di informazione nei confronti dei pazienti, al fine di rafforzare la fiducia nel sistema sanitario e garantire il rispetto dei principi di autonomia e autodeterminazione.
Verso un uso responsabile e sostenibile dell’IA in sanità
L’integrazione dell’intelligenza artificiale nei sistemi sanitari europei richiede un approccio regolatorio capace di bilanciare innovazione tecnologica e tutela dei diritti fondamentali.
Le raccomandazioni HAS-CNIL rappresentano un contributo significativo in questa direzione, proponendo un modello di governance fondato su principi di sicurezza delle cure, responsabilità professionale, protezione dei dati e supervisione umana, tuttavia ancora in consultazione. Inoltre, tali Raccomandazioni sono da leggere in combinato disposto con quanto verrà elaborato dall’Autorità Garante Italiana, anche in relazione all’aggiornamento delle Regole deontologiche in materia di ricerca sanitaria.
Nel contesto del diritto sanitario europeo, tali indicazioni appaiono coerenti con il quadro normativo delineato dal MDR, dal GDPR e dal nuovo AI Act, contribuendo a definire le condizioni per un utilizzo responsabile e sostenibile dell’intelligenza artificiale nel settore sanitario.











