L’intelligenza artificiale, protagonista indiscussa dell’ultimo decennio, trova ampia applicazione anche in ambito medico e sanitario. I modelli di comportamento intelligente, basati su algoritmi in grado di apprendere e migliorare attraverso l’allenamento su dataset, permettono di analizzare dati e assumere decisioni sempre in minor tempo e con maggiore accuratezza.
Indice degli argomenti
L’evoluzione dell’IA nel settore medico-sanitario
L’applicazione dell’IA in contesto medico sanitario facilita l’accuratezza e la tempestività delle diagnosi, l’aiuto all’operatore umano (e, in alcuni casi, la sua sostituzione) in procedure e operazioni complesse attraverso sistemi di robotica, il miglioramento della ricerca grazie una più approfondita e puntuale analisi dei dati.
Il Regolamento europeo del 5 aprile 2017, n. 745 (anche detto MDR 2017/745), è intervenuto sull’utilizzo dei dispositivi medici diversi da quelli medico-diagnostici in vitro per costruire un quadro normativo solido, trasparente, prevedibile e sostenibile e garantire un livello elevato di sicurezza e salute, nell’ottica dell’innovazione costante.
L’intenzione evidente del legislatore è di tenersi al passo con l’evoluzione tecnologica, per trascendere il concetto di “sanità di attesa” verso un modello più efficiente, quello della “sanità di iniziativa”, il cui scopo è approcciare il paziente in modo coordinato, predittivo e preciso nei percorsi di prevenzione, diagnosi e cura.
Si tratta di iniziative ispirate al Population Health Management, un approccio proattivo alla gestione della salute e del benessere della popolazione. L’utilizzo di strumenti analitici (come modelli di segmentazione e stratificazione del rischio) permette di identificare i pazienti, suddividerli in gruppi di persone con caratteristiche simili (ossia che abbiano in comune esigenze terapeutiche analoghe) e progettare così percorsi mirati e servizi personalizzati.
Sistemi di supporto alle decisioni cliniche
In questo senso, è centrale l’utilizzo di sistemi tecnologici come il fascicolo sanitario elettronico (FSE), ma anche di dispositivi medici software, cosiddetti “software as a medical device” (SaMD).
I SaMD sono software che possono essere inclusi in un dispositivo medico hardware (embedded) oppure possono operare autonomamente, svincolati dal dispositivo fisico (stand alone). Soggetti alla normativa del Regolamento europeo dei dispositivi medici 2017/745, nonché al percorso di conformità alla normativa europea, i SaMD vengono utilizzati per svolgere attività di analisi in ambito diagnostico, terapeutico, di controllo, nonché di supporto ad altri dispositivi medici fisici.
Affinché il software funzioni correttamente, è necessario garantirne l’interoperabilità con gli altri strumenti informatici ed informativi ospedalieri. In un futuro non lontano, quindi, sarà possibile ottimizzare la gestione dei dati e migliorare l’esperienza del paziente (ad esempio attraverso una riduzione dei tempi di attesa e velocizzazione della sua presa in carico). In ultima istanza, ne beneficerà perfino la complessiva protezione della popolazione attraverso un aumento dei livelli di prevenzione e anamnesi, sempre più accurata, nonché il miglioramento in termini di efficienza del personale medico e sanitario.
In questo contesto, sempre più diffusa è la presenza dei cosiddetti “Clinical Decision Support System”, ossia i sistemi di supporto alle decisioni cliniche. I CDSS sono software progettati per assistere medici e professionisti sanitari durante il processo decisionale nella cura del paziente, e ne esistono di due tipologie, una basata sulla conoscenza pregressa e una no.
I primi sono generalmente costituiti da tre elementi: una base di conoscenza, un motore inferenziale e un meccanismo di comunicazione. La componente di comunicazione invia un dataset clinico del paziente al motore inferenziale, il quale utilizza delle regole (algoritmi) per estrarre informazioni dalla base di conoscenza e restituirle al sistema clinico. Un’interfaccia consente all’operatore di visualizzare e annotare tutti i risultati.
I secondi, invece, si avvalgono del machine learning, una forma di intelligenza artificiale che permette al sistema di apprendere dall’esperienza e/o di individuare pattern specifici nei dati clinici man mano inseriti. Tuttavia, questi sistemi non rendono esplicito il processo che porta ai risultati suggeriti, funzionando quasi come delle “black box”.
Il quadro normativo europeo per l’intelligenza artificiale medica
Palese, prima facie, la necessità di stabilire regole precise che possano proteggere gli interessati (i pazienti) e i loro dati sanitari, soggetti ad una tutela prioritaria da parte del legislatore europeo.
Il Regolamento europeo sull’Intelligenza artificiale, cosiddetto AI Act, n. 1689 del 2024, si inserisce nel sistema normativo allo scopo di migliorare il funzionamento e promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile, garantendo la protezione dei diritti (in primis, quello alla salute) degli interessati, cristallizzando regole e requisiti rigorosi da rispettare.
Attraverso un approccio di regolamentazione basato sul rischio, vengono stilate regole derivate dalla classificazione circa la pericolosità dei sistemi utilizzati.
I sistemi di AI il cui rischio è definito inaccettabile sono vietati (ad esempio, sistemi di sorveglianza biometrica in tempo reale in spazi pubblici); i sistemi con rischio elevato dovranno soddisfare requisiti severi in termini di trasparenza, sicurezza e supervisione umana. Invece, sistemi con rischio basso o minimo saranno soggetti, come ovvio, a requisiti meno stringenti, seppur nel rispetto di standard di trasparenza.
I sistemi utilizzati in ambito medico sanitario sono classificati, in larga misura, come ad alto rischio. Pertanto, i loro fornitori dovranno conformarsi a regole ferree in termini di: sicurezza (protezione contro i rischi cyber), trasparenza (il funzionamento del sistema deve essere comprensibile e spiegabile agli utenti), supervisione umana (gli operatori sanitari devono essere in grado di intervenire e controllare il sistema quando necessario), conformità normativa, documentazione e tracciabilità (il funzionamento e le decisioni prese dal sistema di AI devono essere documentate e tracciabili per controllare la conformità dell’operato), valutazione del rischio (per identificare e mitigare i potenziali rischi associati all’uso del sistema).
Le sfide della responsabilità civile nell’era dell’IA diagnostica
L’elevata tutela normativa deriva dalla possibilità di infliggere danni considerevoli agli interessati al trattamento, ossia i pazienti.
A prescindere dagli interventi ad hoc fin qui commentati, permane il problema di un assetto normativo non concepito per far fronte alle sfide provenienti dall’applicazione dell’intelligenza artificiale.
Uno degli scenari ancora da inquadrare attiene, senz’altro, ai profili della responsabilità civile.
Il nuovo player del settore, l’algoritmo, si inserisce tra medico e paziente e solleva domande cruciali circa la distribuzione delle responsabilità. Chi dovrà essere chiamato a rispondere dei danni derivanti da una diagnosi errata? Soltanto il medico, o anche lo sviluppatore del software, l’addestratore dell’intelligenza artificiale o il produttore?
In Italia, la regolamentazione della responsabilità sanitaria è stata affidata alla Legge Gelli – Bianco, ossia la Legge n. 24 del 2017, la quale si occupa altresì di temi come sicurezza delle cure e gestione del rischio clinico. Una normativa che inquadra il rapporto tra paziente e struttura sanitaria nell’alveo della responsabilità contrattuale, mentre il ruolo del medico curante è inserito nel perimetro della responsabilità extracontrattuale.
Nel quadro mutato che stiamo analizzando, si inserisce l’algoritmo. Il sistema intelligente (e chi per lui) diviene nuovo soggetto cui la responsabilità medica potrebbe essere ascritta.
Pare che emergano quindi tre tipologie di responsabilità: quella del medico, che deve verificare criticamente le indicazioni dell’IA e non affidarsi ciecamente al software; la responsabilità della struttura sanitaria, che risponde per un uso inadeguato dell’IA o per la mancanza di formazione del suo personale; una possibile responsabilità del produttore del software, nel caso di malfunzionamenti o errori di progettazione.
Centralità del medico nelle diagnosi mediche assistite dall’intelligenza artificiale
In uno scenario destinato sicuramente a evolvere, anche attraverso il corretto inquadramento dei nuovi profili di responsabilità, permane un inamovibile punto fermo: l’insostituibile centralità dell’essere umano. La decisione finale sulle cure da somministrare al paziente spetterà al medico, quale supervisore ultimo dei risultati prodotti dall’intelligenza artificiale.