cure e digitale

Intelligenza artificiale in Sanità, perché non decolla? Le barriere e come superarle

Con l’ausilio dell’intelligenza artificiale l’assistenza sanitaria potrà diventare più efficace e più efficiente, migliorando la vita quotidiana di milioni di persone. Ma l’adozione della tecnologia è più lenta che in altri settori. Le barriere – culturali, tecniche, normative – che ne frenano l’utilizzo

27 Apr 2022

Secondo uno studio “longitudinale” della Stanford University, “One Hundred Year Study on Artificial Intelligence”, quello sanitario è uno dei settori in cui l’impatto dell’intelligenza artificiale sarà di maggior rilievo, risultando sempre più utilizzata nelle applicazioni biomediche, in particolare nella diagnosi, nella scoperta di farmaci e nelle scienze della vita.

Tuttavia, ad oggi l’interesse all’uso dell’IA in medicina non si è tradotto in un’adozione altrettanto diffusa quanto auspicabile della stessa.

Il che sta a significare che esistono delle barriere all’adozione dell’IA nell’assistenza sanitaria.

Un’intelligenza artificiale “spiegabile” per una Sanità efficace e sicura: i nodi

Progressi e limiti dell’IA in sanità

Innanzitutto, se i progressi delle reti neurali hanno effettivamente spostato in avanti i limiti delle possibilità dell’IA, ciò è avvenuto a discapito dell’interpretabilità dei risultati.

WHITEPAPER
Intelligenza Artificiale nel Marketing: quello che i CMO devono sapere
CRM
Intelligenza Artificiale

Quando si usano le reti neurali, è spesso difficile capire come sia stato generato uno specifico risultato, a causa dell’uso delle cosiddette black box.

Di conseguenza, se non c’è nessuno che tenta di identificare proattivamente i problemi con un algoritmo generato da una rete neurale, è insito il rischio sostanziale che l’IA generi soluzioni con errori rinvenibili solo dopo che siano state utilizzate.

E tale approccio in ambito medico è molto pericoloso.

Affidarsi totalmente alla logica dei modelli black-box viola, peraltro, l’etica medica, poiché viene impedito ai medici di valutare la qualità degli input e dei parametri del modello; se i medici non hanno la possibilità di capire il processo decisionale, potrebbero violare i diritti dei pazienti al consenso informato e all’autonomia decisionale, ledendo altresì il principio di trasparenza sancito dal GDPR.

Trasparenza e spiegabilità dell’IA in Sanità

La medicina clinica, infatti, soprattutto la pratica medica basata sull’evidenza, si basa sulla trasparenza nel processo decisionale. Se non c’è un’IA spiegabile dal punto di vista medico e il medico non può ragionevolmente spiegare il processo decisionale, la fiducia del paziente nei suoi confronti inevitabilmente si assottiglia.

Ovviamente, la spiegabilità non deve essere esaustiva, ma sufficiente per consentire a medici e pazienti di comprendere le implicazioni cliniche dei modelli di intelligenza artificiale ed essere integrati in modo sicuro nella pratica clinica. Quindi, gli standard minimi accettabili per la spiegabilità sono dipendenti dal contesto e dovrebbero rispondere al bisogno specifico e ai rischi potenziali di ogni scenario clinico per un’implementazione responsabile ed etica dell’intelligenza artificiale.

La mancanza di trasparenza, peraltro, incide notevolmente sulla fiducia nell’IA e riduce l’adozione diffusa da parte dei fornitori di servizi sanitari, soprattutto per il non trascurabile aspetto che essi saranno molto probabilmente ritenuti responsabili delle decisioni che coinvolgono l’IA.

E proprio su tale punto la proposta di Regolamento europeo sull’IA contiene alcune disposizioni al riguardo, per facilitare la diffusione della tecnologia.

L’IA cosiddetta interpretabile potrebbe aumentare la fiducia eliminando il problema della black box, permettendo agli operatori sanitari di capire come l’IA restituisce un certo risultato, permettendo agli operatori sanitari di capire meglio la probabilità che un’IA raggiunga la sua soluzione in modo distorto o incompleto.

Prestazioni degli algoritmi e qualità dei dati

Altro aspetto fondamentale è che le prestazioni degli algoritmi di IA dipendono molto dalla qualità dei dati disponibili. Quindi un’altra barriera all’adozione è l’accesso limitato ai dati di qualità. I dati medici sono spesso difficili da raccogliere e l’accesso agli stessi è arduo.

Gli operatori sanitari rischiano di “affogare” nei dati, perdendo tempo prezioso nella ricerca di informazioni rilevanti per il paziente. Per esempio, gli studi di imaging in passato producevano solo alcune immagini, mentre le odierne tecnologie avanzate producono anche migliaia di immagini per studio. Inoltre, i professionisti medici sono spesso infastiditi dalle frequenti interruzioni del processo di raccolta dei dati, con la conseguenza che i dati raccolti rischiano di essere incompleti.

Il nodo dell’interoperabilità

Altro problema è l’interoperabilità. Condividere i dati tra le strutture sanitarie o tra i fornitori di assistenza sanitaria è una sfida ancora lungi dall’essere risolta, nonostante i numerosi tentativi. I sistemi di Electronic Healthcare Record (EHR) non sono in gran parte compatibili con il risultato che la raccolta di dati è localizzata invece che integrata, anche se riferita allo stesso paziente. Senza grandi set di dati di alta qualità, può essere difficile costruire IA utili in ambito sanitario. E ciò si ripercuote sull’assistenza sanitaria che risulta più lenta ad adottare la tecnologia.

La proposta di Regolamento europeo su IA, al riguardo, prevede che gli spazi comuni europei di dati istituiti dalla Commissione e l’agevolazione della condivisione dei dati tra imprese e con i governi, nell’interesse pubblico, siano fondamentali per fornire un accesso affidabile, responsabile e non discriminatorio a dati di elevata qualità a fini di addestramento, convalida e prova dei sistemi di IA. Ad esempio, per quanto riguarda la salute, lo spazio europeo di dati sanitari agevolerà l’accesso non discriminatorio ai dati sanitari e l’addestramento di algoritmi di intelligenza artificiale su tali set di dati in modo sicuro, tempestivo, trasparente, affidabile e tale da tutelare la vita privata, nonché con un’adeguata governance istituzionale.

Le barriere normative

Alcuni altri problemi derivano anche da barriere normative sottostanti. Tre tipi di regole sono particolarmente importanti.

Le norme sulla privacy

In primo luogo, le norme sulla privacy e protezione dei dati personali possono rendere difficile la raccolta e la condivisione dei dati sanitari. Preoccupazioni particolarmente forti per la privacy nell’assistenza sanitaria, possono rendere troppo difficile utilizzare i dati sanitari reali per addestrare i modelli di IA in modo rapido o efficace come in altri settori. Vi è da segnalare che proprio per questo, sempre la tecnologia di IA sta cercando di ovviare al problema attraverso il ricorso ai c.d. dati sintetici.

Le lungaggini del processo di approvazione normativa

In secondo luogo, il processo di approvazione normativa per una nuova tecnologia medica richiede tempo, mentre la tecnologia, nel frattempo, può aver progredito ulteriormente.

La questione della responsabilità

In terzo luogo, come già anticipato sopra, le preoccupazioni di responsabilità possono anche costituire una barriera, in quanto i fornitori di assistenza sanitaria possono tentennare nell’adozione di una nuova tecnologia per paura di rimanere coinvolti in contenziosi.

La regolamentazione nell’assistenza sanitaria è, giustamente, più cauta di quella di molti altri settori. E ciò suggerisce che la riduzione delle barriere all’adozione dell’IA nell’assistenza sanitaria richiederà un’innovazione complementare nella regolamentazione, permettendo in ultima analisi di realizzare le opportunità offerte dall’IA senza compromettere i diritti dei pazienti o la qualità dell’assistenza. Le innovazioni normative complementari potrebbero includere modifiche a tutte e tre le barriere normative: chi possiede e può utilizzare i dati sanitari, come i dispositivi medici e il software di IA sono approvati, e dove si trova la responsabilità tra i fornitori medici e gli sviluppatori di IA.

Conclusioni

Nel complesso, quindi, rispetto al livello di generale entusiasmo, l’adozione dell’IA è stata più lenta nel settore sanitario.

Il legislatore può contribuire a generare un’adozione utile con alcuni approcci innovativi alla privacy e al percorso di approvazione normativa. Tuttavia, potrebbero essere altri approcci ad essere più utili: chiarire e semplificare le regole, finanziare la ricerca e consentire la concorrenza.

Se le tecnologie AI avranno un impatto simile sulla sanità come in altri settori, ad es. i servizi finanziari, l’assistenza sanitaria potrà diventare più efficace e più efficiente, migliorando la vita quotidiana di milioni di persone.

Naturalmente, la percezione della affidabilità dell’IA da parte dei medici continuerà a evolversi assieme alle sue stesse capacità, in parallelo con quello che può essere il percorso di uno studente universitario, dimostrando il suo valore aggiunto e guadagnando la fiducia degli altri medici nel tempo, integrandosi con il prezioso ed insostituibile apporto umano e migliorando, al contempo, l’efficacia e la sicurezza delle cure.

WHITEPAPER
Sanità: quali le applicazioni di AI in radiologia, oncologia e cardiologia?
Intelligenza Artificiale
Sanità
@RIPRODUZIONE RISERVATA

Articolo 1 di 4