sanità digitale

Intelligenza Artificiale “spiegabile” a supporto dei pazienti: come funziona, benefici, sfide

In futuro l’intelligenza artificiale metterà a disposizione tecniche che dovranno essere in sinergia con i medici per consentire ai dati di abilitare nuove conoscenze in biomedicina e assistenza sanitaria. Ma per rendere l’assistenza più accurata e i pazienti più responsabili, i sistemi dovranno essere spiegabili

14 Giu 2022
Mauro Dragoni

membro di AIxIA e Fondazione Bruno Kessler

Smart Pills, pro e contro dell'uso dei sensori nei trattamenti sanitari

L’ultimo lustro ha evidenziato in modo ineccepibile il potenziale dell’intelligenza artificiale (IA) nella trasformazione digitale del sistema salute sia nell’organizzazione del sistema sanitario che dell’assistenza ai pazienti. Diverse nazioni hanno adottato misure per far progredire lo sviluppo e l’adozione delle tecnologie di IA volte a supportare i propri cittadini circa il monitorare meglio la propria salute, ricevere diagnosi migliori e trattamenti più personalizzati.

Tuttavia, l’utilizzo dell’IA in molte applicazioni pratiche, ha sollevato un interrogativo molto importante quando un risultato viene prodotto da un sistema di IA, interrogativo che va oltre l’oggettiva positiva considerazione riguardante la sua efficacia: “Perché il mio sistema ha prodotto questo risultato?”.

Un’intelligenza artificiale “spiegabile” per una Sanità efficace e sicura: i nodi

Nell’ambiente della ricerca di base, questa domanda solitamente non ce la si pone visto che l’obiettivo del lavoro dei ricercatori è disegnare strategie di IA che siano più efficaci di quelle già presenti nello stato dell’arte. E per valutare il proprio algoritmo, vengono utilizzati dei benchmark di riferimento da utilizzarsi per il confronto con gli altri sistemi.

Spostandoci, invece, nel mondo reale, dove la decisione di un sistema di IA ha un impatto sulla vita delle persone, a diversi livelli, tale domanda è più che legittima: da qui nasce il concetto di sistema di IA spiegabile.

A seguire si cercherà di fornire una panoramica relativa a cos’è un sistema di IA spiegabile, che caratteristiche dovrebbe avere e quali sono i benefici che può portare.

Sistemi  IA spiegabili: facciamo un passo indietro

A differenza di quanto si possa apprendere dalla recente letteratura, la necessità di avere dei sistemi di IA spiegabili non è un tema emerso negli ultimi anni. I primi lavori risalgono agli anni ‘60 agli albori dell’IA con approcci logici basati sul tracciamento delle inferenze usati allo scopo di rendere spiegabili i sistemi decisionali del tempo agli utenti finali[1]. Nel quarantennio successivo, la tematica dei sistemi di IA spiegabili è rimasta un fronte di ricerca abbastanza di nicchia nonostante siano stati sviluppati approcci molto interessanti con lo scopo di rendere comprensibile l’incertezza delle decisioni mediche[2], di realizzare sistemi basati sull’uso di basi di conoscenza che fossero spiegabili by-design[3], di disegnare agenti che fossero in grado di spiegare in modo autonomo il loro comportamento[4] e di rendere comprensibili agli utenti non esperti il comportamento delle reti bayesiane durante i processi decisionali[5].

WHITEPAPER
Sfide di mercato, strategie e strumenti per la nuova INDUSTRY4.0, con il digitale al centro
Automotive
IoT

Tutti questi lavori hanno preparato il terreno per quanto è accaduto negli ultimi 15 anni a valle dell’inizio di ciò che è stata definita da molti la nuova età dell’IA. In contemporanea con lo strepitoso aumento delle risorse computazionali che ha permesso un uso molto intensivo delle reti neurali, è riemersa la necessità di capire come tali soluzioni fossero in grado di produrre risultati con accuratezze superiori anche al 90% in moltissimi scenari.

Le basi della nuova generazione di sistemi spiegabili sono state descritte nel lavoro di Core2006 et al.[6] dove gli autori hanno proposto una serie di mattoni fondamentali per la costruzione di tali sistemi. La loro utilità si è poi dimostrata subito rilevante nelle esperienze di integrazione di sistemi di IA all’interno di domini specifici. Alcuni esempi sono i lavori che hanno descritto l’uso di sistemi spiegabili integrati all’interno di scenari che vanno dall’economia alla mobilità fino alla sanità[7][8][9].
Si arriva così a ciò che oggi è lo stato dell’arte per quel che riguarda sia le strategie per la costruzione di sistemi spiegabili by-design[10][11][12][13][14], sia i sistemi stessi tra i quali i più usati, con tutte le limitazioni del caso, sono SHAP[15] e LIME[16].

Cos’è un sistema di IA spiegabile e quali tecnologie ne facilitano la sua creazione

Ad oggi non esiste una definizione accettata globalmente riguardo a cosa sia una spiegazione nell’ambito dell’IA. È possibile però dare una descrizione generale oggettiva riguardo a cosa sia un sistema di IA spiegabile, e cioè, un sistema le cui ragioni del proprio funzionamento possono essere comprese dall’utente finale attraverso le informazioni fornite dal sistema stesso.
Questo aspetto è fondamentale per capire quali tecniche possono essere utilizzate per la realizzazione di un sistema spiegabile. In letteratura diverse soluzioni sono state proposte, in particolare utilizzando tecniche data-driven che, invece di risolvere il problema della trasparenza, lo spostavano solamente di posizione senza mai dare una spiegazione effettiva su come un certo risultato fosse stato raggiunto dal sistema di IA.

Il ruolo delle tecnologie semantiche

Negli ultimi anni, ha preso, invece, definitivamente piede una direzione di ricerca molto promettente, anch’essa nata negli anni ‘90, ma ripresa solamente nell’ultimo lustro, legata alla realizzazione dei sistemi neuro-simbolici dove le tecnologie semantiche vengono affiancate a sistemi basati sui dati con lo scopo di associare a ciascuna caratteristica del dato un significato semantico che possa essere utilizzato per la generazione della spiegazione su come il sistema di IA ha ottenuto le sue conclusioni.

Perché le tecnologie semantiche? Perché in modo inconscio noi umani utilizziamo la semantica per dare una spiegazione a ciò che conosciamo. Un oggetto per strada lo riconosciamo perché siamo in grado di dare una semantica alle caratteristiche che ci hanno permesso di riconoscerlo conformandoci sempre con quella che è la nostra conoscenza di base. Quindi, non sarebbe meglio basarsi sempre sulla conoscenza ed utilizzarla per esprimere le spiegazioni in termini di essa?

I sistemi semantici sono già spiegabili by-design in quanto il processo inferenziale adottato da tali sistemi per raggiungere una conclusione segue passi basati su regole logiche. Procedendo a ritroso, quindi, è sempre possibile capire il motivo per il quale il sistema, durante ciascun passo, ha compiuto una specifica decisione. Ciò è possibile indipendentemente dalla complessità del sistema stesso.

I sistemi neurali

All’opposto dei sistemi semantici troviamo quelli neurali dove la rete, in base di dati forniti in ingresso, produce un risultato che viene comunemente chiamata black-box, termine assegnato in quanto è impossibile capire il significato del comportamento di un dato modello. Nei sistemi neuro-simbolici si prova a risolvere questo problema in due modi distinti: assegnando un significato semantico ai dati di ingresso/uscita in modo che possa essere utilizzato per la generazione della spiegazione oppure integrando all’interno delle reti neurali stesse delle regole logiche che permettano di rendere più trasparente l’intero processo decisionale.

Riportiamo come esempio quello mostrato in Figura 1 che rappresenta una delle possibili soluzioni neuro-simboliche implementabili e che fa riferimento al lavoro pubblicato in Donadello et al.[17]. In alto a sinistra si trovano i dati che vengono sia forniti in ingresso al modello neurale (in alto in centro) sia agganciati a descrizioni semantiche utilizzando formalismi logici (in basso a sinistra). Una volta che il modello neurale produce un risultato, questo viene inoltrato ad un sistema simbolico (in basso in centro) in grado di combinare il risultato del modello neurale con la descrizione semantica dei dati in modo da produrre a sua volta il risultato finale del sistema neuro-simbolico accompagnato da una spiegazione relativa al perché tale risultato è stato prodotto. Maggiori dettagli sui sistemi neuro-simbolici possono essere consultati in Hitzler et al.[18].

L’uso di tecnologie semantiche, quindi, può rappresentare un punto di svolta per rendere i sistemi di IA più comprensibili agli utenti finali e di conseguenza costruire un rapporto di fiducia sia verso gli esperti che verso i cittadini.

Figura 1. Esempio di architettura astratta di un possibile sistema neuro-simbolico.

Il possibile impatto dei sistemi di IA spiegabili sui cittadini

L’organizzazione delle informazioni sotto un cappello semantico può avere un impatto estremamente significativo sulla qualità della vita dei cittadini. Proviamo a considerare i tre scenari seguenti:

  • Una giovane donna con diabete di tipo II sente il proprio smartphone vibrare e vede una notifica: “Rilevato aumento della glicemia – iniettare ora 6 unità di insulina ad azione rapida”.
  • Un adolescente alle prese con la depressione accede a un’app per parlare online con un terapista autorizzato che vive a migliaia di chilometri di distanza.
  • Un medico del pronto soccorso sta per somministrare un farmaco a un paziente quando viene visualizzato un avviso sull’interfaccia del fascicolo sanitario elettronico dell’ospedale: “Non somministrare, il paziente ha un alto rischio di incontrare una reazione allergica”.

Questi scenari non sono più opere di fantascienza, ma rappresentano modalità reali in cui le tecnologie semantiche integrate all’interno dei sistemi di IA possono trasformare il modo in cui pazienti e operatori sanitari monitorano la salute nei prossimi anni. Esaminato i tre suddetti scenari, e non solo, sono state identificate tre dimensioni di impatto principali nelle quali le tecnologie semantiche e l’IA possono giocare un ruolo fondamentale.

L’IA può rendere l’assistenza sanitaria più accurata

Gli errori medici sono molto più frequenti di quanto la maggior parte delle persone immagini. Se un paziente si reca in un ospedale in America Latina, la probabilità di essere danneggiato a causa di cure mediche inadeguate può arrivare fino al 10%. Le cartelle cliniche elettroniche collegate con basi di conoscenza semantiche sono un modo per ridurre gli errori medici, in particolare riducendo gli errori commessi nella somministrazione dei farmaci. Uno studio[19] ha mostrato che un sistema di supporto alle decisioni che raccomandava le linee guida sul dosaggio portava a un dosaggio della prescrizione più accurato del 13%. In un altro studio[20] condotto in un ospedale pediatrico negli Stati Uniti, uno strumento computerizzato ha portato a un calo del 59% della necessità di interventi in farmacia per correggere dosi di farmaci errate.

L’IA può portare a pazienti più responsabili

A livello planetario si sta osservando un aumento significativo delle malattie croniche. La gestione delle malattie croniche sta allontanando i professionisti dai tradizionali sistemi sanitari paternalistici, in cui gli operatori sanitari prendono decisioni con un input minimo o nullo da parte dei pazienti, verso modelli centrati sul paziente[21], in cui questi ultimi hanno il potere di gestire le proprie cure. Questo cambiamento è particolarmente importante nella gestione di queste malattie che, per loro natura, sono a lungo termine e richiedono che i pazienti stessi siano coinvolti nella cura. Uno strumento chiave ora a loro disposizione a tal fine sono le tecnologie sanitarie digitali.

La salute digitale può anche rafforzare l’interazione tra fornitore e paziente. Le tecnologie che consentono a pazienti e fornitori di interagire non solo portano a una maggiore soddisfazione dei pazienti, ma possono anche avere un impatto dimostrabile sulla loro salute. Una meta-analisi di 18 studi di controllo randomizzati[22] su pazienti affetti da diabete di tipo 2ha rilevato che i sistemi elettronici che hanno consentito a pazienti e operatori sanitari di comunicare e inviare dati hanno portato a livelli di HbA1c significativamente ridotti, un indicatore chiave dei livelli di zucchero nel sangue.

L’IA rende l’assistenza sanitaria di alta qualità accessibile alle aree difficili da raggiungere

Nelle aree rurali, l’accesso a un’assistenza sanitaria di alta qualità, complice anche la carenza di medici, affligge da decenni i sistemi sanitari dei paesi.

Tuttavia, la salute digitale può aiutare a colmare questo divario fornendo assistenza sanitaria di alta qualità ai pazienti più isolati. In Honduras, gli operatori sanitari della comunità utilizzano i tablet per registrare dati sanitari e comportamentali quando visitano pazienti in aree remote. Quindi usano quegli stessi tablet per condividere video che insegnano lezioni relative alla salute materna e infantile.

Anche il Brasile sta sperimentando soluzioni innovative. Il paese soffre di una carenza di medici specialisti. Spesso i pazienti devono attendere in media 30 giorni per i risultati dei test che costano centinaia di dollari. Portal Telemedicina, una start-up di telemedicina, risolve questo problema consentendo alle cliniche di caricare immagini diagnostiche come EEG e scansioni MRI sul proprio sistema che utilizza un algoritmo di apprendimento automatico per rilevare eventuali anomalie. Una diagnosi proposta viene così inviata a uno specialista remoto che verifica la raccomandazione. Attraverso questo processo, i pazienti in una clinica remota nell’Amazzonia brasiliana possono ricevere i risultati della risonanza magnetica lo stesso giorno, con un costo del test a partire da $4.

Al di là degli scenari e dei singoli laboratori territoriali nei quali l’impatto dell’IA è stato validato, rimane la generale carenza di rapporti che dimostrino chiaramente non solo il positivo risultato ottenuto da un proof of concept nell’integrazione dell’IA in un’app o un in dispositivo, ma anche il suo beneficio clinico. Un recente editoriale su Lancet mette in guardia l’uso dell’IA nella medicina digitale e raccomanda vivamente una valutazione continua degli interventi di salute digitale sia per l’efficacia clinica che per l’impatto economico[23].

Una revisione più positiva di Fogel ha discusso di come l’IA nella medicina digitale può migliorare non solo lo screening e la prevenzione della salute di base, nonché l’aderenza ai farmaci, ma anche l’esperienza da uomo a uomo dell’assistenza sanitaria[24].

Quali sono le sfide future?

Nel prossimo futuro, l’IA incorporata (eAI) e gli algoritmi di apprendimento automatico si evolveranno verso Internet of Everything (IoE) e riuniranno persone, processi, dati e cose. Questa strategia consentirà di snellire e organizzare i dati accumulati nel cloud in modo proattivo in un paradigma generale di medicina di precisione personalizzata.

Sarà necessaria una strategia generale per la valutazione preliminare e continua delle applicazioni di IA nella medicina digitale. Questo processo di valutazione richiederà informazioni non solo da organizzazioni come l’AMA o la FDA, ma forse anche da un consorzio internazionale di esperti multidisciplinari. Infine, l’attenzione dovrà essere rivolta alla sicurezza informatica di questi dispositivi intelligenti per mitigare il rischio di violazione dei dati e quindi danni intenzionali a pazienti e tutori.

In conclusione, il futuro dell’IA nella medicina digitale è estremamente propizio tramite la messa a disposizione di tecniche che dovranno essere in sinergia con i medici per consentire ai dati di essere abilitatori di nuove conoscenze e intelligenze in biomedicina e assistenza sanitaria. Previa opportuna gestione della privacy, tutti i dati sanitari dovranno essere liberi e condivisi senza ostacoli in modo che l’IA possa essere onnipresente e invisibile nella futura arena sanitaria e scoprire nuove conoscenze da tutte le fonti di dati e informazioni.

Inoltre, sarà necessaria un’interfaccia tra i medici con i dati e gli informatici con l’analisi per garantire un continuum dai dati alle informazioni e, infine, un trasferimento dalla conoscenza all’intelligenza.

Infine, abbiamo bisogno di promulgare una sinergia uomo-macchina attraverso una collaborazione tra medico e scienziato dei dati senza arroganza per spingere il futuro dell’assistenza sanitaria e della medicina ai massimi livelli.

Con l’IA in medicina e nell’assistenza sanitaria, non sarà uomo contro macchina, ma uomo e macchina.

Note e Bibliografia

  1. Newell, A., Shaw, J. C., & Simon, H. A. (1958). Chess-playing programs and the problem of complexity. IBM Journal of Research and Development, 2, 320–335.
  2. Randall Davis, Bruce G. Buchanan, Edward H. Shortliffe: Production Rules as a Representation for a Knowledge-Based Consultation Program. Artif. Intell. 8(1): 15-45 (1977)
  3. William R. Swartout, Cécile Paris, Johanna D. Moore: Explanations in Knowledge Systems: Design for Explainable Expert Systems. IEEE Expert 6(3): 58-64 (1991)
  4. W. Lewis Johnson: Agents that Learn to Explain Themselves. AAAI 1994: 1257-1263
  5. Carmen Lacave, Francisco Javier Díez: A review of explanation methods for Bayesian networks. Knowl. Eng. Rev. 17(2): 107-127 (2002)
  6. Mark G. Core, H. Chad Lane, Michael van Lent, Dave Gomboc, Steve Solomon, Milton Rosenberg:Building Explainable Artificial Intelligence Systems. AAAI 2006: 1766-1773
  7. J. Pearl. “Causality: Models, reasoning and inference cambridge university press.” Cambridge, MA, USA 9 (2000): 10-11.
  8. Gershman, S. J., Horvitz, E. J., & Tenenbaum, J. B. (2015). Computational rationality: A converging paradigm for intelligence in brains, minds, and machines. Science, 349, 273–278.
  9. Mauro Dragoni, Ivan Donadello, Claudio Eccher: Explainable AI meets persuasiveness: Translating reasoning results into behavioral change advice. Artif. Intell. Medicine 105: 101840 (2020)
  10. Zachary C. Lipton: The mythos of model interpretability. Commun. ACM 61(10): 36-43 (2018)
  11. Kieseberg, P., Weippl, E., & Holzinger, A. (2016). Trust for the doctor-in-the-loop. In European Research Consortium for Informatics and Mathematics (ERCIM) news: Tackling big data in the life sciences (Vol. 104, pp. 32–33). Sophia Antipolis, France: European Research Consortium for Informatics and Mathematics.
  12. Doran, D., Schulz, S., & Besold, T. R. (2017). What does explainable AI really mean? A new conceptualization of perspectives. arXiv:1710.00794.
  13. Montavon, G., Samek, W., & Müller, K.-R. (2017). Methods for interpreting and understanding deep neural networks. arXiv:1706.07979.
  14. Miller, T. (2019). Explanation in artificial intelligence: Insights from the social sciences. Artificial Intelligence, 267, 1–38.
  15. Scott M. Lundberg, Su-In Lee: A Unified Approach to Interpreting Model Predictions. NIPS 2017: 4765-4774
  16. Marco Túlio Ribeiro, Sameer Singh, Carlos Guestrin: “Why Should I Trust You?”: Explaining the Predictions of Any Classifier. KDD 2016: 1135-1144
  17. Ivan Donadello, Mauro Dragoni: An End-to-End Semantic Platform for Nutritional Diseases Management. ISWC (2) 2019: 363-381
  18. Hitzler, P., and M. K. Sarker. “Tractable Boolean and arithmetic circuits.” Neuro-Symbolic Artificial Intelligence: The State of the Art 342 (2022): 146.
  19. https://www.ncbi.nlm.nih.gov/pubmed/11735759
  20. https://www.ncbi.nlm.nih.gov/pubmed/11581483
  21. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4391791/
  22. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4391791/
  23. Is digital medicine different? Editorial in Lancet. 2018;392:95.
  24. Fogel AL, Kvedar JC. Perspective: artificial intelligence powers digital medicine. NPJ Digit Med. 2018;1:5–8.

Intelligenza artificiale in Sanità, perché non decolla? Le barriere e come superarle

WHITEPAPER
Sanità: quali le applicazioni di AI in radiologia, oncologia e cardiologia?
Intelligenza Artificiale
Sanità
@RIPRODUZIONE RISERVATA

Articolo 1 di 4