intelligenza artificiale

AI e radiomica per la classificazione di tumori alla mammella: le prospettive

In ambito radiologico lo sviluppo di sistemi basati su intelligenza artificiale sta avendo un enorme sviluppo e grazie alla Radiomica si sta ampliando il campo applicativo. Vediamo in che modo un team dell’Università di Palermo ha sviluppato un sistema per fornire una classificazione di lesioni mammarie

04 Gen 2022
Salvatore Gaglio

Presidente di AICA Sezione Sicilia, Dipartimento di Ingegneria - Università di Palermo ICAR- CNR

Francesco Prinzi

Università degli Studi di Palermo

Salvatore Vitabile

Professore Associato, presso il Dipartimento di Biopatologia e Biotecnologie Mediche, Università degli Studi di Palermo

Artificial-Intelligence

Un team multidisciplinare di ingegneri e medici del Laboratorio di Medical Imaging “C. La Grutta” del Dipartimento di Biomedicina, Neuroscienze e Diagnostica avanzata dell’Università di Palermo, si è occupato dello sviluppo di un Clinical Decision Support System (CDSS) che a partire da sequenze di risonanze magnetiche è in grado di fornire una classificazione di lesioni mammarie, suddividendole in due classi: maligne o benigne.

Visto che in fase di test il sistema ha ottenuto accuratezze molto promettenti, il lavoro getta le basi per uno studio prospettico.

Un’intelligenza artificiale “spiegabile” per una Sanità efficace e sicura: i nodi

Sistemi di supporto alle decisioni cliniche ed Explainable AI

Un Clinical Decision Support System (CDSS) è un sistema sviluppato per supportare il processo decisionale dei medici. Esistono tanti tipi di CDSS: quelli passivi, quelli attivi, quelli on-line, quelli off-line, quelli che forniscono una classificazione dei dati di ingresso, quelli che suggeriscono quale azione intraprendere. Nell’ambito dell’AI è importante classificare i CDSS in base al processo o modello decisionale interno, che può essere basato sulla conoscenza o basato sui dati Fig1.

WHITEPAPER
SPEECH ANALYTICS, SENTIMENT ANALYSIS e AI per aumentare l’efficacia del Contact Center
Cloud
Intelligenza Artificiale

Figura – Modelli decisionali interni

L’approccio preferito, fino a poco tempo fa, è stato quello basato sulla conoscenza o sul ragionamento, in cui esisteva la figura dell’ingegnere della conoscenza che si occupava della rappresentazione della conoscenza e il relativo sviluppo di regole. I modelli ad albero decisionale Fig.2, ad esempio, sono i modelli più antichi e ancora oggi utilizzati nella pratica clinica perché hanno il vantaggio di essere interpretabili. Sostanzialmente un CDSS di questo tipo, che è anche chiamato a regole, non fa altro che automatizzare la raccolta di informazioni e fornire consigli in base ad una linea guida delineata da un medico, rappresentando di fatto il massimo della trasparenza e dell’affidabilità [1].

Figura – Esempio di albero decisionale

Tuttavia, con l’avvento dei Big Data, i CDSS basati sui dati forniscono un punto di vista differente rispetto ai precedenti: il loro scopo non è più seguire il ragionamento convenzionale del medico, piuttosto è quello di sfruttare grandi quantità di dati per apprendere le relazioni tra dati di ingresso e dati di uscita e fornire un suggerimento al medico professionista.

Di cosa parliamo quando parliamo di Radiomica

È il caso della Radiomica (che si approfondirà successivamente) che, grazie all’estrazione di caratteristiche quantitative a partire da tante immagini mediche, permette di caratterizzare le relazioni tra i pixel presenti nell’immagine, fornendo di fatto un punto di vista impossibile da considerare per il medico. Attraverso delle variabili di input, che a questo punto possono essere quelle radiomiche (ma non solo), è possibile addestrare dei modelli di Machine Learning e Deep Learning a restituire un output preciso: maligno/benigno, malattia/non malattia, trattamento efficace/non efficace, etc. Sebbene l’Intelligenza Artificiale comprenda molto altro, il Machine Learning e il Deep Learning sono le sue sotto-branche più citate e utilizzate nell’ultimo decennio. Il Machine Learning, con i suoi complessi algoritmi statistici, si occupa di inferire della conoscenza su un algoritmo attraverso la ricerca di pattern tra i dati di addestramento, con lo scopo di riuscire a generalizzare la conoscenza appresa anche su dati diversi da quelli di addestramento. In effetti anche gli algoritmi di Deep Learning si pongono questo obiettivo e sono quindi da considerarsi una specializzazione del Machine Learning. Tuttavia, il Deep Learning introduce una sostanziale differenza architetturale degli algoritmi: la “profondità”. Ispirati proprio dal cervello umano, le reti neurali profonde, sono composte da tanti strati di neuroni e consentono la scoperta di pattern su più livelli di rappresentazione, implementando il concetto di “gerarchie di caratteristiche” o “caratteristiche di caratteristiche”.

Le caratteristiche (features) che vengono estratte al primo livello dell’architettura sono le caratteristiche di basso livello e negli strati successivi queste diventano caratteristiche di caratteristiche quindi a livello più alto, cioè più astratte. Quest’ultime rappresenteranno una forma ancora più saliente e informativa delle variabili fornite in ingresso, consentendo l’addestramento di algoritmi più performanti.

Tutto ciò sembra promettente perché effettivamente questi modelli, previa disponibilità di una grande quantità di dati etichettati e validati, funzionano, sono veloci, distribuibili ed hanno delle accuratezze quasi perfette. Perché allora attualmente non si sono del tutto affermati nella reale pratica clinica? Se da un lato l’utilizzo delle famose Reti Neurali Artificiali (ANN), Macchine a Vettori di Supporto (SVM), Foreste Casuali (RF) e tanti altri algoritmi, consentono l’addestramento di modelli molto performanti, dall’altro non si occupano di spiegare “come” e “perché” restituiscono un determinato risultato. Per questo motivo, tali algoritmi sono definiti di tipo black-box, modelli che vengono addestrati ad apprendere una funzione totalmente inspiegabile e che restituiscono un risultato esatto, rappresentando l’opposto della trasparenza fornita dai vecchi CDSS. Questa mancanza di trasparenza rende medici e pazienti scettici e non a proprio agio nell’utilizzare e soprattutto nel fidarsi di sistemi che in maniera oscura restituiscono un responso senza una spiegazione. Nell’ambito medico non è quindi solo sufficiente avere un modello performante, ma è necessario una spiegazione dell’output ottenuto dal modello. La soluzione a questo problema negli ultimi anni sembra essere l’Explainable AI (XAI), ovvero quella disciplina che si occupa di rendere interpretabili e trasparenti i modelli black-box. Ci sono algoritmi di XAI in grado di quantificare quanto ogni variabile di input ha contribuito all’output finale, oppure quali sono le variabili che fanno tendere il modello a restituire la presenza di una condizione piuttosto che l’assenza e tutto ciò può funzionare su dati clinici, caratteristiche radiomiche, immagini, etc. Grazie a queste tecnologie, i CDSS basati sui dati, che fino a poco tempo fa erano ritenuti potenti ma poco “trustable”, mirano ad essere sempre più utilizzati, diventando uno strumento che può realmente aiutare il medico durante il processo di diagnosi e durante il decorso clinico del paziente.

Radiomica: il ponte tra Radiologia ed AI

In ambito radiologico lo sviluppo di CDSS sta avendo un enorme sviluppo e grazie alla Radiomica si sta ampliando il campo applicativo. La Radiomica è quella disciplina che si occupa dell’estrazione e l’analisi di caratteristiche quantitative calcolate a partire da immagini mediche (TC, RM, PET etc.), per caratterizzare particolari regioni di interesse (ROI) come lesioni, tumori, vasi, tessuti. L’estrazione avviene attraverso opportune formule matematiche e le caratteristiche si possono dividere in due grandi classi [2]:

  • Semantiche: sono usate per descrivere l’aspetto morfologico qualitativo delle regioni di interesse come dimensioni, forma, posizione, vascolarizzazione, speculazione o necrosi.
  • Agnostiche: si riferiscono alla descrizione quantitativa di parametri invisibili, ma legati all’eterogeneità delle lesioni come tessitura, istogramma, trasformate di Wavelet, trasformazioni di Laplaciani, funzionali di Minkowski e frattali. Le tessiture possono anche essere ottenute attraverso metodi statistici di primo o secondo ordine oppure di ordine più elevato. Queste caratteristiche caratterizzano la regione di interesse attraverso relazioni microscopiche tra pixel, rappresentando un punto di vista complementare a quello del medico.

Per ogni volume medico o ROI, è quindi possibile estrarre centinaia o migliaia di caratteristiche radiomiche che vanno opportunamente elaborate ed analizzate per risolvere un task specifico. Per questo alla loro estrazione segue la tradizionale pipeline di sviluppo dei modelli di AI: selezione delle caratteristiche, riduzione della dimensionalità, addestramento dei modelli, test e validazione. Le variabili Radiomiche, assieme agli algoritmi di AI spiegabili, rappresentano quindi uno strumento perfetto per lo sviluppo di un Sistema di Supporto alle Decisioni Cliniche basato sui dati, finalizzato quindi non solo ad emulare il ragionamento del medico, ma supportarlo attraverso lo studio di un punto di vista invisibile e complementare a quello convenzionale, fornendone inoltre una spiegazione.

L’Explainable AI per la classificazione di tumori alla mammella

Il cancro al seno è il tumore più diffuso che minaccia la salute delle donne. Solo nel 2018 sono stati diagnosticati circa 2,1 milioni di casi di cancro al seno in tutto il mondo di cui più di 600 mila sono risultati mortali. Tra le donne rappresenta il tumore più comunemente diagnosticato e la principale causa di morte per cancro; l’Italia insieme a tutto il Sud Europa, risulta la popolazione al quinto posto per tasso di incidenza [3].

Grazie alla capacità di fornire caratteristiche sia morfologiche che emodinamiche, l’imaging a risonanza magnetica con contrasto dinamico (DCE-MRI) gioca un ruolo fondamentale nella diagnosi della lesione mammaria. La sequenza DCE-MRI consiste nell’acquisizione della stessa immagine in istanti consecutivi di tempo dopo l’emissione di un mezzo di contrasto, componendo così una sequenza di MRI. A partire dalle ROI sono state estratte le caratteristiche radiomiche in ogni istante della sequenza DCE-MRI per addestrare un modello XGBoost, in grado di restituire la probabilità di malignità o benignità della lesione. Avendo come input le sei caratteristiche radiomiche più descrittive di ogni istante temporale, il sistema è inoltre progettato per segnalare quelle che sono state più importanti per il task di classificazione, suggerendo al radiologo l’istante più significativo della sequenza DCE-MRI. Questo è possibile grazie ad un algoritmo per il calcolo dei valori di Shapley [4], ovvero un sistema per assegnare una ricompensa ad ogni giocatore presente in una coalizione, in questo caso quanto ogni istante temporale ha contribuito a risolvere il task di classificazione.

Conclusioni

L’utilizzo della Radiomica insieme all’Intelligenza Artificiale consente l’implementazione di sistemi di supporto alle decisioni in grado di supportare efficacemente il processo di diagnosi. Oltre ad essere numericamente performanti, è importante che i sistemi non si limitino alla restituzione di un risultato, ma ne diano anche una spiegazione. Questa caratteristica aumenta sicuramente la fiducia uomo-macchina e incoraggia l’uso di questi sistemi nella reale pratica clinica.

[1] Wasylewicz ATM, Scheepers-Hoeks AMJW. Clinical Decision Support Systems. 2018 Dec 22. In: Kubben P, Dumontier M, Dekker A, editors. Fundamentals of Clinical Data Science [Internet]. Cham (CH): Springer; 2019. Chapter 11. PMID: 31314237.

[2] Gillies RJ, Kinahan PE, Hricak H. Radiomics: images are more than pictures, they are data. Radiology. 2016;278(2):563–77. https ://doi.org/10.1148/radio l.20151 51169 .

[3] Bray F, Ferlay J, Soerjomataram I, Siegel RL, Torre LA, Jemal A. Global cancer statistics 2018: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries. CA Cancer J Clin. 2018 Nov;68(6):394-424. doi: 10.3322/caac.21492. Epub 2018 Sep 12. Erratum in: CA Cancer J Clin. 2020 Jul;70(4):313. PMID: 30207593.

[4] Lundberg, S., Lee, S.I., 2017. A unified approach to interpreting model predictions. arXiv preprint arXiv:1705.07874 .

WHITEPAPER
Terapie salvavita: quali sono le soluzioni tecnologiche più all'avanguardia?
Big Data
Cloud
@RIPRODUZIONE RISERVATA

Articolo 1 di 3