Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

TECNOLOGIE EMERGENTI

Deep learning e Sanità, tutte le incognite della “scatola nera” della AI

In rapida affermazione le applicazioni di intelligenza artificiale in medicina, in particolare nella diagnostica per immagini. Ma il coinvolgimento delle architetture di deep learning accende i riflettori sull'”accountability” dei processi. Ecco le problematiche emergenti e le soluzioni allo studio

14 Mag 2019

Giuseppe D’Avenio

Centro Nazionale TISP (Tecnologie Innovative in Sanità Pubblica), ISS, Roma

Mauro Grigioni

Centro Nazionale TISP (Tecnologie Innovative in Sanità Pubblica), ISS, Roma


Sanità digitale sempre più coinvolta nell’utilizzo di sistemi di Intelligenza artificiale di tipo deep learning.

Nell’ambito della diagnostica per immagini in particolare gli studi si stanno concentrando sulle architetture di deep learning in grado di elaborare enormi quantità di dati. Processi su cui però possono pesare interrogativi legati all'”inconoscibilità” dell’algoritmo: nasce da qui il nuovo concetto di Explainable AI. 

Un concetto sempre più “necessario”, dati che i prodotti ICT riconducibili alla Intelligenza Artificiale (IA) sono ormai molto diffusi, anche se non c’è una piena consapevolezza di questo fatto da parte del pubblico dei non addetti ai lavori. Anche una semplice ricerca di parole chiave su un motore di ricerca implica l’uso di prodotti di questo tipo.

Lo stesso dicasi per l’organizzazione della propria pagina personale nei social network più diffusi, in base alle attività del titolare della pagina stessa, in modo da rendere più appagante l’esperienza di navigazione.

In tale contesto, non è sorprendente che si assista a un crescente interesse verso le applicazioni di IA in medicina: in particolare, l’ambito della diagnostica per immagini (soprattutto radiologia, ma anche istologia e istopatologia) si presta ottimamente ad analisi di grandi quantità di dati, tipiche del machine learning (o della sua versione più recente, deep learning).

Diagnostica e analisi dei dati con l’AI Deep Learning

Le potenzialità di IA in medicina sono comunque molto consistenti anche in altri ambiti, quali l’analisi automatica delle cartelle cliniche che, essendo compilate in modo non strutturato, sono state tradizionalmente non considerate come sfruttabili con un approccio algoritmico, fino alla composizione automatica e strutturata dei referti; i progressi della IA stanno invece consentendo di mettere a frutto anche tali dati, non più così “ostici” per i software come è stato fino al recente passato.

Per quanto riguarda la diagnosi per immagini, gli algoritmi di analisi possono rivelare caratteristiche che l’occhio anche esperto non è in grado di valutare: differenze di intensità (così come pattern di pixel, o tessiture) pressoché inapprezzabili sono quantificabili in modo affidabile da strumenti software, che hanno l’ulteriore vantaggio di offrire performance costanti.

Un altro obiettivo sicuramente fattibile per la IA in medicina sarà l’integrazione di dati provenienti da varie fonti: se l’imaging diagnostico (Radiomica derivata da radiologia, medicina nucleare, risonanza magnetica nucleare, ultrasuoni, ..) dà indicazioni sul “fenotipo”, ossia l’insieme delle caratteristiche morfologiche e funzionali di un organismo determinate dall’interazione fra la sua costituzione genetica e l’ambiente (http://www.treccani.it/enciclopedia/fenotipo/), le tecniche di analisi del “genotipo”, ossia la costituzione genetica, patrimonio ereditario di un individuo, forniscono altre informazioni preziose (per es., tramite sequenziamento genetico di un individuo o di un gruppo di popolazione), che possono essere combinate con quelle relative al fenotipo (ad es radiogenomica).

Il “comportamento” del deep learning

Si sta quindi assistendo alla crescita esponenziale dei dati relativi alla salute (e anche al semplice benessere della persona, v. la diffusione dei dispositivi indossabili per la fitness), per cui le tradizionali tecniche di analisi non risultano adatte a gestire in modo soddisfacente tale massa di dati.

Le applicazioni di IA (specialmente il deep learning) sono invece naturalmente predisposte a far fronte a tale esplosione di dati, in quanto funzionano sempre meglio all’aumentare della mole di dati di training, fase necessaria per costruire la rete neurale ottimale per un dato problema clinico.

Come già accennato, il paradigma più comune di IA è raggruppato dalle tecniche di Machine Learning (ML). Fra queste, l’architettura più popolare attualmente è data dal Deep Learning (DL) in cui si usa una rete neurale (NN) di decine o anche centinaia di strati di “neuroni”, o unità elementari di elaborazione.

La complessità delle architetture di DL fa sì che le stesse si comportino come “scatole nere”, per cui è in pratica impossibile individuare il meccanismo esatto per cui il sistema fornisce certe risposte: la risposta del sistema alle sollecitazioni ricevute in fase di training si traduce infatti nel continuo affinamento di una grande quantità di parametri (legati alle interconnessioni fra i “neuroni” della rete), e chiaramente non è possibile – se non con analisi ultraspecialistiche – prevedere il comportamento “macroscopico” della rete (in termini di decisione clinica, per es.) in base al valore di tali parametri che ne costituiscono il substrato “microscopico”.

Le criticità poste dalla black box

Data la grande diffusione delle soluzioni DL, questo problema diventerà in prospettiva sempre più sentito. Va sottolineato come in ambito medico la accountability, o responsabilità, del professionista è di primaria importanza: una qualsiasi decisione medica deve poter essere giustificata a posteriori, possibilmente tramite evidenze oggettive.

Chiaramente, lo stesso deve valere quando alla decisione clinica concorre anche l’esito di un’elaborazione di tipo IA, per cui le architetture “a scatola nera” sono difficilmente compatibili con l’ambito sanitario; inoltre dovendo queste applicazioni software essere certificate, si comprende la criticità di tale procedura a fronte di un algoritmo poco spiegabile.

L’esigenza di avere decisioni cliniche trasparenti, comprensibili e spiegabili si unisce peraltro ai requisiti del nuovo Regolamento europeo sulla protezione dei dati (GDPR), che restringe l’impiego di elaborazioni “opache” dei dati: anche senza l’obbligo di spiegare ogni singolo passo, si ha però la necessità di poter rintracciare le elaborazioni fatte, se eventualmente si rendesse necessario in futuro.

La necessità di una Explainable AI (XAI)

Si sta così affermando per la IA il concetto di Explainable AI (XAI): è importante poter individuare il percorso fatto da un sistema IA per arrivare a certe conclusioni ed essere sicuri che i “ragionamenti” eseguiti siano condivisibili.

Nello specifico delle applicazioni alla salute, l’utilizzo di “scatole nere” certamente pone problematiche non banali quindi nel definire i percorsi di certificazione, di quality assurance, di standardizzazione, per potenziali dispositivi medici basati su DL.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4