Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

lo scenario

Intelligenza artificiale in Sanità, ecco tutti i nodi da sciogliere

Le premesse per un uso esteso dell’intelligenza artificiale in sanità ci sono. Eppure stenta a decollare. Perché? Ecco i motivi, di cui si comincia a discutere in Italia anche attraverso un Manifesto per una Sanità intelligente

06 Nov 2017

Eugenio Santoro, responsabile laboratorio informatica medica - Istituto di Ricerche “Mario Negri”


L’Intelligenza artificiale da alcuni anni interessa anche l’ambito sanitario. Attraverso le metodiche di interpretazione dei dati offerte dai nuovi sistemi di intelligenza artificiale oggi è possibile sviluppare modelli predittivi (con evidenti vantaggi in ottica di prevenzione), effettuare diagnosi precoci (così da poter agire tempestivamente con le cure più appropriate), creare ambienti basati su chatbot in grado di fornire le giuste informazioni ai pazienti e così accompagnarli nel loro processo di cura, o identificare molecole (tra le tante che la ricerca di base propone) sulle quali puntare nel passaggio dal laboratorio alla clinica.

IBM Watson, per esempio, oggi accompagna il lavoro degli oncologi di oltre 50 centri ospedalieri sparsi in tutto il mondo. Il sistema di cognitive computing, istruito dai medici dello Sloan Kettering Cancer Center di New York, supporta il lavoro degli oncologi confrontando i dati del paziente con la letteratura prodotta della riviste mediche, le linee guida sviluppate dalle associazioni scientifiche internazionali e lo “storico” di casi simili affrontati in passato per identificare una diagnosi e proporre la cura più appropriata.

L’Italia ben si difende in questo ambito perché ha ottime professionalità nella università, nei centri di ricerca, nelle aziende e negli ospedali che nulla hanno da invidiare ai grandi colossi dell’informatica.

Le premesse per un uso esteso dell’intelligenza artificiale in sanità ci sono. Eppure stenta a decollare. Perché?

Una prima ragione riguarda la carenza di studi clinici che ne dimostrino l’affidabilità e la maggiore efficacia rispetto ai sistemi tradizionali nel fare previsioni, diagnosi o nel suggerire terapie appropriate. Nessuno studio clinico randomizzato (i cosiddetti randomized clinical trial – la metodologia di ricerca considerata oggi tra le più solide dal punto di vista statistico) è stato pubblicato,  e ciò crea una certa diffidenza da parte dei medici al loro impiego e un limite da parte dei decision maker alla loro adozione. Una maggiore cultura (da parte dei produttori di sistemi di intelligenza artificiale e delle istituzioni) nei confronti della ricerca medica e una maggiore disponibilità a investire in questo ambito potrebbe aiutare a uscire da questa situazione di stallo

C’è poi il problema delle attribuzioni di responsabilità in caso di errori medici (su un sistema di intelligenza artificiale sbaglia una diagnosi di chi è la colpa? Di chi lo ha sviluppato? Di chi lo ha distribuito? Del medico che ha preso la decisione?). Su questo aspetto probabilmente il legislatore dovrebbe prendere posizione chiara.

Un altro capitolo riguarda la tutela della privacy e della sicurezza. In questo ambito esiste un accordo unanime sul fatto che l’implementazione dell’intelligenza artificiale debba essere accompagnata da una riflessione attenta del legislatore che sappia garantire una reale tutela dei diritti dei cittadini e dei pazienti. Tra le varie questioni aperte, una riguarda, per l’esempio, il consenso al trattamento dei dati sanitari personali ad opera di sistemi di intelligenza artificiale. Non si tratta di una questione secondaria, come dimostra il recente stop ad una iniziativa congiunta Google DeepMind e National Health Service inglese (NHS) avvenuto proprio perché i pazienti non erano stati correttamente informati su come i propri dati sarebbe stati impiegati.

E infine c’è la questione etica, che non si limita al solo problema della inrvitabile perdita di posti di lavoro (anche se sarebbe più corretto parlare di trasformazione dei posti di lavoro), ma che potrebbero condurci a scenari fantascientifici nei quali, per esempio, due sistemi di intelligenza artificiale iniziano a parlare tra loro una lingua sconosciuta all’uomo.

Sembra fantascienza, ma è successo di recente in un esperimento che Facebook ha deciso di sospendere.

Su questi temi si è espresso di recente un gruppo di stakeholder di rilievo del mondo sanitario e digitale (composto da associazioni di pazienti, istituti di ricerca, società scientifiche, aziende produttrici di sistemi di Intelligenza Artificiale) attraverso la pubblicazione di un Manifesto per una Sanità intelligente articolato in 8 princìpi e altrettante linee d’azione. Il Manifesto è accessibile online ed è aperto ai contributi di chiunque vorrà arricchirlo nelle prossime settimane.

Articoli correlati