Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

il bilancio

AI in medicina, tra vantaggi e rischi: la sfida dei Governi sarà tutelare i diritti di tutti

Le evidenze e le notizie di cronaca parlano chiaro: l’uso dell’intelligenza artificiale in Sanità ha un valore ambivalente. Sosterrà il nostro diritto alla cura, ma minaccia altri diritti civili, di privacy e non discriminazione. Riuscirà il legislatore a trovare la quadra tra le due istanze?

29 Nov 2019
Domenico Marino

Università degli Studi Mediterranea di Reggio Calabria


Un numero sempre maggiore di lavori in letteratura mostra come si possano con successo impiegare tecniche di Intelligenza Artificiale (AI) e Machine Learning (ML) per la risoluzione di problemi in ambito biomedicale.

Eppure sono vantaggi che rischiano di essere soffocati dai rischi che, con altrettanta frequenza, continuano a emergere riguardo all’uso di AI in Sanità. 

In ballo c’è l’equilibrio fra due classi di diritti.

Da una parte, quello alla cura, certo favorito dall’AI, soprattutto in uno scenario di invecchiamento della popolazione che può mettere in crisi i sistemi sanitari nazionali. Dall’altra, una gamma di diritti civili (privacy, non discriminazione…) che invece l’AI potrebbe minacciare.

Gestire la complessità di questo equilibrio sarà una delle sfide più importanti che il legislatore è chiamato ad affrontare.

AI e Sanità, alcuni utilizzi tra i più promettenti

Cominciamo dai vantaggi. Tra i molti casi di studio vi sono lavori sull’analisi del tracciato elettroencefalografico per realizzare paradigmi Brain-Computer Interface (BCI) per l’interpretazione dei pattern di attività cerebrale, i numerosi esempi di applicazioni nel campo della interpretazione di tracciati elettrocardiografici, nella previsione di eventi di scompenso cardiaco, nel diabete fino all’impiego di moderne tecniche di visione artificiale come ausilio alla diagnosi in ambito di immagini medicali. Questi risultati sono indispensabili per progettare le strategie di interazione con le pratiche cliniche correnti ed i sistemi sanitari, sia per l’acquisizione e il trattamento dei dati clinici e genetici di interesse e sia per l’integrazione dei risultati dell’elaborazione dei modelli nei protocolli e nelle infrastrutture di gestione dei sistemi.

Il monitoraggio dello stato di salute, la prevenzione di situazioni critiche e il supporto ad attività quotidiane rappresentano un ambito applicativo emergente a livello nazionale, con particolare riferimento alle persone fragili, anziane e con patologie croniche: tra queste, rientrano quelle legate malattie diabetiche e autoimmuni. In quest’ottica riveste particolare importanza la prevenzione del declino funzionale e la cura della fragilità fisica e cognitiva e lo sviluppo di soluzioni per la vita indipendente, attraverso anche lo studio di nuovi modelli diagnostici e strumenti di monitoraggio in grado di prevedere il rischio clinico e ridurre nel contempo la spesa sanitaria e assistenziale.

Un tema importante da esplorare entro la fine di questo decennio è come le tecnologie dell’Intelligenza artificiale applicate al contesto sanitario possono incrementare ulteriormente la qualità dell’attuale sistema e se gli odierni sforzi sono ottimizzati e sufficienti per il raggiungimento di nuovi obiettivi. In particolare la capacità di elaborazione di grandi quantità di dati catalizzerà un elevatissimo numero di benefici in ambito sanitario e del wellness a scopo di prevenzione, diagnosi, cura dell’individuo.

I rischi dell’intelligenza artificiale in Sanità

Ma questa ipotesi futurista non è scevra da rischi. Le criticità dell’utilizzo degli algoritmi nella gestione dei sistemi sanitari sono legate alla possibilità che le intelligenze artificiali che governano i processi valutativi legati alla sanità digitale possano sviluppare dei bias che penalizzano o avvantaggiano alcuni soggetti in relazione al sesso, alla razza, all’istruzione, alla religione o all’orientamento politico.

Queste considerazioni portano ad inferire che un sistema di sanità digitale possa aumentare le diseguaglianze sociali, aumentando il divario che esiste fra ricchi e poveri e aumentando il divario fra i meno poveri e i più poveri.

Paradossalmente in questo caso è proprio l’estrema potenza dell’algoritmo a costituire un punto di debolezza.

Discriminazione delle minoranze

I sistemi sanitari degli Stati Uniti si basano su algoritmi di previsione per individuare i pazienti con esigenze sanitarie complesse. In un articolo apparso Science Magazine si dimostra che un algoritmo ampiamente utilizzato, e che riguarda milioni di pazienti, presenta un significativo pregiudizio razziale: a un dato punteggio di rischio, i pazienti neri risultano avere degli score considerevolmente più elevati dei pazienti bianchi, con una conseguente sovrastima dei costi per il sistema sanitario.

Rimediare a questa disparità aumenterebbe la percentuale di pazienti neri che ricevono ulteriore aiuto dal 17,7 al 46,5%. Questo bias razziale riduce, quindi, di oltre la metà il numero di pazienti neri che vengono individuati come bisognosi di trattamenti complessi. La distorsione si verifica perché l’algoritmo utilizza i costi sanitari come proxy per le esigenze di cura. Di conseguenza vengono spesi meno soldi per i pazienti neri che hanno lo stesso livello di necessità. Riformulare l’algoritmo in modo che non utilizzi più i costi come proxy per i bisogni potrebbe eliminare il pregiudizio razziale nel prevedere chi ha bisogno di cure extra. Un accesso disuguale alle cure significa che si spendono meno soldi per i pazienti neri rispetto ai pazienti bianchi.

L’analisi di questo caso ci fa vedere come un atteggiamento ottimistico nei confronti dell’intelligenza artificiale, che spesso viene presentata come panacea di ogni male, con proprietà taumaturgiche che possono essere estese a tutti i problemi e a tutte le situazioni, è lontano dalla realtà. L’intelligenza artificiale è uno strumento che deve essere usato con intelligenza, tenendo conto anche dei possibili rischi connessi.

Quanto più gli strumenti sono potenti, tanto più vanno maneggiati con cura tenendo conto sia degli effetti collaterali, sia degli effetti inattesi. Una tecnocrazia degli algoritmi rischia di essere iniqua e di aumentare le diseguaglianze. Certamente l’idea di eliminare l’empatia legata al fattore umano apparentemente rende più efficienti i sistemi di contrasto della povertà, ma in realtà ne fa perdere solamente il contenuto di umanità che, forse, costituisce un elemento essenziale e insostituibile per la buona riuscita del processo.

I rischi privacy

Un ulteriore aspetto problematico è costituito dalla gestione di un insieme di big data sanitari in maniera tale da garantire la privacy e il loro corretto utilizzo. In relazione a quest’ultimo punto sarà necessario costruire una regulatory compliance capace di assicurare una protezione e tutela del dato sanitario in relazione alla quale è stato elaborato un modello generale che tiene conto delle norme contenute nel Regolamento 2016/679/UE entrato in vigore nel 2018 e che passa attraverso la standardizzazione dei processi e la costruzione di metriche e protocolli sicuri per la condivisione e l’elaborazione delle informazioni.

Un’inchiesta uscita in questi giorni del Wall Street Journal ha messo in luce che Google ha raccolto segretamente milioni di record di pazienti in 21 stati per conto di un fornitore di assistenza sanitaria nell’ambito di un progetto colossale soprannominato “Project Nightingale”. Né i medici, né i pazienti sono stati messi al corrente di questo trattamento di dati.

I dati raccolti nel programma includono secondo il Wall Strett Journal racchiudono “risultati di laboratorio, diagnosi mediche e registri di ricovero, tra le altre categorie, e equivalgono a una storia sanitaria completa, completa di nomi e date di nascita dei pazienti”, sono inoltre più di i dipendenti di Google almeno in linea teorica potrebbero aver avuto accesso ai dati.

Google si è giustificata affermando che, è una prassi standard in sanità quella di condividere dati e documenti sanitari per loro natura estremamente sensibili con gli operatori tecnologici utilizzando i dati medici privati de​​i pazienti senza richiedere la notifica del trattamento.

Ma questa giustificazione appare molto debole. La realtà è che i dati sanitari costituiscono una miniera d’oro che nel Far West attuale della normativa le imprese non si fanno scrupolo a sfruttare.

Le norme devono correre in avanti

La necessità che i gestori di dati siano dissuasi dall’utilizzo improprio dei dati da loro posseduti diventerà più rilevante con la tecnologia 5G che, permettendo una connessione continua, amplierà considerevolmente il numero dei soggetti che detengono e trattano dati e informazioni personali. Dati che hanno un valore economico rilevante e il cui uso improprio può essere fonte di grandi vantaggi economici e non. Occorre, quindi, che la legislazione si adegui in fretta a questi cambiamenti, prevedendo sanzioni certe, rilevanti e crescenti per l’uso improprio dei dati personali per evitare che una sanzione troppo bassa o facilmente eludibile incentivi i trattamenti illeciti dei dati personali che potenzialmente sono una miniera d’oro da sfruttare.

In questo senso vanno anche valutate tutte le politiche di acquisizione fra imprese che operano o detengono big data. L’eccessiva concentrazione di potere legato al possesso dei dati è un pericolo, sia dal punto di vista della possibilità di distorcere il mercato, sia in senso più ampio per la possibilità di erodere le libertà civili.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4