soluzioni

Curare i pregiudizi dell’intelligenza artificiale in Sanità: le vie possibili

Si stanno sperimentando programmi o sistemi specifici per annullare o limitare il rischio che l’uso dell’AI peggiori la disparità nell’accesso all’assistenza sanitaria, nella qualità dell’assistenza ricevuta e negli esiti delle cure, ai danni minoranze etniche e i poveri. Ecco gli ultimi studi e proposte

Pubblicato il 03 Ago 2021

Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria

Medicina digitale nelle malattie croniche reumatologiche e dermatologiche: l'approccio multidisciplinare per adottarla

Negli Stati Uniti l‘intelligenza artificiale sta già aumentando il rischio che le minoranze etniche e i poveri subiscano disparità nell’accesso all’assistenza sanitaria, nella qualità dell’assistenza ricevuta e negli esiti delle cure. Tanto che si stanno sperimentando programmi o sistemi specifici per annullare o limitare questo rischio.

In molti paesi del mondo, inoltre, si stanno studiando meccanismi digitali per gestire il sistema sanitario in maniera da renderlo, almeno nelle intenzioni, più trasparente, più equo, meno costoso e più efficiente. La questione va affrontata subito anche in Italia, dato il previsto aumento della diffusione dell’AI in Sanità anche da noi.

I pregiudizi in Sanità per colpa della AI

I rischi e le criticità dell’utilizzo degli algoritmi nella gestione della sanità sono legati soprattutto alla possibilità che le intelligenze artificiali che governano i processi possano sviluppare dei bias che penalizzano o avvantaggiano alcuni soggetti in relazione al sesso, alla razza, all’istruzione o alla religione.

I pregiudizi dell’intelligenza artificiale in Sanità: perché si creano e come prevenirli

Queste considerazioni portano ad inferire che una sanità basata su algoritmi, se non opportunamente gestiti e governati, possa avere come effetto collaterale quello di aumentare le diseguaglianze sociali, aumentando il divario che esiste fra ricchi e poveri e aumentando il divario fra i meno poveri e i più poveri.

Gli studi

Uno studio, pubblicato su Science nel 2019, ha concluso che facendo gestire le scelte sanitarie a degli algoritmi si aveva una più bassa efficienza nell’indirizzare correttamente le i pazienti di colore con esigenze mediche complesse rispetto alle persone di razza bianchi che si trovavano in condizioni simili. In generale questi algoritmi sottostimavano il bisogno di cure degli afroamericani. Di conseguenza un algoritmo ampiamente utilizzato negli ospedali statunitensi per assegnare l’assistenza sanitaria ai pazienti (per capirne l’impatto bisogna specificare che ogni anno viene circa utilizzato per 200 milioni di pazienti) è stato sistematicamente discriminatorio nei confronti delle persone di colore.

Lo sviluppo di bias da parte degli algoritmi di intelligenza artificiale è un fatto noto e ben conosciuto da molto tempo. In generale lo sviluppo di bias discriminatori è legato al set di dati su cui l’algoritmo viene addestrato. Nel caso della sanità è stato dimostrato, ad esempio, che le semplici regole di previsione per le malattie cardiache che vengono utilizzate per le decisioni mediche nei paesi industrializzati sono distorte. Il punteggio di rischio cardiovascolare del Framingham Heart Study funziona infatti molto bene per i pazienti caucasici, ma non riesce ad avere la stessa efficienza per i pazienti afroamericani, cosa che ha delle ricadute importanti sugli esiti delle cure in termini di morbilità e di mortalità e, anche di impatto in termini di costo sul sistema sanitario. Nel campo della genetica si stima, inoltre,  che i dati raccolti per circa l’80% derivano da pazienti di razza caucasica, mentre altri gruppi razziali sono sottorappresentati. Questa sottorappresentazione può essere l’origine di bias quando si utilizzano queste basi dati per addestrare programmi di intelligenza artificiale in campo medico. Quando si applica il deep learning alla gestione di aspetti sanitari è, quindi fondamentale, considerare non solo il tipo di modello utilizzato, ma anche e soprattutto il modello viene addestrato e i dati su cui viene basato l’addestramento. Il problema che, quindi, si pone con forza è quello di come utilizzare l’intelligenza artificiale per ridurre o eliminare i bias nei programmi che gestiscono i servizi sanitari.

La tassonomia contro i pregiudizi dell’AI in Sanità

A tal proposito i ricercatori dell’Università di Chicago hanno elaborato una tassonomia  basata su quattro fasi per diminuire i bias dell’intelligenza artificiale nell’assistenza sanitaria. I quattro step sono:

  1. Fare un inventario di tutti gli algoritmi utilizzati nella loro organizzazione
  2. Fare uno screening di ogni algoritmo in relazione ai bias cercando di verificare ciò che l’algoritmo dovrebbe predire e ciò che effettivamente predice.
  3. Una volta individuate delle discrepanze il terso passo è sospendere l’uso degli algoritmi finché gli errori non vengono corretti.
  4. Sviluppare soluzioni che facciano sì che gli algoritmi sviluppati non contengano pregiudizi impliciti.

Accanto a ciò occorre condurre una seria analisi sulle basi di dati usati per l’addestramento per garantire che non vi siano delle popolazioni o dei sottogruppi che sono più rappresentate di altre.

È, infine, importante anche integrare i dati raccolti con delle osservazioni dirette e con l’ascolto diretto dei pazienti per poter avere dati più aderenti a quella che è la realtà, superando i problemi di pain gap legati alla razza o al sesso che sono spesso una delle cause dello sviluppo di algoritmi discriminanti. Si tratta, quindi, di associare alle tecnologie digitali il vecchio, ma mai obsoleto, metodo clinico dell’osservazione diretta del paziente che non può essere sostituito da nessun algoritmo di deep learning, ma che, se ben usato, in sinergia con le tecnologie di intelligenza artificiale, può portare al successo della sanità digitale.

L’analisi dei bias sviluppati dagli algoritmi in campo sanitario ci fa vedere come un pregiudizio ottimistico nei confronti dell’intelligenza artificiale, che spesso viene presentata come panacea di ogni male, con proprietà taumaturgiche che possono essere estese a tutti i problemi e a tutte le situazioni, è lontano dalla realtà.  L’intelligenza artificiale è uno strumento che deve essere usato con intelligenza, tenendo conto anche dei possibili rischi connessi. Quanto più gli strumenti sono potenti, tanto più vanno maneggiati con cura tenendo conto sia degli effetti collaterali, sia degli effetti inattesi. Una tecnocrazia degli algoritmi rischia di essere iniqua e di aumentare le diseguaglianze e in campo sanitario questo non è tollerabile.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2