Curare i pregiudizi dell'intelligenza artificiale in Sanità: le vie possibili - Agenda Digitale

soluzioni

Curare i pregiudizi dell’intelligenza artificiale in Sanità: le vie possibili

Si stanno sperimentando programmi o sistemi specifici per annullare o limitare il rischio che l’uso dell’AI peggiori la disparità nell’accesso all’assistenza sanitaria, nella qualità dell’assistenza ricevuta e negli esiti delle cure, ai danni minoranze etniche e i poveri. Ecco gli ultimi studi e proposte

03 Ago 2021
Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria

Negli Stati Uniti l‘intelligenza artificiale sta già aumentando il rischio che le minoranze etniche e i poveri subiscano disparità nell’accesso all’assistenza sanitaria, nella qualità dell’assistenza ricevuta e negli esiti delle cure. Tanto che si stanno sperimentando programmi o sistemi specifici per annullare o limitare questo rischio.

In molti paesi del mondo, inoltre, si stanno studiando meccanismi digitali per gestire il sistema sanitario in maniera da renderlo, almeno nelle intenzioni, più trasparente, più equo, meno costoso e più efficiente. La questione va affrontata subito anche in Italia, dato il previsto aumento della diffusione dell’AI in Sanità anche da noi.

I pregiudizi in Sanità per colpa della AI

I rischi e le criticità dell’utilizzo degli algoritmi nella gestione della sanità sono legati soprattutto alla possibilità che le intelligenze artificiali che governano i processi possano sviluppare dei bias che penalizzano o avvantaggiano alcuni soggetti in relazione al sesso, alla razza, all’istruzione o alla religione.

WEBINAR
27 Ottobre 2021 - 16:30
FORUM PA 2021- Sanità: con i Big Data nuovo modello di salute connessa e predittiva
Big Data
Intelligenza Artificiale

I pregiudizi dell’intelligenza artificiale in Sanità: perché si creano e come prevenirli

Queste considerazioni portano ad inferire che una sanità basata su algoritmi, se non opportunamente gestiti e governati, possa avere come effetto collaterale quello di aumentare le diseguaglianze sociali, aumentando il divario che esiste fra ricchi e poveri e aumentando il divario fra i meno poveri e i più poveri.

Gli studi

Uno studio, pubblicato su Science nel 2019, ha concluso che facendo gestire le scelte sanitarie a degli algoritmi si aveva una più bassa efficienza nell’indirizzare correttamente le i pazienti di colore con esigenze mediche complesse rispetto alle persone di razza bianchi che si trovavano in condizioni simili. In generale questi algoritmi sottostimavano il bisogno di cure degli afroamericani. Di conseguenza un algoritmo ampiamente utilizzato negli ospedali statunitensi per assegnare l’assistenza sanitaria ai pazienti (per capirne l’impatto bisogna specificare che ogni anno viene circa utilizzato per 200 milioni di pazienti) è stato sistematicamente discriminatorio nei confronti delle persone di colore.

Lo sviluppo di bias da parte degli algoritmi di intelligenza artificiale è un fatto noto e ben conosciuto da molto tempo. In generale lo sviluppo di bias discriminatori è legato al set di dati su cui l’algoritmo viene addestrato. Nel caso della sanità è stato dimostrato, ad esempio, che le semplici regole di previsione per le malattie cardiache che vengono utilizzate per le decisioni mediche nei paesi industrializzati sono distorte. Il punteggio di rischio cardiovascolare del Framingham Heart Study funziona infatti molto bene per i pazienti caucasici, ma non riesce ad avere la stessa efficienza per i pazienti afroamericani, cosa che ha delle ricadute importanti sugli esiti delle cure in termini di morbilità e di mortalità e, anche di impatto in termini di costo sul sistema sanitario. Nel campo della genetica si stima, inoltre,  che i dati raccolti per circa l’80% derivano da pazienti di razza caucasica, mentre altri gruppi razziali sono sottorappresentati. Questa sottorappresentazione può essere l’origine di bias quando si utilizzano queste basi dati per addestrare programmi di intelligenza artificiale in campo medico. Quando si applica il deep learning alla gestione di aspetti sanitari è, quindi fondamentale, considerare non solo il tipo di modello utilizzato, ma anche e soprattutto il modello viene addestrato e i dati su cui viene basato l’addestramento. Il problema che, quindi, si pone con forza è quello di come utilizzare l’intelligenza artificiale per ridurre o eliminare i bias nei programmi che gestiscono i servizi sanitari.

La tassonomia contro i pregiudizi dell’AI in Sanità

A tal proposito i ricercatori dell’Università di Chicago hanno elaborato una tassonomia  basata su quattro fasi per diminuire i bias dell’intelligenza artificiale nell’assistenza sanitaria. I quattro step sono:

  1. Fare un inventario di tutti gli algoritmi utilizzati nella loro organizzazione
  2. Fare uno screening di ogni algoritmo in relazione ai bias cercando di verificare ciò che l’algoritmo dovrebbe predire e ciò che effettivamente predice.
  3. Una volta individuate delle discrepanze il terso passo è sospendere l’uso degli algoritmi finché gli errori non vengono corretti.
  4. Sviluppare soluzioni che facciano sì che gli algoritmi sviluppati non contengano pregiudizi impliciti.

Accanto a ciò occorre condurre una seria analisi sulle basi di dati usati per l’addestramento per garantire che non vi siano delle popolazioni o dei sottogruppi che sono più rappresentate di altre.

È, infine, importante anche integrare i dati raccolti con delle osservazioni dirette e con l’ascolto diretto dei pazienti per poter avere dati più aderenti a quella che è la realtà, superando i problemi di pain gap legati alla razza o al sesso che sono spesso una delle cause dello sviluppo di algoritmi discriminanti. Si tratta, quindi, di associare alle tecnologie digitali il vecchio, ma mai obsoleto, metodo clinico dell’osservazione diretta del paziente che non può essere sostituito da nessun algoritmo di deep learning, ma che, se ben usato, in sinergia con le tecnologie di intelligenza artificiale, può portare al successo della sanità digitale.

L’analisi dei bias sviluppati dagli algoritmi in campo sanitario ci fa vedere come un pregiudizio ottimistico nei confronti dell’intelligenza artificiale, che spesso viene presentata come panacea di ogni male, con proprietà taumaturgiche che possono essere estese a tutti i problemi e a tutte le situazioni, è lontano dalla realtà.  L’intelligenza artificiale è uno strumento che deve essere usato con intelligenza, tenendo conto anche dei possibili rischi connessi. Quanto più gli strumenti sono potenti, tanto più vanno maneggiati con cura tenendo conto sia degli effetti collaterali, sia degli effetti inattesi. Una tecnocrazia degli algoritmi rischia di essere iniqua e di aumentare le diseguaglianze e in campo sanitario questo non è tollerabile.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4