sanità digitale

Intelligenza artificiale, se il pregiudizio si annida anche nei dispositivi medici: gli esempi

Pulsossimetri, spirometri e anche le mascherine anticovd ormai fondamentali per tutelare la salute degli operatori sanitari e, in generale, dell’intera popolazione mondiale nascondono bias in grado di comprometterne l’efficacia se utilizzati da determinate minoranze etniche. Ecco i pregiudizi più diffusi nei device

20 Gen 2022
Luigi Mischitelli

Privacy & Data Protection Specialist at IRCCS Casa Sollievo della Sofferenza

I pregiudizi (o “bias”) che affliggono diverse ed iper-moderne tecnologie sono diventati un’autentica piaga che mina le fondamenta dell’efficacia dei più disparati dispositivi di ultima generazione. Dispositivi che pur essendo stati creati e preordinati per essere messi a disposizione dell’intero genere umano, si trovano a “fare i conti” sempre più spesso con involontarie (ossia che non dipendono dall’uomo) discriminazioni su base etnica e su base di genere. E quando ci si trova dinanzi a tecnologie che mirano a monitorare e – in genere – a tutelare la salute dei pazienti, ecco che i pregiudizi assurgono a un livello più alto di gravità (che va assolutamente evitato).

Nel Regno Unito, ad esempio, il Dipartimento alla Salute ha predisposto diverse azioni di contrasto al razzismo sistemico nonché ai pregiudizi di genere che infestano i dispositivi medici impiegati oltremanica, con alcune particolari tecnologie che sono state maggiormente poste sotto la lente di ingrandimento. Vediamole insieme.

Educhiamo l’algoritmo alla diversità per eliminare i pregiudizi

Pulsossimetri

I pulsossimetri, strumenti che stimano la quantità di ossigeno nel sangue di una persona, sono strumenti cruciali nel determinare quali pazienti affetti da Covid-19 possono avere bisogno di cure ospedaliere o meno. I pulsossimetri sono fondamentali quando si ha a che fare con pazienti non consci di avere livelli pericolosamente bassi di ossigeno nel sangue. Tuttavia, tali dispositivi hanno visto il sollevarsi di talune preoccupazioni poiché sembrerebbero funzionare meno bene in presenza di pazienti con pelle più scura[1]. Invero, secondo l’agenzia del Dipartimento alla Salute britannico “Medicines and Healthcare products Regulatory Agency” i pulsossimetri potrebbero sovrastimare la quantità di ossigeno nel sangue in tali pazienti. Secondo l’Agency, infatti, tali dispositivi sono stati progettati per le persone di etnia caucasica. Ed è stato notato, di conseguenza, che i soggetti di etnia non caucasica avevano meno probabilità – a detta del dispositivo – in deficit di ossigeno nel sangue. Gli esperti britannici ritengono che tali imprecisioni nei pulsossimetri potrebbero essere state una delle ragioni per cui i tassi di mortalità britannici sono stati più alti tra le persone appartenenti a minoranze etniche; anche se non è esclusa la compresenza di altri fattori che avrebbero potuto giocare un ruolo “di rilievo” nei decessi, come gli impieghi con maggiore esposizione al Covid-19 (si pensi al personale del settore sanitario).

WHITEPAPER
Sanità: quali le applicazioni di AI in radiologia, oncologia e cardiologia?
Intelligenza Artificiale
Sanità

Mascherine anti-covid-19

Le ancora iper-famose e variegate mascherine anti-Covid-19 sono ancora fondamentali per tutelare la salute degli operatori sanitari e, in generale, dell’intera popolazione mondiale, contribuendo notevolmente a frenare l’avanzata della pandemia. E al fine di offrire la massima protezione per la persona che la indossa, le mascherine con filtro (FFP) devono adattarsi correttamente al volto dell’interessato. Una ricerca australiana del 2020[2], però, ha dimostrato che le mascherine di tipo N95, FFP2 e FFP3 non si adattano bene alle persone di tutte le etnie. Infatti i tassi di vestibilità – fondamentale per non permettere il passaggio del virus – variano tra il 40% e il 90% e sono risultati particolarmente bassi nelle donne e negli operatori sanitari di etnia asiatica. Una ricerca più recente della britannica University of Southampton[3], dello scorso settembre 2021, ha rilevato che gli studi sulla vestibilità di tali dispositivi di protezione individuali si concentrano in gran parte su popolazioni caucasiche, ovvero su una sola etnia. Comportando de facto un nocumento non irrilevante per le persone delle restanti etnie.

Spirometria e pletismografia

Gli spirometri sono strumenti che servono a misurare la funzionalità respiratoria dei pazienti. E anche qui sono sorte alcune perplessità[4] circa la presenza di pregiudizi razziali nell’interpretazione dei dati raccolti da tali dispositivi. In particolare, è stato scoperto che taluni spirometri presumono che gli afroamericani e gli asiatici abbiano una capacità polmonare inferiore rispetto ai caucasici; presunzione questa (basata su imprecisi studi precedenti) che può costare la vita di migliaia di persone. Di conseguenza, i fattori di correzione sono applicati al momento dell’interpretazione dei dati dello spirometro; una situazione che può, peraltro, influenzare sull’ordine in cui i pazienti sono trattati. In assenza di una correzione, infatti, la capacità polmonare di una persona di etnia afroamericana potrebbe essere misurata come inferiore rispetto a quella di una persona di etnia caucasica, con gravi pericoli per la sua vita. Dopo la correzione, a una capacità polmonare di base inferiore, i piani di trattamento darebbero la priorità alla persona di etnia caucasica, perché il dispositivo si aspetta che una persona afroamericana abbia una capacità polmonare inferiore; talché la sua capacità polmonare deve essere molto più bassa di quella di una persona di etnia caucasica prima che la sua riduzione sia considerata una priorità. Un’altra area che potrebbe essere influenzata da pregiudizi razziali è la pletismografia a distanza, una tecnologia – per la valutazione dei volumi polmonari – in cui le pulsazioni sono misurate guardando i cambiamenti nel colore della pelle “catturati” da un video. Tali spunti visivi potrebbero potenzialmente essere influenzati dal contenuto di melanina sotto la superficie epidermica e, quindi, dal colore della pelle del paziente.

I sistemi di intelligenza artificiale

L’applicazione dell’intelligenza artificiale al settore dell’assistenza sanitaria è sempre più evoluta ed efficace, preordinata ad aiutare i professionisti a diagnosticare le condizioni di salute dei loro pazienti. Tuttavia (e ciò, ormai, è risaputo), tale tecnologia è affetta da sempre da potenziali pregiudizi razziali e di genere che possono colpire larga parte della popolazione mondiale. Tali preoccupazioni sono state recentemente sollevate in relazione ai sistemi di intelligenza artificiale impiegati per la diagnosi dei tumori della pelle[5]. Il potenziale dell’Intelligenza artificiale ha portato a sviluppi nella sanità, con alcuni studi che suggeriscono come la tecnologia di riconoscimento delle immagini basata su algoritmi di apprendimento automatico può classificare i tumori della pelle con lo stesso successo degli “esperti umani”. Ma i ricercatori dicono che bisogna fare di più per garantire che la tecnologia vada a beneficio di tutti i pazienti, dopo aver scoperto che ben pochi database di immagini, che potrebbero essere utilizzati per sviluppare o “addestrare” sistemi di Intelligenza artificiale per la diagnosi del cancro della pelle, contengono informazioni sull’etnia o sul tipo di pelle. I database che contengono tali informazioni, infatti, possiedono pochissime immagini di persone con la pelle scura. Secondo i ricercatori britannici, si potrebbe avere una situazione in cui le autorità competenti permettano di utilizzare un algoritmo addestrato solo su immagini di persone con la pelle chiara e per questa tipologia di individui (così da escludere alcune etnie dagli algoritmi che sono approvati per uso clinico). Oppure le autorità competenti potrebbero dare il nulla osta all’utilizzo di tale algoritmo “pregiudizievole” su tutti i pazienti, avvertendo gli utilizzatori che lo stesso potrebbe non funzionare con la stessa precisione per tutte le etnie (che non possiedono così tante immagini coinvolte nell’addestramento dell’algoritmo). E questo potrebbe portare ad altri problemi, come il rischiare interventi chirurgici evitabili oppure evitare di curare tumori, per l’appunto, curabili. In definitiva è chiaro che meno l’algoritmo si addestra su determinate etnie, più non è in grado di riconoscerle. Con tutte le prevedibili conseguenze del caso.[6]

Note

  1. Covid: Pulse oxygen monitors work less well on darker skin, experts say. BBC. https://www.bbc.com/news/health-58032842
  2. The role of fit testing N95/FFP2/FFP3 masks: a narrative review. Association of Anaesthetists. https://associationofanaesthetists-publications.onlinelibrary.wiley.com/doi/full/10.1111/anae.15261
  3. The influence of gender and ethnicity on facemasks and respiratory protective equipment fit: a systematic review and meta-analysis. British Medical Journal. https://gh.bmj.com/content/bmjgh/6/11/e005537.full.pdf
  4. Achieving fairness in medical devices. Science. https://www.science.org/doi/10.1126/science.abe9195
  5. Characteristics of publicly available skin cancer image datasets: a systematic review. The Lancet. https://www.thelancet.com/journals/landig/article/PIIS2589-7500(21)00252-1/fulltext
  6. From oximeters to AI, where bias in medical devices may lurk. The Guardian. https://www.theguardian.com/society/2021/nov/21/from-oximeters-to-ai-where-bias-in-medical-devices-may-lurk

@RIPRODUZIONE RISERVATA

Articolo 1 di 3