User-generated content

I social come fonte di informazione medica: esempi, vantaggi, rischi

L’analisi semantica AI dei contenuti postati sui social può aiutare la ricerca medica a individuare bisogni, mettere in luce errori, fare emergere fake news: le ricerche effettuate, l’importanza della qualità del dato

10 Giu 2022
Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria

social -

L’analisi tramite algoritmi di apprendimento automatico basati sull’intelligenza artificiale permette di estrarre dai social informazioni di carattere medico che sono spesso trascurate o difficili da ottenere quando ci si basa principalmente sui dati dei rapporti medici e sulle cartelle cliniche. Questo è anche un modo per ottenere dati più rapidamente che con i tradizionali studi epidemiologici, che per loro natura richiedono molto tempo per essere completati.

Questa procedura si sta diffondendo negli Usa per esaminare diversi aspetti legati all’ambito sanitario: dagli effetti avversi dei farmaci alle stime dei tassi di suicidio. Ma non mancano critiche e problemi.

Medicina di precisione: come l’IA sta migliorando lo studio delle aritmie

I vantaggi della procedura

Il vantaggio di questa procedura, oltre alla velocità, è quindi quello di poter accedere ad informazioni che vengono rilasciate dagli individui in un contesto particolarmente rilassato e che possono essere differenti da quelle che gli stessi soggetti forniscono durante le visite mediche.

WHITEPAPER
Una guida al deep learning: cos’è, come funziona e quali sono i casi di applicazione
Intelligenza Artificiale
Robotica

Queste informazioni sono sicuramente complementari a quelle delle interviste mediche vere e proprie e, pertanto, sono importanti per integrare quelle già in possesso dei sanitari, ma possono essere molto utili in relazione a quella parte della popolazione che manifesta una certa ritrosia ad affidarsi alle cure dei sanitari.

Potrebbero, inoltre, fare emergere anche delle fake news diffuse in rete rispetto ad alcune patologie o mettere anche in luce degli errori nella gestione delle patologie quando queste vengono curate in automedicazione e senza l’intervento dei sanitari.

Le sperimentazioni effettuate in campo medico

Le sperimentazioni queste metodologie in campo sanitario hanno riguardato diversi aspetti.

Il primo è quello della segnalazione degli effetti avversi dei farmaci. È stato verificato è che i medici spesso tendono a segnalare solo gli effetti collaterali più gravi tralasciando quelli lievi. In questo modo si verifica una sovrarappresentazione degli effetti gravi rispetto quelli lievi, pur sempre fastidiosi e che possono incidere fortemente sulla continuità delle cure. Dall’analisi dei social possono facilmente emergere questi effetti, che spesso vengono raccontati dagli utenti ai loro follower.

In particolare, alla Emory University è stato sviluppato un programma per estrarre dai post dei social media delle informazioni sugli effetti collaterali della buprenorfina, un farmaco per aiutare i consumatori di oppioidi a superare l’astinenza. Lo studio ha mostrato che vi era una preoccupazione tra gli iscritti a Reddit in relazione a dei sintomi estremi di astinenza che si manifestavano nelle persone che facevano uso di fentanyl, una droga che è sempre più mescolata con l’eroina.

In campo oncologico, è stato progettato in Francia un algoritmo di apprendimento automatico per aiutare gli operatori sanitari ad avere informazioni utili a comprendere meglio le esigenze delle donne con il cancro al seno. Il programma ha studiato i problemi che emergevano dalle conversazioni dei pazienti con cancro su Facebook e su cancerdusein.org. I risultati sono stati poi confrontati con le informazioni che potevano essere estratte dal questionario utilizzato dall’Organizzazione Europea per la Ricerca e il Trattamento del Cancro per valutare la qualità della vita dei pazienti con cancro al seno. I ricercatori hanno scoperto che c’erano argomenti di preoccupazione per i pazienti che il questionario non stava affatto esplorando.

Infine, i ricercatori del Centers for Disease Control and Prevention e del Georgia Institute of Technology hanno combinato i dati dei social media e le fonti epidemiologiche più tradizionali nel tentativo di migliorare la precisione e la tempestività delle stime dei tassi di suicidio nazionali e hanno scoperto che con l’utilizzo di questi dati le previsioni diventavano molto più precise e accurate.

Il rischio di database “Frankenstein”

Queste applicazioni sono molto promettenti, tuttavia non bisogna dimenticare che la facilità di uso dello strumento può trarre in inganno e far pensare che basti avere grandi quantità di dati per raggiungere attraverso il deep learning un buon risultato. È la potenza dello strumento a trarre in inganno e a far credere che l’intelligenza artificiale assomigli ad una scatoletta in cui basti inserire dei dati per ricavare un buon risultato.

Spesso con leggerezza si effettua il machine learning con dati non controllati, o non verificati, o di scarsa qualità. Un database di scarsa qualità è già il primo passo verso un fallimento certo.

Lo studio della qualità dei dati e delle condizioni di errore diventa, quindi il prerequisito di ogni ulteriore elaborazione.

Occorre evitare il rischio di creare database “Frankenstein” che derivavano dall’aggregazione di basi di dati diverse, non omogenee e soprattutto costituite da dati raccolti con metodologie e strumenti diversi.

Conclusioni

Se vogliamo, quindi, evitare il fallimento di questi modelli di AI applicati al campo sanitario, dobbiamo cercare una solida metodologia di costruzione e di analisi dei dati, creare dei database standardizzati e far precedere una seria analisi sulla qualità del dato alla costruzione degli algoritmi. È un lavoro certosino e meno gratificante, ma necessario, perché un set di dati di scarsa qualità produce previsioni scadenti e in sanità questo si ripercuote pesantemente sui pazienti.

WHITEPAPER
Clienti soddisfatti e fidelizzati? Ecco come fare un e-commerce di successo!
Big Data
Marketing
@RIPRODUZIONE RISERVATA

Articolo 1 di 4