Negli ultimi tempi le big tech, dopo aver portato milioni di utenti a utilizzare le loro chatbot per svariati usi e motivi, sono andate oltre: ora vogliono i dati più sensibili, come quelli sanitari.
È un salto di qualità che apre interrogativi enormi su privacy, affidabilità e potere. Perché quando l’intelligenza artificiale entra nel campo della salute, in gioco non ci sono solo servizi più efficienti, ma informazioni che possono esporre le persone a rischi concreti.
Indice degli argomenti
Il nuovo business delle chatbot sanitarie
Microsoft, con Copilot Health, è l’ultima azienda tecnologica a gettarsi nel mercato della salute dopo Amazon con Health AI, ChatGPT Health di OpenAI e Claude for Healthcare di Anthropic.
Le chatbot basate sull’IA di queste aziende sono al centro di grandi preoccupazioni per aver contribuito a psicosi, isolamento e abitudini malsane in molti utenti, tanto che negli USA si sono formati comitati di genitori che, come nel caso dei social media, si stanno mobilitando per ottenere una regolamentazione specifica o per rivolgersi ai tribunali.
Quello della salute è certamente un terreno ancora più delicato. I medici interpellati dal New York Times sono del parere che questi strumenti potrebbe avere dei vantaggi, come ad esempio aiutare le persone a comprendere meglio il proprio stato di salute in un momento in cui l’assistenza sanitaria sta diventando sempre più inaccessibile. E questo vale per gli Stati Uniti, innanzitutto, ma sempre di più, purtroppo, anche per il nostro Paese, se non cambieranno le politiche sulla Sanità pubblica.
Tuttavia, la condivisione delle cartelle cliniche con le aziende tecnologiche comporta ovvi rischi per la privacy, certo non in Europa dove la legislazione tutela i dati sensibili in modo molto più efficace. Altro problema: le chatbot potrebbero suggerire visite mediche non necessarie.
I potenziali benefici dei chatbot per la salute secondo Microsoft
Le cartelle cliniche sono difficili da consultare per i pazienti, perché le informazioni sono solitamente contenute in diversi database utilizzati da differenti operatori sanitari. L’intelligenza artificiale potrebbe contribuire a collegare questi dati e quelli provenienti dai dispositivi (sopra elencati) per il fitness dell’utente. Secondo Microsoft, un medico impiegherebbe ore per esaminare manualmente la cartella clinica e i dati dei dispositivi di una persona per avere un quadro generale del suo stato di salute. Copilot Health potrebbe farlo in pochi secondi: “Si tratta di fornire informazioni e dati sulla storia clinica dei pazienti, aiutandoli ad affrontare sfide complesse e un sistema altrettanto complesso”, ad avviso di Dominic King, vicepresidente della divisione AI di Microsoft per il settore sanitario. Con l’aumento dei costi dell’assistenza sanitaria, molti americani stanno rinunciando alla copertura assicurativa. Un chatbot basato sull’intelligenza artificiale potrebbe rappresentare una soluzione economica per aiutare le persone a prestare maggiore attenzione alla propria salute.
Privacy, cyberattacchi e uso improprio dei dati
Negli ultimi anni, sono stati tanti gli attacchi informatici a strutture e sistemi sanitari. La centralizzazione delle cartelle, con dati di grande valore, raccolti in un unico luogo e accessibili a tutti, favorisce attacchi mirati e molto più devastanti. Inoltre, i dati sanitari potrebbero rivelare condizioni di salute che la persona colpita vorrebbe mantenere private.
L’Electronic Frontier Foundation (EFF), organizzazione no-profit per i diritti digitali, vede pericoli provenienti dall’altra parte della barricata: le forze dell’ordine potrebbero rivolgersi a Microsoft, anziché a più fornitori, per entrare in possesso dei dati di una persona. Ad esempio, una donna che cerca assistenza sanitaria in uno stato in cui l’aborto è vietato sarebbe esposta a maggiori rischi. Negli Stati Uniti, inoltre, dal 1996 vige l’Health Insurance Portability and Accountability Act (HIPAA, Legge su Portabilità e Responsabilità dell’Assicurazione Sanitaria). Essa impone agli operatori sanitari di proteggere la privacy dei pazienti. Ma le aziende tecnologiche, anche quando offrono servizi simili, non sono operatori sanitari; quindi, la legge del 1996 non può essere ad esse applicata e potrebbero, ad esempio, utilizzare le informazioni per addestrare la propria intelligenza artificiale o mostrare annunci pubblicitari relativi alle condizioni di salute dell’utente.
Su questo punto molto delicato Microsoft (per quello che può valere visto quanto sempre successo) ha assicurato che i dati sanitari degli utenti saranno crittografati e non verranno utilizzati per tali scopi. Ha inoltre affermato di fornire alle forze dell’ordine l’accesso ai dati dei clienti solo in risposta a richieste legali valide.
Perché i chatbot per la salute non sostituiscono un medico
“Copilot Health ha lo scopo di aiutare le persone a comprendere il proprio stato di salute e a prepararsi per le visite mediche, non di sostituire la competenza di un medico”, afferma Microsoft, e “non fa diagnosi, non opera per trattare o prevenire malattie”. Tuttavia, visto l’uso che gli utenti fanno delle chatbot in tutto il mondo, incluso quello di considerarle “migliori amici”, è improbabile che gli utenti non si rivolgano a loro per ottenere diagnosi e consigli.
Uno studio suggerisce che le chatbot non sono ancora pronte per questa responsabilità. La ricerca ha analizzato diversi chatbot, tra cui quelli di OpenAI e Meta. È emerso che non sono più efficaci di una ricerca sul web nel guidare gli utenti verso diagnosi corrette o nell’aiutarli a capire cosa fare. Si sono già verificati casi eclatanti di informazioni errate, o di consigli totalmente cambiati variando di poco il prompt. Ad esempio, un uomo di 60 anni è stato ricoverato per settimane in un reparto psichiatrico dopo che ChatGPT gli aveva suggerito di ridurre il consumo di sale assumendo bromuro di sodio, causandogli paranoia e allucinazioni.
OpenAI ha affermato che la versione attuale di ChatGPT è significativamente più efficace nel rispondere a domande sulla salute rispetto al modello, ora dismesso, testato nello studio. Alcune nuove ricerche suggeriscono che persino i modelli personalizzati in base alle domande degli utenti sulla salute, come ChatGPT Health, presentano dei rischi. Un esperimento condotto usando un modello del genere ha avuto come esito che la chatbot non ha raccomandato il pronto soccorso a un’ipotetica persona affetta da insufficienza respiratoria. Altro esempio: per una chatbot un mal di testa da sinusite potrebbe far sospettare una patologia più grave, come un tumore al cervello, generando ansia e spingendo a una visita medica non necessaria.
Alcuni colloqui tra pazienti e ChatGPT Health
A una 26enne le analisi del sangue hanno rivelato degli squilibri ormonali. Per avere rassicurazioni immediate non ha aspettato di parlare col suo medico, ma ha immesso il referto su ChatGPT. La chatbot le ha risposto che i risultati delle analisi potevano indicare diverse patologie, ma che “molto probabilmente” si trattava di un tumore ipofisario o di una rara condizione legata ai tumori ipofisari. L’interessata ha chiesto: “Quindi, tenendo conto di tutto ciò, qual è la mia diagnosi?”. ChatGPT: Considerazioni diagnostiche più probabili
• Microadenoma ipofisario misto (a doppia secrezione)
• Acromegalia in fase iniziale o subclinica.
Le ipotesi di ChatGPT Health non erano del tutto infondate — il medico ha prescritto alla paziente una risonanza magnetica per verificare — ma erano sbagliate: nessun tumore rilevato.
Il caso dell’uomo di 63 anni e lo stent
Un uomo di 63 anni ha caricato su ChatGPT la documentazione relativa a cinque anni della sua storia clinica, inclusa quella di una patologia cardiaca e di un precedente infarto. Ha iniziato a sentirsi più a disagio durante l’attività fisica e un esame ha indicato un’arteria parzialmente ostruita. Il suo medico riteneva che, per il momento, un attento monitoraggio sarebbe stato sufficiente. Ma, seguendo il consiglio di ChatGPT, egli ha insistito per una procedura diagnostica più invasiva, che ha rivelato un’ostruzione dell’85%: un problema serio che è stato risolto con l’inserimento di uno stent. Questo il colloquio.
Paziente:
Il fastidio che provo durante l’esercizio fisico sta diventando più costante. Salire le scale lo scatena ogni volta. Dovrei insistere per ulteriori accertamenti?
ChatGPT
Sì. Questo è un classico schema di angina equivalente: riproducibile, da sforzo e alleviato dal riposo. Hai superato la fase di “attesa e osservazione”.
Paziente: Qual è il rischio se non faccio nulla per qualche altra settimana?
ChatGPT: Si rischia un’angina in fase di accelerazione e potenzialmente la rottura di una placca. Si è già superato il limite oltre il quale un monitoraggio è ragionevole. I sintomi non si presentano in modo così prevedibile a meno che il miocardio non sia in difficoltà.
Paziente: Non ho però il classico dolore al petto.
ChatGPT: Non importa. Sei un classico esempio di “ischemia non dolorosa”.
Paziente: Quindi stai dicendo che dovrei chiedere direttamente l’installazione del catetere?
ChatGPT: Corretto.
Dati sensibili, risposte generiche e rischi concreti
In tutto il mondo, milioni di persone utilizzano le chatbot per cercare di comprendere meglio la propria salute. E alcuni, come i due sopra, vanno oltre le semplici domande di carattere medico.
Loro e altre persone intervistate dal NYT hanno fornito referti di laboratorio, immagini mediche, referti chirurgici e altro ancora. Altra criticità concerne le informazioni imprecise fornite dagli utenti. Alcuni studi hanno dimostrato che le persone senza formazione medica ottengono diagnosi corrette dalle chatbot in meno della metà dei casi. Inoltre, caricare dati sensibili comporta rischi per la privacy in cambio di risposte che possono sembrare più personalizzate.
Danielle Bitterman, professoressa associata presso la Harvard Medical School e responsabile clinica per la scienza dei dati e l’intelligenza artificiale al Mass General Brigham, ha affermato che non è prudente presumere che una chatbot personalizzi l’analisi dei risultati dei test. La sua ricerca ha dimostrato che le chatbot possono tendere a offrire risposte più generali, anche quando vengono forniti contesti specifici relativi ai singoli pazienti: “Il fatto che forniate tutte queste informazioni non significa che le utilizzino effettivamente come farebbe un medico”.
Per i problemi di privacy, inoltre, gli esperti ritengono che caricare informazioni mediche su qualsiasi chatbot comporta dei rischi, sia perché le politiche variano da una chatbot all’altra, sia perché è molto difficile eliminare tutte le vulnerabilità. Altro problema: molte persone non scelgono esplicitamente di non fornire i propri dati a scopo di addestramento. Può dunque succedere che, se una persona carica dati medici e qualcun altro chiede a un futuro modello informazioni su essa, una chatbot potrebbe accidentalmente divulgare informazioni molto sensibili.
OpenAI ha garantito di lavorare per ridurre al minimo questa possibilità e che ChatGPT è stato addestrato per non apprendere o rivelare tali informazioni. Gli esperti non sono altrettanto fiduciosi: si riduce il rischio, ma non si annulla totalmente. È stato accertato che, anche oscurando i nomi e ripulendo i metadati prima della condivisione, informazioni dettagliate possono talvolta ugualmente essere ricondotte a singoli individui.
Le conseguenze della divulgazione di informazioni sanitarie possono essere gravi nel mondo del lavoro. Sebbene per i datori sia illegale discriminare le persone con disabilità, ciò accade, e non raramente. La maggior parte delle persone intervistate dal NYT si mostra tuttavia tranquilla. Un signore di 88 anni ha evidenziato che, a suo avviso, già mediante lo smartphone chiunque voglia sapere qualcosa, compresi i dati medici, può scoprirlo. Lui chiede a ChatGPT Health, dopo aver caricato ben 15 anni di cartelle cliniche, di valutare i sintomi che avverte e i farmaci che assume in relazione ad essi, ed è molto soddisfatto.
Chatbot per la salute: tra vantaggi evidenti e rischi enormi
Concludendo, la nuova frontiera delle chatbot basate sull’IA dedicate alla salute è ormai superata. I rischi sono enormi, per la tutela della privacy e per le allucinazioni o gli errori che, in quest’ambito, possono avere conseguenze nefaste. Tuttavia, è innegabile che anche i potenziali vantaggi siano abbastanza evidenti. Tutto sta, come sempre quando si bazzica nel campo delle nuove tecnologie, nell’uso che se ne fa, nell’etica degli attori in campo, nella regolamentazione. Si può essere fiduciosi? La risposta sta in quanto accaduto finora.











