Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

l'analisi

Intelligenza artificiale in Sanità: scenari di successo e rischi (“adversarial attack”)

L’erogazione di servizi sanitari e di assistenza è e resterà un’attività fondamentalmente umana, ma l’intelligenza artificiale potrà apportare ingenti benefici in diversi ambiti applicativi. I rischi (adversarial attack) ci sono e sono oggetto di ricerche e il personale deve essere adeguatamente formato. Ecco le sfide

13 Mag 2019
Giovanni Maglio

avvocato, responsabile eHealth e Privacy del L.E.G. (Laboratorio eGovernment) dell’Università del Salento


Da qualche tempo, l’attenzione degli addetti ai lavori si è rivolta, in modo quasi salvifico, all’uso dell’intelligenza artificiale nell’assistenza sanitaria per cercare di sviluppare e fornire servizi sanitari a prova di futuro.

Tuttavia, l’intensificarsi dell’utilizzo di tecnologie basate sull’Intelligenza Artificiale comporta anche l’aumento delle minacce ai vari sistemi che si basano su di esse.

Adversarial attack: come ti inganno l’intelligenza artificiale

In un articolo pubblicato recentemente sulla rivista Science, i ricercatori sollevano la prospettiva di “avdersarial attacks” – ossia di manipolazioni che possono cambiare il comportamento dei sistemi di Intelligenza Artificiale utilizzando piccoli pezzi di dati digitali.

Cambiando alcuni pixel su una scansione polmonare, per esempio, qualcuno potrebbe ingannare un sistema di IA nel vedere una malattia che non c’è realmente o non vederne una che c’è, oppure cambiando un piccolo numero di pixel in un’immagine di una lesione cutanea benigna, un sistema diagnostico basato su IA potrebbe essere fuorviato nell’identificare la lesione come maligna; i cosiddetti falsi positivi o falsi negativi, già noti, ad esempio, nei sistemi di riconoscimento biometrico.

Peraltro, piccole modifiche alle descrizioni della condizione di un paziente potrebbero anche alterare una diagnosi di IA: “abuso di alcol” potrebbe produrre una diagnosi diversa da “dipendenza da alcol” e “lombalgia” potrebbe produrre una diagnosi diversa da “mal di schiena”, con ovvie conseguenze anche dal punto di vista di spese rimborsabili o a carico del SSN, per i conseguenti esami diagnostici e terapie appropriate.

Le vulnerabilità delle reti neurali

L’“avdersarial attack” sfrutta un aspetto fondamentale del modo in cui molti sistemi di IA sono progettati e costruiti. Sempre più spesso, infatti, l’IA è guidata da reti neurali, sistemi matematici complessi che imparano compiti in gran parte da soli, analizzando grandi quantità di dati.
Analizzando migliaia di scansioni oculari, ad esempio, una rete neurale può imparare a rilevare i segni della cecità diabetica. Questo “apprendimento automatico” avviene su una scala così enorme – il comportamento umano è definito da innumerevoli dati disparati – che può produrre un comportamento inaspettato, magari basato su pregiudizi (cosiddetti “bias”).

Un gruppo di ricercatori cinesi ha sfruttato una simile vulnerabilità, proiettando della luce infrarossa dalla parte inferiore di un orlo del cappello sul volto di chi lo indossava. La luce era invisibile a chi lo indossava, ma poteva ingannare un sistema automatizzato di riconoscimento del volto, facendo pensare che chi lo indossava fosse, per esempio, il musicista Moby, che è caucasico, piuttosto che uno scienziato asiatico.

Tra le varie tecnologie dell’IA, un’altra delle più promettenti ed in rapida diffusione è quella basata sul riconoscimento vocale. Le interfacce vocali, infatti, stanno diventando ampiamente diffuse ed accettate come metodi di input per una vasta gamma di dispositivi. Questo sviluppo è guidato da rapidi miglioramenti nel riconoscimento automatico della voce (Automatic Speech Recognition), che si basano su un’evoluzione continua di reti neurali profonde (Deep Neural Networks) come nucleo computazionale di A.S.R., ormai sempre più diffusi anche a livello domestico o indossabile (Alexa, Siri tra gli esempi più diffusi).

I risultati di ricerche recenti dimostrano che le reti neurali profonde sono vulnerabili alle perturbazioni “adversarial”, che consentono agli aggressori di forzare la trascrizione in un risultato malevolo.

In un recente studio è stato presentato un nuovo tipo di esempi “adversarial” basati sulla simulazione psicoacustica, ossia sulla branca che studia come gli umani percepiscono i suoni. L’attacco sfrutta le caratteristiche dei sistemi A.S.R. basati su reti neurali profonde , dove si estende la procedura di analisi originale con un ulteriore passo di “backpropagation” (ossia un metodo di allenamento delle reti neurali artificiali, usato in combinazione con un metodo di ottimizzazione come per esempio la “discesa del gradiente”). Queste estensioni permettono di incorporare un ingresso audio arbitrario con un comando vocale maligno che viene poi trascritto dal sistema A.S.R., con il segnale audio che rimane appena distinguibile dal segnale originale.

Le prospettive dell’intelligenza artificiale in sanità

L’intelligenza artificiale, quindi, è uno strumento e, come per qualsiasi altro strumento, i professionisti, specie quelli sanitari, devono essere formati per utilizzarlo nel modo e nel contesto giusto con la dovuta fiducia.

I fondamenti dell’IA e dell’apprendimento automatico si basano sulla massima accuratezza dei dati, oltre che sulla statistica e la probabilità, ed è in queste aree che il personale sanitario di oggi dovrà confrontarsi per poter utilizzare a pieno gli strumenti di domani.

Del resto, non è importante che gli algoritmi siano infallibili in assoluto, ma è fondamentale che sbaglino molto meno dell’essere umano nel prendere certi tipi di decisioni delicate, come quelle diagnostiche.

L’erogazione di servizi sanitari e di assistenza, infatti, è un’attività fondamentalmente umana. Anche in un futuro piuttosto lontano, è impossibile immaginare un mondo in cui l’Intelligenza Artificiale – sia essa robotica o algoritmica – sostituirà completamente il ruolo dei medici e degli infermieri. È altamente improbabile che un sistema artificiale sia in grado, ad esempio, di cogliere sottili cambiamenti in aspetti come il linguaggio del corpo che possono fornire ai medici indizi vitali su come trattare un paziente.

Tuttavia, gli sviluppi futuri saranno più realisticamente in grado di fornire agli operatori sanitari un’intelligenza aumentata, consentendo loro di elaborare una maggiore quantità di informazioni di importanza critica in un periodo di tempo più breve e con maggiore precisione, liberando gran parte del loro tempo, attraverso l’automazione di tante di quelle attività che, nella irrefrenabile evoluzione della pratica medica, sono ormai diventate di routine e lo saranno sempre più.

L’intelligenza artificiale, infatti, promette di aumentare la produttività e portare grandi benefici economici e sociali, sulla enfatica prospettazione del suo grande potenziale nel settore sanitario, che può essere utilizzato per migliorare i risultati nei Public Health Systems come nella pratica clinica quotidiana.
Si tratta di un settore ricco e diversificato, con numerosi scenari di applicazione che spaziano dagli strumenti di supporto alle decisioni che aiutano i medici a prendere decisioni diagnostiche più accurate, passando dagli assistenti virtuali intelligenti, magari a controllo vocale, sino all’analisi dei big data per contrastare i rischi epidemiologici.

Nonostante i grandi progressi compiuti nei passati decenni, ancora non esiste un’unica definizione universalmente condivisa di I.A. e sotto questa espressione si raggruppano una serie di tecnologie che condividono alcune specifiche caratteristiche.

Con l’espressione Intelligenza Artificiale, usualmente, si descrive un insieme di tecnologie avanzate che consentono alle macchine di svolgere efficacemente compiti altamente complessi – compiti che richiederebbero “intelligenza” se una persona umana dovesse eseguirli.
In generale, l’intelligenza può essere definita come la soluzione ad un problema (problem solving), mentre “un sistema intelligente” come un sistema che adotta le migliori azioni possibili in una data situazione.
La “A” di Intelligenza Artificiale si può riferire generalmente a uno dei seguenti significati:

  • Artificiale: le “macchine” imparano da nuove esperienze, comprendono i risultati e svolgono compiti simili a quelli dell’uomo. Può essere pensato come la simulazione dell’intelligenza umana e potrebbe includere sistemi di riconoscimento vocale e visivo.
  • Aumentata: risultati che completano l’intelligenza umana, sottolineando il ruolo supplementare dell’I.A. Esempi in questo ambito includono strumenti che supportano i radiologi nella revisione di un gran numero di scansioni o che supportano i dermatologi per comprendere meglio le immagini prima di formulare una diagnosi su un nevo sospetto.
  • Ambientale: l’applicazione di diverse tecnologie (compresa la stessa Intelligenza Artificiale o Aumentata, ma anche reti di sensori, interfacce utente, sistemi di domotica, ecc) per creare ambienti “intelligenti” proattivi. (cfr. “Accelerating Artificial Intelligence in health and care: results from a state of the nation survey”, by The AHSN Network, Autumn 2018).

@RIPRODUZIONE RISERVATA

Articolo 1 di 3