ai e sanità

AI in ospedale: dati al sicuro con l’apprendimento continuo federato



Indirizzo copiato

Il federated continual learning permette all’AI sanitaria di aggiornarsi costantemente mantenendo la privacy, integrando conoscenze distribuite senza condividere i dati originali tra le strutture cliniche

Pubblicato il 21 ago 2025



rete DPO sanità vendita di farmaci online ia in sanità; duplicato tessera sanitaria sanità sostenibile ia in medicina

Negli ultimi anni si è parlato sempre più di intelligenza artificiale (AI) applicata alla medicina: algoritmi capaci di riconoscere una malattia da un’immagine radiologica o di prevederne l’evoluzione a partire da dati clinici.

Le difficoltà nell’adozione dell’intelligenza artificiale in sanità

Tuttavia, nonostante le grandi promesse, l’adozione concreta di queste tecnologie nelle corsie ospedaliere è ancora limitata.

Uno dei principali ostacoli è la scarsità di dati clinici di qualità, spesso frammentati tra strutture diverse, ognuna con i propri strumenti, protocolli e vincoli sulla privacy dei pazienti. Questo rende difficile raccogliere abbastanza dati omogenei per allenare modelli di AI realmente efficaci.

Federated learning e tutela della privacy dei pazienti

Per superare questo problema, si è sviluppato il Federated Learning: un approccio che consente a più centri clinici di collaborare senza condividere i dati sensibili, ma mettendo in comune l’intelligenza appresa. Ogni ospedale addestra il modello sui propri dati locali e invia solo i parametri appresi a un server centrale, che li aggrega per aggiornare il modello globale. In questo modo, si preserva la privacy mantenendo i dati nei luoghi in cui vengono generati.

Continual learning per un’intelligenza artificiale adattabile

Ma nel contesto sanitario non basta. La medicina è in costante evoluzione: emergono nuove malattie, cambiano linee guida e strumenti diagnostici, e i pazienti possono revocare in qualsiasi momento il consenso all’uso dei propri dati. Per rispondere a queste dinamiche, serve un’intelligenza artificiale capace di imparare in modo continuo, senza dimenticare ciò che ha già appreso. È il campo del Continual Learning, una frontiera dell’AI che mira a creare sistemi adattabili al cambiamento, evitando il fenomeno noto come catastrophic forgetting, ovvero la perdita di conoscenze precedenti durante l’apprendimento di nuove informazioni.

Federated continual learning: unire privacy e adattamento

Nel mio lavoro di ricerca, svolto nell’ambito di uno dei primi Dottorati Nazionali in Intelligenza Artificiale attivati in Italia — coordinato dall’Università Campus Bio-Medico di Roma per l’area “Salute e Scienze della Vita” — ho studiato proprio l’integrazione tra Federated Learning e Continual Learning, in quello che oggi viene identificato come Federated Continual Learning. In questo scenario, i dati sono distribuiti tra più strutture sanitarie, spesso eterogenei e in continua evoluzione, rendendo fondamentale la capacità dei modelli di adattarsi nel tempo senza dimenticare ciò che hanno già appreso e senza mai compromettere la privacy dei pazienti.

Strategie brain-inspired per preservare la memoria nei modelli

Prima di affrontare la loro integrazione, ho studiato separatamente le due componenti.

Nel Continual Learning (apprendimento continuo), ho adottato tecniche brain-inspired, ovvero ispirate al funzionamento del cervello umano, come l’impiego delle feature di salienza. È emerso infatti che questo tipo di caratteristiche tende a essere meno soggetto ad essere dimenticato dai modelli: sfruttarle durante l’addestramento di un modello di intelligenza artificiale aiuta quindi a preservare meglio le conoscenze apprese nel tempo.

Dati sintetici e GAN per proteggere le informazioni sanitarie

Nel campo del Federated Learning, invece, ho cercato di risolvere un’altra sfida cruciale: come permettere a più ospedali o centri sanitari di collaborare per addestrare un modello comune, senza mai condividere i dati reali dei pazienti. Per questo, ho sviluppato un metodo basato su reti generative (GAN), che permette di creare dati sintetici a partire dai dati originali, ma privi di informazioni riconducibili ai singoli individui.

In particolare, ho proposto una tecnica per aggregare le informazioni nello spazio latente del generatore — una rappresentazione intermedia, compressa e astratta dei dati — dove si possono mescolare campioni provenienti da più pazienti, generando nuove immagini non riconducibili a nessuno di essi. Questo approccio è stato poi esteso attraverso una tecnica di interpolazione nello spazio latente, in cui si esplorano traiettorie intermedie tra diversi punti dello spazio generativo, ottenendo campioni sintetici significativi, informativi e rispettosi della privacy.

Experience replay per l’apprendimento federato

Una volta comprese e sviluppate soluzioni efficaci nei due ambiti, ho iniziato a esplorare possibili punti di contatto tra Continual e Federated Learning. Inizialmente ho applicato tecniche di Continual Learning all’interno di scenari federati. In particolare, ho introdotto il concetto di experience replay con dati sintetici: si tratta di una strategia in cui ogni nodo locale (cioè ogni struttura sanitaria) può “ripassare” esperienze passate usando dati sintetici condivisi da altri centri. Questo permette al modello di mantenere memoria delle conoscenze apprese in precedenza, anche se i dati non sono più disponibili, e senza infrangere le regole di privacy. Questa soluzione è stata validata in due casi clinici reali: il primo dedicato alla classificazione automatica della tubercolosi tramite immagini radiografiche del torace; il secondo alla classificazione di lesioni cutanee, un contesto in cui la variabilità e la qualità visiva delle immagini hanno un impatto diretto sull’efficacia diagnostica.

Federated continual learning come evoluzione naturale del modello

L’idea chiave è che, se il sistema federato non prevede un nodo centrale, il passaggio del modello da un nodo all’altro può essere visto come un vero e proprio caso di apprendimento continuo: ogni nodo rappresenta un nuovo compito da apprendere, e il modello deve evitare di dimenticare ciò che ha appreso nei passaggi precedenti.

Questo ragionamento ha portato all’ideazione di una strategia capace non solo di essere efficace in contesti federati classici ma anche in contesti più ostici come il Federated Continual Learning, in cui sia la dimensione federata (distribuita) che quella temporale (in evoluzione continua) sono presenti contemporaneamente.

Consolidare la memoria distribuita nel tempo

Per questo scenario più complesso, ho sviluppato una strategia di ripasso distribuito, ispirata sempre all’experience replay, che consente al modello di “tornare” ai nodi già visitati durante il percorso di addestramento. Questo meccanismo simula una sorta di revisione attiva, in cui il modello consolida le conoscenze passate mantenendo un equilibrio tra apprendimento e memoria.

La strada verso un’AI realmente integrata nella pratica clinica è ancora lunga, ma questi lavori rappresentano passi concreti verso sistemi intelligenti che possano apprendere, adattarsi e collaborare in sicurezza, al servizio della salute.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati