REGOLAZIONE

IA in sanità: cosa non funziona nella nuova legge italiana



Indirizzo copiato

Con la Legge 132/2025 l’Italia guida l’Europa sulla regolazione dell’IA in sanità. Restano però ambiguità su governance, accountability e sicurezza dei dati che potrebbero frenare la ricerca e generare incertezza normativa per i centri di ricerca

Pubblicato il 13 nov 2025

Adriano Bertolino

Esperto in Privacy e Cybersecurity



Fascicolo Sanitario Elettronico (1) Protezione dati nella ricerca clinica ehds Sanità e digitale PSN e sanità calcolatori multimodali di rischio oncologico dossier sanitario e privacy Dati sanitari e IA

Con la Legge 132/2025, pubblicata in Gazzetta Ufficiale il 25 settembre 2025 ed entrata in vigore il 10 ottobre, l’Italia diventa il primo Paese europeo a recepire formalmente l’AI Act.

Dietro questo primato si nasconde però una serie di interrogativi operativi che rischiano di complicare l’applicazione pratica della normativa, specialmente nell’ambito sanitario dove l’uso dei dati personali per addestrare sistemi di intelligenza artificiale solleva questioni delicate.

Anonimizzazione, pseudonimizzazione e dati sintetici: il trilemma tecnico

L’articolo 8 della legge rappresenta il cuore della riforma: dichiara di “rilevante interesse pubblico” il trattamento di dati personali, inclusi quelli sanitari, per la ricerca sull’intelligenza artificiale. Ma è proprio qui che emergono i primi problemi concreti. La norma impone che i dati vengano sottoposti a uno di tre procedimenti: anonimizzazione, pseudonimizzazione o sintetizzazione. Sulla carta sembra una soluzione equilibrata, ma nella pratica ciascuna di queste vie presenta ostacoli significativi che il legislatore non ha affrontato compiutamente.

L’anonimizzazione vera, quella irreversibile che rende impossibile la reidentificazione, è tecnicamente complessa e spesso riduce drasticamente l’utilità dei dati per la ricerca. Un dataset clinico completamente anonimizzato perde molte delle correlazioni temporali e contestuali che rendono possibile l’addestramento di modelli predittivi efficaci. La pseudonimizzazione mantiene invece una possibilità di reidentificazione, seppur controllata, ma solleva il dubbio: fino a che punto un dato pseudonimizzato può considerarsi sufficientemente protetto? Il confine tra pseudonimizzazione robusta e pseudonimizzazione fragile è spesso labile, e la legge non fornisce criteri tecnici precisi per valutarlo.

I dati sintetici rappresentano la frontiera più promettente: dataset artificiali che mantengono le proprietà statistiche di quelli reali senza contenere informazioni su persone effettivamente esistenti. Ma anche qui i problemi non mancano. Le tecniche di sintetizzazione sono ancora in evoluzione e non esiste un consenso scientifico su quali metodi garantiscano contemporaneamente utilità statistica e protezione assoluta dalla reidentificazione. Alcuni studi hanno dimostrato che anche dai dati sintetici è possibile, in determinate condizioni, risalire a caratteristiche di individui del dataset originale. Chi stabilisce quando un dataset sintetico è sufficientemente sicuro? Con quali parametri? La legge non lo specifica, delegando di fatto questa valutazione tecnica ai singoli centri di ricerca e, in ultima istanza, al Garante.

Il meccanismo del silenzio-assenso e l’incertezza regolatoria

Il secondo nodo critico riguarda proprio il rapporto con il Garante Privacy e il meccanismo del silenzio-assenso. La legge prevede che i centri di ricerca comunichino preventivamente al Garante il trattamento pianificato, allegando la Valutazione d’Impatto sulla Protezione dei Dati e documentazione tecnica. Il Garante ha trenta giorni per rispondere. Il silenzio equivale a via libera. Questo meccanismo, apparentemente pragmatico per evitare la paralisi burocratica, nasconde un’ambiguità sostanziale che il Garante stesso aveva sottolineato nel suo parere dell’agosto 2024: il decorso del termine non esaurisce i poteri ispettivi dell’Autorità. Il silenzio-assenso non è una “patente di immunità”.

Cosa significa nella pratica? Un ricercatore che inizia un progetto dopo trenta giorni di silenzio potrebbe ragionevolmente credere di avere il pieno consenso regolatorio, salvo poi scoprire mesi dopo, magari a progetto avanzato, che emergono criticità e il Garante interviene ex post. Quando può intervenire? Su quali basi? Con quali conseguenze per la ricerca già avviata? La legge non chiarisce i limiti temporali né i presupposti sostanziali di questo potere di intervento successivo. Si crea così un’incertezza regolatoria che potrebbe scoraggiare proprio quei progetti innovativi che la norma vorrebbe promuovere. I centri di ricerca si troveranno nella scomoda posizione di dover bilanciare l’urgenza dell’innovazione con il rischio concreto di sanzioni successive, senza criteri certi per valutare ex ante la solidità della propria posizione.

Governance e accountability: il caso della piattaforma nazionale Agenas

La questione della piattaforma nazionale gestita da AGENAS, prevista dall’articolo 9, solleva ulteriori perplessità sulla governance e sulla responsabilità. L’idea è ambiziosa: un sistema integrato che offra suggerimenti algoritmici non vincolanti ai professionisti sanitari e ai cittadini, una sorta di “secondo parere” accessibile a livello nazionale. Ma perché affidare la titolarità del trattamento dati a AGENAS, un ente strumentale, piuttosto che al Ministero della Salute? Il Garante aveva sollevato questa obiezione nel suo parere, evidenziando un problema di accountability politica che rimane irrisolto.

Se la piattaforma genera bias discriminatori, chi risponde? Se un algoritmo suggerisce sistematicamente terapie meno aggressive per determinate categorie di pazienti, magari anziani o appartenenti a minoranze, quale catena di responsabilità si attiva? La scelta di collocare la titolarità in un’agenzia tecnica rischia di oscurare la responsabilità politica e amministrativa. Una piattaforma nazionale di questa portata non può essere “nascosta” dentro un ente strumentale senza un chiaro disegno di governance che preveda meccanismi di controllo democratico, trasparenza nei criteri algoritmici e procedure chiare per la correzione dei bias. La legge prevede che AGENAS debba specificare “le tipologie di dati trattati e delle operazioni eseguite” e “le misure tecniche e organizzative per garantire sicurezza adeguata”, previa consultazione con varie autorità. Ma resta nebuloso come funzionerà concretamente questo coordinamento e chi avrà l’ultima parola in caso di divergenze interpretative tra Ministero della Salute, Garante Privacy e Agenzia per la Cybersicurezza Nazionale.

La responsabilità civile e il rischio dell’algoritmo che sbaglia

Il vuoto più significativo riguarda però la responsabilità per danni causati da sistemi di intelligenza artificiale. La legge ribadisce che “la decisione finale rimane sempre in capo ai professionisti medici” e che i sistemi di IA sono “concepiti come supporto, mai come sostituti del giudizio umano”. Ma questo principio antropocentrico, per quanto condivisibile, non risolve i problemi concreti di imputazione della responsabilità civile. Se un algoritmo diagnostico suggerisce una terapia errata e il medico, fidandosi del sistema, la segue causando un danno al paziente, chi risponde? Il medico che ha seguito il suggerimento? Il produttore dell’algoritmo? L’ospedale che lo ha adottato? Il centro di ricerca che lo ha sviluppato?

L’AI Act europeo aveva deliberatamente lasciato questo tema a una direttiva separata sulla responsabilità civile, il cui iter si è arenato. Il legislatore italiano aveva l’occasione di colmare questa lacuna normativa. Non lo ha fatto, lasciando che continuino ad applicarsi principi di responsabilità pensati per situazioni molto diverse. Il risultato è un’incertezza giuridica che pesa tanto sui professionisti sanitari quanto sui pazienti. Un medico potrebbe trovarsi nella paradossale situazione di essere considerato responsabile sia se segue ciecamente il suggerimento algoritmico sia se lo ignora contro evidenze apparentemente solide. Manca una riflessione seria su forme di responsabilità condivisa o su meccanismi assicurativi specifici per questo nuovo scenario.

Troppe autorità, nessun protocollo: il nodo delle competenze

Il coordinamento tra le diverse autorità coinvolte rappresenta un ulteriore punto critico. La governance dell’IA in Italia coinvolge un ecosistema complesso: ACN e AGID come autorità nazionali sull’intelligenza artificiale, il Garante Privacy, AGENAS, più tutte le autorità di settore. La legge prevede un Comitato di coordinamento, ma sulla carta. Nella pratica, preoccupa specialmente la potenziale sovrapposizione tra ACN, che vigila sulla sicurezza dei sistemi di IA, e il Garante, che vigila sulla protezione dati. Ogni sistema di IA sanitaria ricade potenzialmente sotto entrambe le competenze. Chi fa cosa? Quando? Come si risolvono divergenze interpretative? La legge non fornisce un protocollo chiaro, rischiando di creare conflitti di competenza che ricadranno sui soggetti regolati.

Tra ambizioni e attuazione: la scommessa dei prossimi mesi

La Legge 132/2025 segna indubbiamente un passo avanti rispetto al vuoto normativo precedente. L’articolo 8 legittima l’uso secondario dei dati per ricerca, le sandbox offrono spazi protetti per sperimentare, l’obbligo di formazione può trasformare la cultura organizzativa. Ma tra i principi generali e la loro applicazione pratica si apre un divario che i decreti attuativi dovranno colmare nei prossimi dodici mesi. Il rischio concreto è che le ambiguità operative scoraggino proprio quell’innovazione responsabile che la legge vorrebbe promuovere, lasciando i ricercatori in una zona grigia di incertezza regolatoria dove ogni scelta può rivelarsi, a posteriori, inadeguata.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati