responsabilità e governance

AI nei sistemi sanitari: confronto giuridico tra Italia e Spagna



Indirizzo copiato

L’intelligenza artificiale sanitaria sta ridisegnando regole, responsabilità e modelli di governance. Spagna e Italia seguono strade diverse: Madrid punta su anticipazione normativa e sandbox, mentre Roma affronta la transizione tra vincoli costituzionali, tutela dei dati e prudenza difensiva

Pubblicato il 19 mar 2026

Damiano Fuschi

docente universitario di diritto pubblico – UNIMI



AI: dal caos all’ordine, nelle imprese come nella sanità; e-commerce ai in sanità; AI cittadini social e sanità ai in sanità
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Nell’ottica del diritto pubblico comparato, l’implementazione dell’intelligenza artificiale (IA) nei sistemi sanitari non è una mera sfida tecnologica, bensì un complesso esercizio di ingegneria istituzionale.

Indice degli argomenti

Anticipazione spagnola vs. dilemma difensivo italiano. Analisi di due archetipi normativi

L’analisi comparatistica, dunque, non deve limitarsi a una sterile gerarchia di valori per stabilire quale Stato sia più avanzato, ma deve mirare a tracciare gli effetti tangibili dell’IA sull’azione amministrativa.

L’obiettivo è trarre evidenze e best practice capaci di ottimizzare l’efficienza operativa dei sistemi di cura nazionali. L’analisi qui proposta muove dalla constatazione di una profonda divergenza metodologica tra due ordinamenti, quello spagnolo e quello italiano, che pur condividendo la matrice di Civil Law e l’appartenenza al quadro regolatorio europeo, stanno rispondendo all’urgenza dell’innovazione con velocità e strumenti giuridici opposti.
L’impianto logico di questo lavoro si fonda sulla contrapposizione tra il modello di anticipazione normativa adottato dalla Spagna, e quello ancorato alla prudenza difensiva che caratterizza l’attuale scenario italiano.

Intelligenza artificiale sanitaria: il modello spagnolo

La Spagna ha scelto di governare l’incertezza tecnologica attraverso la produzione normativa primaria e la centralizzazione amministrativa.

La strategia di Madrid si articola su due pilastri che creano un ecosistema giuridico protetto:

Istituzionalizzazione della vigilanza

Con la creazione dell’Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) e il coordinamento con l’agenzia del farmaco (AEMPS), l’ordinamento spagnolo ha introdotto un ente certificatore ex ante. Questo supera la frammentazione decisionale, offrendo al mercato un interlocutore unico.

Il sandbox come scudo giuridico

Attraverso il Real Decreto 817/2023, il legislatore ha introdotto un ambiente di sperimentazione controllata (Sandbox). La logica sottesa è quella di sospendere o attenuare il regime ordinario di responsabilità civile per gli operatori che agiscono all’interno del protocollo sperimentale. In questo modo, lo Stato si fa carico della gestione del rischio residuo (tramite fondi di garanzia o assicurazioni dedicate), incentivando i medici e le aziende a innovare senza il timore di ripercussioni legali immediate.

Il quadro italiano tra attesa attuativa e prudenza difensiva

L’Italia vive invece una fase più complessa. Se da un lato il legislatore ha posto le basi della governance nazionale con la Legge 132/2025, che designa AgID e ACN quali Autorità nazionali per l’IA, e ha affidato ad AGENAS il compito di sviluppare la Piattaforma Nazionale di Intelligenza Artificiale per la sanità, dall’altro l’operatività di questi strumenti non è ancora capillare. Le strutture sanitarie si trovano così in un “limbo operativo“: le tecnologie corrono, ma in attesa che i decreti attuativi e la piattaforma nazionale dispieghino i loro effetti, le stazioni appaltanti e i clinici operano in un perimetro di “prudenza difensiva“, timorosi del contenzioso e ancorati alla Legge Gelli-Bianco (L. 24/2017).

L’ordinamento italiano: dal “Dilemma Difensivo” alla governance costituzionale dell’algoritmo

Se il modello spagnolo si caratterizza per una governance statale “top-down” garantita dall’AESIA e dal Sandbox, l’ordinamento italiano affronta l’innovazione tecnologica partendo da un substrato normativo radicalmente diverso, dominato dalla tensione tra la rigidità della responsabilità professionale e la frammentazione delle competenze territoriali. L’analisi del contesto nazionale deve necessariamente muovere da due poli opposti: da un lato la “prudenza normativa” imposta dalla Legge Gelli-Bianco (L. 24/2017), che ancora oggi orienta le scelte di medicina difensiva delle aziende sanitarie; dall’altro, il tentativo di centralizzazione strategica inaugurato con la recente Legge 132/2025 e lo sviluppo della Piattaforma Nazionale di IA affidata ad AGENAS. In questa fase di transizione, la sfida per il giurista è trasformare i vincoli apparenti del nostro sistema (Art. 117 Cost. e GDPR) in leve operative per una sanità digitale sicura ed equa.

L’algoritmo come livello essenziale di assistenza

Il primo e più rilevante ostacolo all’implementazione uniforme dell’IA in Italia non è tecnologico, ma costituzionale. A differenza della Spagna, dove la competenza tecnica è accentrata, l’Italia opera nel quadro del riparto di competenze Stato-Regioni ex art. 117 Cost.. Come chiarito dalla Corte costituzionale nella sentenza n. 87 del 2024, il sistema si regge su un delicato equilibrio: allo Stato spetta la determinazione dei Livelli Essenziali di Assistenza (LEA) e delle risorse finanziarie; alle Regioni compete l’organizzazione del servizio sul territorio e l’erogazione delle prestazioni.

L’introduzione dell’Intelligenza Artificiale rompe questo schema tradizionale. Un algoritmo predittivo capace, ad esempio, di anticipare un arresto cardiaco o diagnosticare una neoplasia con mesi di anticipo rispetto allo standard umano, cessa di essere un mero strumento “organizzativo” (competenza regionale) per divenire parte integrante della prestazione sanitaria (competenza statale). Se tale tecnologia fosse disponibile solo in alcune Regioni virtuose, si configurerebbe una violazione macroscopica del principio di uguaglianza sostanziale (art. 3 Cost.) e del diritto alla salute (art. 32 Cost.). La dottrina è concorde nel ritenere che lo Stato, attraverso le sue agenzie tecniche (AgID, ACN e ISS), debba avocare a sé la “validazione clinica” degli algoritmi, inserendoli formalmente nei LEA. L’orientamento è, in altri termini, quello di conferire agli applicativi di IA lo status di bene pubblico infrastrutturale, al pari di un farmaco salvavita o di un vaccino, sottraendolo alla discrezionalità delle singole centrali d’acquisto regionali per evitare una “sanità a due velocità algoritmiche”. Tuttavia, come evidenziato dalla Corte costituzionale (sent. n. 202/2024), l’autonomia organizzativa delle aziende sanitarie va preservata: alle Regioni spetta il compito di integrare questi strumenti nei flussi di lavoro locali (PDTA), ma la validazione dello standard di sicurezza e performance deve rimanere unitaria e statale.

Dati e intelligenza artificiale sanitaria nel sistema italiano

Il secondo pilastro dell’analisi riguarda l’infrastruttura dati, vero “combustibile” dell’IA.

Frammentazione della titolarità e centralizzazione logica

Mentre la Spagna sperimenta il Federated Learning (dove l’algoritmo viaggia tra i nodi della rete senza spostare i dati), l’Italia ha scelto la via della centralizzazione logica attraverso il Fascicolo Sanitario Elettronico (FSE 2.0) e l’Ecosistema Dati Sanitari (EDS). Questa scelta architetturale si scontra però con una complessità giuridica unica nel panorama europeo: la “multititolarità” del dato. Nel sistema italiano, i dati sanitari non risiedono in un unico repository giuridico, ma sono frammentati tra una pluralità di Titolari del Trattamento autonomi ai sensi del GDPR: i Medici di Medicina Generale (MMG), le singole Aziende Ospedaliere, le ASL territoriali e le Regioni.

Questa parcellizzazione rende estremamente complessa la creazione di dataset di addestramento su scala nazionale. L’IA non può accedere indistintamente a un “Data Lake” grezzo contenente “tutto di tutti”. È necessario implementare, già a livello di capitolato tecnico, matrici di accesso granulari basate sul principio del Role-Based Access Control (RBAC). L’algoritmo deve essere istruito per rispettare i perimetri di competenza: il sistema che supporta l’Infermiere di Famiglia nella gestione domiciliare non deve processare (né avere accesso a) dati psichiatrici, oncologici o genetici che non siano strettamente necessari all’inferenza clinica richiesta (principio di minimizzazione e Need to know basis). Il rischio concreto, in assenza di questa segregazione logica, è che l’IA fornisca il “dato giusto alla persona sbagliata“, violando non solo la privacy del paziente, ma i protocolli clinici di gestione del rischio. A ciò si aggiunge la distinzione fondamentale, spesso ignorata nei progetti pilota, tra Dato di Governo (pseudonimizzato, utile per la programmazione sanitaria regionale) e Dato di Cura (in chiaro, puntuale sul paziente).

FSE 2.0, EDS e il ruolo del gateway

Mentre la Spagna ha optato per un modello di Federated Learning (dove il dato resta in loco e l’algoritmo viaggia), l’Italia sta costruendo un’architettura di centralizzazione logica estremamente complessa, che ruota attorno al binomio Fascicolo Sanitario Elettronico (FSE 2.0) ed Ecosistema Dati Sanitari (EDS). Questa scelta infrastrutturale genera conflitti di governance unici nel panorama europeo.

Il “Gateway” e la duplicazione del dato (Criticità EDS)
La vera chiave di volta tecnica, spesso ignorata nel dibattito generalista ma centrale per il giurista, è il Gateway. Come evidenziato dal Garante Privacy nel parere sul DPCM attuativo, il legislatore italiano ha introdotto un componente tecnologico non previsto inizialmente dalla normativa primaria, deputato al “controllo semantico e formale dei dati“. L’EDS non si limita a interconnettere i sistemi regionali, ma opera una vera e propria duplicazione dei dati: costituisce un “data repository centrale” che acquisisce, memorizza e gestisce le informazioni trasmesse dalle strutture sanitarie e socio-sanitarie. Questa architettura centralizzata solleva un rischio sistemico che in Spagna è stato evitato alla radice: creando la più grande banca di dati sulla salute del nostro Paese, l’Italia espone il sistema a un rischio di single point of failure. Il Garante ha infatti ammonito che tale concentrazione, che include dati particolari ex art. 9 GDPR su larga scala, richiede una Valutazione d’Impatto (DPIA) preventiva estremamente rigorosa, in quanto la compromissione dell’EDS non riguarderebbe la singola ASL, ma l’intera popolazione assistita.

La separazione tra finalità di cura e finalità di governo
Un aspetto cruciale per i capitolati d’appalto italiani riguarda la segregazione delle finalità. A differenza del modello “fluido” dei Data Lake commerciali, l’infrastruttura italiana impone barriere rigide. Il Decreto EDS (D.M. 31/12/2024) stabilisce accessi differenziati:
Accesso per cura (Art. 13): riservato a medici e professionisti sanitari coinvolti nel processo clinico, con esclusione tassativa di periti, assicurazioni e datori di lavoro.
Accesso per governo (Art. 16): riservato a Ministero, AGENAS e Regioni per la programmazione sanitaria, ma vincolato all’uso di dati pseudonimizzati o anonimi. Tuttavia, è proprio qui che emerge una delle criticità maggiori tra quelle analizzate: al momento manca una base giuridica chiara e consolidata che legittimi pienamente il trattamento massivo per finalità di governo, lasciando le amministrazioni esposte a incertezze normative e ai rilievi dell’Autorità Garante sulla liceità del trattamento secondario senza consenso.
Accesso per ricerca (Art. 17): qui risiede la vera sfida per l’IA. L’EDS apre all’uso secondario (secondary use) anche per enti privati, ma solo previa presentazione di un progetto di ricerca conforme a standard etici e metodologici rigorosi, anticipando di fatto l’entrata in vigore dello Spazio Europeo dei Dati Sanitari (EHDS).

I progetti di intelligenza artificiale sanitaria dal basso

In assenza di un Sandbox regolatorio statale come quello spagnolo (RD 817/2023), l’Italia non è ferma, ma si muove attraverso una innovazione molecolare guidata dalle singole eccellenze regionali o ospedaliere. Le strutture sanitarie, operando in un vuoto di tutele centralizzate, stanno utilizzando l’ingegneria contrattuale e i fondi PNRR/regionali per creare “micro-ecosistemi” di IA.

Il caso Liguria e la gestione predittiva delle liste d’attesa

Un esempio emblematico di come l’Italia supplisca alla mancanza di governance centrale con l’iniziativa territoriale è il progetto #Reg4IA della Regione Liguria. Finanziato con 6,5 milioni di euro e selezionato come pilota nazionale, questo sistema utilizza algoritmi predittivi e adattativi per analizzare in tempo reale domanda e offerta di prestazioni. La rilevanza giuridica di questo caso risiede nel suo approccio alla gestione del rischio: l’algoritmo non si limita a una funzione amministrativa, ma personalizza i percorsi di cura. In mancanza di uno scudo legale sulla responsabilità, la Regione e i partner tecnologici devono blindare l’utilizzo dell’algoritmo attraverso protocolli di validazione interni che fungono da “quasi-certificazione”, dimostrando che l’IA riduce i tempi di attesa e migliora l’allocazione delle risorse senza pregiudicare l’equità di accesso.

Human-in-the-loop e applicazioni cliniche ospedaliere

Mentre la Spagna regola l’IA clinica tramite l’AESIA, in Italia sono i grandi IRCCS e Policlinici a definire gli standard de facto tramite la ricerca applicata e i capitolati di fornitura.
Policlinico Gemelli (Generator Heart Failure): ha sviluppato una piattaforma che integra dati eterogenei (diari infermieristici, farmaci, dati sociali) per predire la re-ospedalizzazione per scompenso cardiaco. Qui la sfida giuridica è l’integrazione di dati non strutturati e la loro validazione clinica.
Sant’Andrea (Fratture e Machine Learning): utilizza un software per la “doppia lettura” delle radiografie in Pronto Soccorso. Il modello giuridico adottato è quello del supporto decisionale puro: l’algoritmo processa l’immagine in due minuti, ma la diagnosi legale resta interamente in capo al radiologo.
Sant’Orsola (Navigazione Polmonare): l’IA viene usata per ricostruzioni 3D in tempo reale durante le broncoscopie, aumentando la capacità diagnostica del 10%. Questi esempi dimostrano che, in Italia, l’innovazione cammina sulle gambe della responsabilità del singolo ente, che deve farsi carico in toto della compliance MDR (Medical Device Regulation) e GDPR, senza poter contare sulla “rete di sicurezza” di un ente statale di supervisione.

Privacy, garante e limiti dell’intelligenza artificiale sanitaria

Un tratto distintivo dell’approccio italiano rispetto a quello iberico è l’iper-attivismo del Garante Privacy, che funge da vero e proprio regolatore ombra del settore. Se in Spagna l’accento è sulla promozione sicura (Sandbox), in Italia è sulla prevenzione del rischio privacy.

Il caso dei referti caricati su IA generativa

Il caso dell’IA generativa e dei referti
Il Garante ha recentemente lanciato un allarme specifico contro la prassi, sempre più diffusa, di caricare referti medici su piattaforme di IA generativa generalista (es. ChatGPT, Claude) per ottenere interpretazioni o diagnosi. Questa pratica evidenzia il vuoto normativo lato utente:

  1. Rischio “allucinazioni”: le piattaforme generaliste non sono dispositivi medici e non sono progettate per finalità diagnostiche, esponendo il paziente a indicazioni errate.
  2. Addestramento sui dati sensibili: molte piattaforme acquisiscono i dati caricati (referti, radiografie) per il retraining dei modelli, facendo perdere all’utente il controllo su dati sanitari di straordinaria importanza. La posizione dell’Autorità italiana è netta: è necessaria sempre una “intermediazione umana qualificata“. Questo principio, recepito anche dal Consiglio Superiore di Sanità, diventa un vincolo giuridico per le ASL: non possono utilizzare o consigliare strumenti di IA che non garantiscano contrattualmente la non-riutilizzazione dei dati per l’addestramento dei modelli (divieto di secondary use non autorizzato).

Il diritto all’oscuramento nei sistemi di IA

Un’altra specificità italiana che complica i progetti di IA è il regime dell’oscuramento. Il Garante ha imposto che il diritto dell’interessato di oscurare alcuni eventi clinici nel FSE (es. episodi di violenza, IVG, sieropositività) debba riflettersi automaticamente anche nei servizi erogati dall’EDS. Per un sistema di IA, questo è un incubo tecnico: l’algoritmo deve essere addestrato a gestire “buchi” informativi intenzionali senza generare bias o errori. Se l’EDS alimenta un servizio di IA predittiva, questo deve essere in grado di funzionare ignorando i dati oscurati, anche se clinicamente rilevanti. Questo vincolo di Privacy by Design è molto più stringente rispetto agli standard medi europei e impone all’industria un adeguamento tecnico oneroso.

Cybersecurity e intelligenza artificiale sanitaria in Italia

Infine, l’analisi comparata non può ignorare il fattore resilienza. Mentre la Spagna spinge sulla certificazione ex ante dell’AESIA, l’Italia si scopre vulnerabile ex post. I dati sono allarmanti: nel 2024 gli attacchi alla supply chain sanitaria italiana sono aumentati del 31%. Non si tratta solo di Ransomware (che resta la minaccia principale, seppur in calo), ma di attacchi che sfruttano la catena di fornitura dei software. Il dato politico-sanitario è critico: il 56% delle organizzazioni sanitarie dedica meno del 10% del budget IT alla cybersecurity. In un contesto dove l’IA richiede l’interconnessione massiva di database (FSE, EDS, Wearable), questa fragilità infrastrutturale rappresenta il vero freno a mano. Non è possibile implementare algoritmi di “governo clinico” su scala nazionale se le fondamenta digitali (le ASL) sono esposte a rischi di paralisi operativa o data breach massivi. L’Italia, dunque, si trova a dover gestire la transizione verso l’IA dovendo prima sanare un debito tecnologico di sicurezza che la normativa (Direttiva NIS2 e Piano Cybersecurity) sta affrontando con ritardo rispetto alla velocità dei cyber-attaccanti.

Il modello spagnolo di intelligenza artificiale sanitaria

Se l’Italia si muove nel perimetro della “prudenza difensiva”, la Spagna rappresenta oggi il caso di studio più avanzato dell’Europa continentale per la sua strategia di “Anticipazione Normativa”. Già prima della piena applicabilità del Regolamento UE sull’IA (AI Act), il legislatore spagnolo ha scelto di non subire l’innovazione, ma di governarla ex ante, costruendo un ecosistema istituzionale volto a trasformare il Sistema Sanitario Pubblico da mero acquirente passivo di tecnologia a co-sviluppatore di soluzioni cliniche sicure. Questa architettura si fonda su tre pilastri che risolvono alla radice le incertezze che paralizzano il sistema italiano: la centralizzazione della vigilanza tecnica, la de-responsabilizzazione clinica tramite il Sandbox e l’ingegneria contrattuale dei capitolati d’appalto (Pliegos).

AESIA, AEMPS e il doppio binario di validazione

Il fondamento giuridico della strategia spagnola risiede nel superamento della frammentazione decisionale. Mentre in Italia la governance è dispersa tra diversi soggetti, la Spagna ha istituito un’autorità tecnica dedicata: l’Agencia Española de Supervisión de la Inteligencia Artificial (AESIA). Formalizzata con il Real Decreto 729/2023, l’Agenzia ha sede a A Coruña e agisce come ente certificatore ex ante. Nel settore sanitario, la sua operatività è cruciale perché non agisce in isolamento, ma in coordinamento strutturale con l’AEMPS (Agencia Española de Medicamentos y Productos Sanitarios).

Si crea così un “Doppio Binario di Validazione” che chiude il cerchio della sicurezza:

  1. Validazione come Prodotto Dati: l’algoritmo viene esaminato dall’AESIA sotto il profilo della robustezza statistica, dell’assenza di bias (equità) e della data governance (qualità del set di addestramento).
  2. Validazione come Dispositivo Medico: l’algoritmo, in quanto software clinico (MDSW), viene validato dall’AEMPS ai sensi del Regolamento UE 2017/745 (MDR).

Questa copertura normativa a 360 gradi offre alle aziende ospedaliere una certezza giuridica sconosciuta in Italia: quando un sistema AI entra in corsia, ha già superato un vaglio tecnico statale che ne certifica non solo la “marcatura CE”, ma la solidità algoritmica specifica.

Sandbox, federazione dei dati e capitolati spagnoli

Il vero punto di svolta operativo, che segna la distanza siderale dal modello italiano ancorato alla Legge Gelli-Bianco, è il Real Decreto 817/2023, che istituisce l’ambiente controllato di prove (entorno controlado de pruebas), noto internazionalmente come Sandbox. L’analisi dell’Articolo 11 del decreto rivela una soluzione pragmatica al “Dilemma Difensivo“: il legislatore ha introdotto un meccanismo di De-risking della responsabilità professionale.

Nelle sperimentazioni condotte all’interno del Sandbox, le aziende sanitarie e i fornitori tecnologici operano sotto una copertura legale speciale. Se il medico utilizza l’IA seguendo rigorosamente il protocollo validato dall’AESIA e si verifica un evento avverso o un errore diagnostico imputabile alla macchina, la responsabilità non ricade automaticamente sulla malpractice professionale del clinico. Il rischio residuo viene gestito attraverso meccanismi assicurativi obbligatori e fondi di garanzia specifici previsti dal protocollo di sperimentazione. Questo crea uno “scudo giuridico” che incentiva l’adozione clinica: il medico sa che, agendo all’interno del perimetro del Sandbox, non rischia una causa per colpa grave legata all’imprevedibilità dell’algoritmo. È l’ordinamento che si fa carico dell’incertezza tecnologica per favorire il progresso terapeutico.

Federated learning e sovranità del dato

Mentre l’Italia punta sulla centralizzazione logica dei dati (FSE 2.0) scontrandosi con i diritti di oscuramento, le Comunidades Autónomas spagnole hanno adottato un approccio architetturale che aggira il problema della “sovranità del dato“: il Federated Learning. Progetti come TartaglIA (che coinvolge Galizia e Comunità Valenciana) o il programma Salut/IA della Catalogna, implementano un paradigma dove i dati sensibili non lasciano mai l’ospedale o la regione di origine. Sotto il profilo della compliance GDPR, questa architettura è risolutiva:
• Non avvengono trasferimenti massivi di dati (evitando i rischi di intercettazione o breach durante il transito).
• È l’algoritmo a “viaggiare” tra i nodi della rete federata: visita l’ospedale A, aggiorna i propri pesi sinaptici (weights) imparando dai dati locali, e si sposta all’ospedale B.
• Il risultato è un modello globale addestrato su milioni di pazienti, senza che sia mai stato creato un Data Lake centralizzato vulnerabile.

Inoltre, la Catalogna ha istituito un Osservatorio di Bioetica e Diritto che valida i progetti a monte, obbligando le stazioni appaltanti a rendere i dataset “AI-ready” (anonimizzati e strutturati) prima ancora di aprire le gare d’appalto, riducendo drasticamente i tempi di deployment industriale.

L’intelligenza artificiale sanitaria nei capitolati spagnoli

Laddove la normativa generale non arriva, la Spagna utilizza il diritto amministrativo. Le stazioni appaltanti (es. Servicio Andaluz de Salud) utilizzano massicciamente la Compra Pública de Innovación (CPI), trasformando i capitolati tecnici (Pliegos de Prescripciones Técnicas – PPT) in sofisticati strumenti di regolazione. Dall’analisi dei bandi più recenti emergono clausole standard che definiscono lo “Standard Spagnolo” di AI sanitaria.

Clausole contro la “Black Box” e la necessità della tecnologia XAI (Explainable AI)

L’esplicabilità non è un principio etico astratto, ma un requisito contrattuale di accettazione e collaudo. Nei PPT si rinviene la dicitura tassativa:
“El sistema deberá incorporar módulos de Explicabilidad Activa (Explainable AI). No se aceptarán soluciones basadas exclusivamente en modelos de ‘caja negra’ (black box). El adjudicatario deberá garantizar la trazabilidad de la decisión algorítmica…”.
L’implicazione giuridica è potente: se il fornitore consegna un algoritmo accurato al 99% ma privo di “mappe di calore” (heat maps) che spieghino al medico il perché della diagnosi, l’amministrazione può attivare la risoluzione per inadempimento.

Sistemi “Frozen” vs “Adaptive” e ciclo di vita

Per garantire la sicurezza clinica e la validità della marcatura CE nel tempo, i bandi spagnoli vietano l’apprendimento continuo non supervisionato in fase di produzione. La clausola “Frozen Model” impone che l’algoritmo dispiegato in ospedale sia una versione statica, identica a quella certificata. Qualsiasi processo di re-training deve avvenire in un ambiente separato di pre-produzione. Solo dopo una nuova validazione (sandbox interno), l’aggiornamento viene rilasciato. Questo previene il fenomeno del “drift” (deriva) delle prestazioni dell’algoritmo.

Sovranità del dato e IP condivisa

Per evitare il Vendor Lock-in (la dipendenza tecnologica dal fornitore), la Spagna ha introdotto clausole innovative sulla proprietà intellettuale. I bandi CPI distinguono giuridicamente tra:

  1. Algoritmo base: rimane proprietà del fornitore privato.
  2. Modello addestrato (Pesi Sinaptici): Essendo frutto dell’addestramento sui dati pubblici dei pazienti, i bandi impongono la “Titularidad Compartida” (comproprietà) o una licenza d’uso perpetua e trasferibile a favore dell’Amministrazione. In questo modo, se l’ospedale cambia fornitore tecnologico, non perde la “conoscenza” accumulata dall’IA negli anni, ma può migrare il “cervello” addestrato su una nuova piattaforma.

KPI, value-based healthcare e comitati ed,Infine, il modello spagnolo lega l’adozione dell’IA alla sostenibilità del sistema sanitario. Nei bandi CPI, il pagamento al fornitore non è fisso, ma parzialmente variabile e condizionato al raggiungimento di precisi KPI (Key Performance Indicators) clinico-economici. L’investimento in IA deve autofinanziarsi attraverso il risparmio generato (Cost Avoidance):
Riduzione dei Tempi di Refertazione: L’IA deve dimostrare di ridurre il tempo “scan-to-diagnosis” del 20-30%, aumentando la produttività dei reparti di radiologia o patologia.
Ottimizzazione della Degenza (LOS): Per gli algoritmi predittivi (es. rischio sepsi), il fornitore deve stimare la riduzione dei giorni di ricovero. Il risparmio sul “costo posto letto” giustifica la spesa della licenza software.
Riduzione Falsi Positivi: Negli screening, l’IA deve ridurre i richiami inutili, abbattendo i costi di biopsie e seconde visite non necessarie.

Governance etica multidisciplinare

A chiusura del cerchio, la Spagna ha compreso che i vecchi Comitati Etici (Comités de Ética de la Investigación – CEIC) composti solo da medici e giuristi erano inadeguati a valutare “scatole nere”. È stata quindi avviata una riforma strutturale che prevede l’integrazione obbligatoria di Profili Tecnici (Data Scientist, Bioingegneri) all’interno dei comitati. Il loro compito non è clinico, ma algoritmico: valutare se il dataset di addestramento è rappresentativo della popolazione locale (per evitare bias razziali o di genere) e se le metriche di performance tecnica (AUC, F1-Score) sono veritiere. Questo approccio ibrido trasforma la “validazione etica” da atto burocratico a vero audit tecnico del sistema.

Verso una “terza via” italiana: dall’ingegneria del dato alla governance dell’algoritmo

L’analisi comparata condotta tra l’esperienza spagnola e quella italiana restituisce l’immagine di due sistemi sanitari che, pur condividendo la matrice universalistica europea, affrontano la rivoluzione dell’Intelligenza Artificiale con strumenti giuridici e velocità divergenti. Se la Spagna, attraverso l’istituzione dell’AESIA e il Sandbox regolatorio, ha scelto la via della “legificazione dell’innovazione” creando un ambiente protetto ex ante, l’Italia si trova a dover gestire una complessa “transizione amministrativa“. In assenza di uno scudo legislativo sulla responsabilità medica analogo a quello iberico, il nostro ordinamento è chiamato a trasformare i suoi vincoli strutturali — dalla rigidità del GDPR al riparto costituzionale — in leve di garanzia, disegnando una strategia che non subisca il cambiamento ma lo governi attraverso il diritto.

Sotto il profilo tecnico, la sfida prospettica per il Servizio Sanitario Nazionale risiede nella risoluzione del paradosso tra accuratezza algoritmica e tutela del dato. L’infrastruttura centralizzata dell’Ecosistema Dati Sanitari (EDS) e del Fascicolo Sanitario Elettronico (FSE 2.0) pone un problema di Compliance by Design sconosciuto al modello federato spagnolo. La criticità maggiore è rappresentata dal diritto all’oscuramento: se l’IA deve essere addestrata su dati reali per essere efficace, il sistema deve gestire il rischio di operare su dataset incompleti dove il paziente ha oscurato eventi clinici rilevanti. La soluzione tecnica non può che risiedere nell’adozione di architetture “Stateless” (senza memoria), ovvero sistemi capaci di processare il dato in tempo reale senza storicizzarlo in repository paralleli, garantendo che l’IA agisca come un motore di calcolo puro e non come un archivio ombra vulnerabile. A ciò si aggiunge l’urgenza della resilienza: la vulnerabilità della supply chain sanitaria italiana agli attacchi cyber, che ha registrato un aumento del 31% nel 2024, impone che la sicurezza informatica non sia più considerata un requisito accessorio, ma una precondizione di deployment. Senza una resilienza cibernetica certificata, l’interoperabilità dell’EDS rischia di trasformarsi da opportunità in fragilità sistemica.

Sul piano giuridico, la prospettiva de jure condendo impone di superare la medicina difensiva non per via legislativa, strada impervia nel breve periodo, ma contrattuale. La vera “terza via” italiana consiste nell’utilizzare il capitolato d’appalto come strumento di regolazione “dal basso”. Le stazioni appaltanti, come Consip e le Centrali Regionali, devono imporre ai fornitori quegli standard di esplicabilità (Explainable AI) e di monitoraggio post-market che in Spagna sono garantiti dall’autorità centrale. Tuttavia, il nodo centrale resta costituzionale. Affinché l’IA non generi una “sanità a due velocità” basata sulla dotazione tecnologica regionale, è indispensabile che lo Stato eserciti la sua competenza esclusiva ex art. 117 Cost., elevando l’algoritmo validato a Livello Essenziale di Assistenza (LEA). Solo inserendo la prestazione algoritmica nei LEA si garantisce che il diritto alla salute ex art. 32 Cost. sia esigibile in modo uniforme su tutto il territorio nazionale, trasformando l’innovazione tecnologica da opzione organizzativa a diritto civile.

In definitiva, mentre l’Europa regola e la Spagna sperimenta, l’Italia deve attuare. Il modello italiano non potrà basarsi sulla de-responsabilizzazione automatica del medico, come avviene nel Sandbox spagnolo, ma dovrà fondarsi sulla tracciabilità inalterabile della decisione umana (Human in the loop). L’obiettivo finale non è sostituire il clinico, ma potenziarlo, spostando il baricentro dalla paura del contenzioso alla gestione del rischio clinico assistita dall’algoritmo. La sfida per il legislatore e per i giuristi sarà quella di accompagnare questo processo, vigilando affinché l’efficienza predittiva dell’IA non comprima mai l’autodeterminazione informativa del paziente, vero baluardo della tradizione giuridica nazionale.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x