responsabilità civile

IA in sanità: chi risponde quando l’algoritmo sbaglia?



Indirizzo copiato

L’intelligenza artificiale in sanità introduce nuove complessità giuridiche. L’OMS richiama alla cautela sulla responsabilità per errori algoritmici. Il diritto deve ridefinire i confini tra responsabilità medica, organizzativa e del produttore, garantendo tutela effettiva ai pazienti senza frenare l’innovazione tecnologica

Pubblicato il 23 feb 2026

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



AI: dal caos all’ordine, nelle imprese come nella sanità; e-commerce ai in sanità; AI cittadini social e sanità ai in sanità

Nel dibattito pubblico sullintelligenza artificiale applicata alla sanità, l’attenzione si è a lungo concentrata sulle potenzialità: diagnosi più precoci, riduzione degli errori umani, supporto alle decisioni cliniche, ottimizzazione delle risorse.

L’ingresso dell’IA nella pratica clinica e il ritardo normativo

Solo più di recente, anche grazie all’intervento di organismi sovranazionali come l’Organizzazione Mondiale della Sanità, il discorso ha iniziato a spostarsi con maggiore decisione sul rovescio della medaglia: l’errore algoritmico e le sue conseguenze giuridiche.

Il monito dell’OMS non arriva in un vuoto normativo o culturale, ma intercetta una tensione già evidente nei sistemi sanitari avanzati. L’intelligenza artificiale non è più una tecnologia sperimentale, confinata a progetti pilota o a contesti di ricerca. È entrata nella pratica clinica ordinaria, spesso senza che il quadro regolatorio e responsabilistico sia stato pienamente adattato. Quando un algoritmo sbaglia, o contribuisce in modo determinante a un errore clinico, il diritto non può limitarsi a ricondurre l’evento a categorie tradizionali senza interrogarsi sulla loro tenuta.

La domanda “chi risponde?” non è solo tecnica o risarcitoria. È una domanda profondamente sistemica, che riguarda la distribuzione del rischio tecnologico, il rapporto di fiducia tra medico e paziente e, in ultima analisi, la sostenibilità giuridica dell’innovazione in sanità.

L’opacità algoritmica sfida i principi del diritto sanitario

L’errore in medicina non è una novità per il diritto. Da decenni la responsabilità sanitaria si confronta con eventi avversi, incertezze scientifiche, margini di rischio accettabile. Ciò che cambia con l’intelligenza artificiale è la natura dell’errore. Non si tratta più soltanto di una scelta clinica errata, di una valutazione negligente o di un’omissione, ma di un output generato da un sistema che apprende, generalizza e opera su basi probabilistiche.

Molti sistemi di IA, in particolare quelli basati su machine learning e deep learning, producono risultati senza che sia possibile ricostruire in modo chiaro e intelligibile il percorso decisionale che li ha generati. Questo elemento di opacità entra in attrito con principi fondamentali del diritto sanitario, come la tracciabilità della decisione clinica, la motivazione delle scelte e la possibilità di controllo ex post.

Il richiamo dell’OMS alla cautela e alla responsabilità va letto proprio in questa chiave: l’IA non è neutra, non è oggettiva e non è infallibile. Essa riflette i dati su cui è addestrata, i bias culturali e statistici incorporati nei dataset, le scelte dei progettisti. In sanità, questi fattori possono tradursi in errori sistemici, che colpiscono gruppi di pazienti in modo non casuale e che sfuggono al controllo del singolo professionista.

Il dilemma della responsabilità medica nell’uso dell’IA

Nel quadro attuale, il medico rimane il perno della responsabilità clinica. L’intelligenza artificiale è qualificata, giuridicamente, come strumento di supporto alla decisione e non come soggetto autonomo. Questo significa che, in linea di principio, l’errore dell’algoritmo non esonera il professionista dalla responsabilità verso il paziente.

Tuttavia, questa impostazione solleva interrogativi non marginali. Se al medico si chiede di utilizzare strumenti sempre più complessi e sofisticati, spesso presentati come più affidabili dell’esperienza umana, fino a che punto è realistico pretendere che egli sia in grado di sindacarne criticamente ogni output? Il rischio è quello di una responsabilità che si sposta dalla condotta colpevole alla mera posizione di garanzia, trasformando il medico nel terminale giuridico di un sistema decisionale che non controlla pienamente.

La giurisprudenza, pur non avendo ancora elaborato un orientamento consolidato specifico sull’IA, mostra segnali di attenzione a questo profilo. Si affaccia l’idea che la colpa del medico debba essere valutata anche alla luce dell’affidabilità scientifica dello strumento utilizzato, del contesto organizzativo e delle informazioni effettivamente disponibili al momento della decisione. Non ogni affidamento all’algoritmo può essere qualificato come acritico o negligente.

La dimensione organizzativa della responsabilità sanitaria

Se il ruolo del medico appare sempre più complesso, quello della struttura sanitaria assume un rilievo crescente. È la struttura, infatti, che decide se adottare un sistema di intelligenza artificiale, quale acquistare, come integrarlo nei percorsi clinici e come formare il personale. In questo senso, l’IA non è solo una tecnologia, ma una scelta organizzativa.

Il diritto sanitario conosce bene la responsabilità per difetto di organizzazione, per carenze strutturali o per insufficiente gestione del rischio clinico. L’introduzione dell’IA amplia questa responsabilità, perché richiede nuove competenze, nuove procedure di controllo e una valutazione continua delle prestazioni del sistema. Utilizzare un algoritmo senza monitorarne l’accuratezza nel tempo, senza aggiornarlo o senza definire chiaramente i suoi limiti operativi può configurare una colpa organizzativa autonoma.

Il monito dell’OMS rafforza questa impostazione: l’uso dell’IA in sanità non può essere lasciato all’iniziativa individuale del singolo medico, ma deve essere governato a livello istituzionale. La responsabilità civile, in questo contesto, diventa uno strumento di regolazione ex ante, capace di incentivare scelte tecnologiche responsabili.

Produttori e dispositivi medici: la responsabilità da prodotto difettoso

Un ulteriore tassello riguarda i produttori dei sistemi di intelligenza artificiale. Molti di questi strumenti rientrano nella definizione di dispositivo medico e sono soggetti al Regolamento europeo 2017/745, che impone requisiti stringenti in termini di sicurezza, prestazioni e sorveglianza post-commercializzazione.

La responsabilità da prodotto difettoso rappresenta, almeno in teoria, una via di tutela per il paziente danneggiato. Tuttavia, l’IA mette in crisi anche questo schema. Un algoritmo che evolve nel tempo, che apprende da nuovi dati e che può essere utilizzato in contesti diversi da quelli originariamente previsti rende difficile individuare il momento e la causa del difetto.

Le proposte normative europee più recenti, dalla direttiva sulla responsabilità per l’IA all’AI Act, cercano di rispondere a questa complessità introducendo obblighi di trasparenza, tracciabilità e gestione del rischio. L’obiettivo è evitare che la complessità tecnica si traduca in un vuoto di responsabilità.

Una responsabilità distribuita per tutelare il paziente

Il quadro che emerge è quello di una responsabilità sempre meno concentrata su un singolo attore e sempre più distribuita lungo la filiera dell’innovazione tecnologica. Medici, strutture sanitarie, produttori e decisori pubblici concorrono, ciascuno con un ruolo diverso, alla creazione e alla gestione del rischio algoritmico.

La sfida del diritto non è fermare l’innovazione, ma impedire che essa si sviluppi scaricando i costi dell’errore sul soggetto più debole: il paziente. In questo senso, il monito dell’OMS rappresenta un passaggio culturale prima ancora che normativo. Ricorda che l’intelligenza artificiale, per quanto avanzata, rimane uno strumento umano, e che la responsabilità per i suoi effetti non può dissolversi dietro l’opacità degli algoritmi.

Governare l’errore dell’IA in sanità significa accettare la complessità senza rinunciare ai principi fondamentali del diritto: tutela della salute, effettività del risarcimento, responsabilità come presidio di fiducia. È su questo terreno che si gioca una delle partite più delicate del diritto sanitario contemporaneo.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x