medicina

Come l’AI sta cambiando la sanità (e perché fa ancora paura)



Indirizzo copiato

L’intelligenza artificiale in sanità offre grandi potenzialità diagnostiche e terapeutiche, ma solleva questioni cruciali su privacy, bias algoritmici, equità dei dati e ridefinizione del ruolo del medico. Le istituzioni europee e internazionali cercano ancora un quadro regolatorio condiviso ed efficace

Pubblicato il 24 mar 2026

Sonia Albanese

Former Director Unit Of Arrhythmia Surgery Pediatric Hospital and Research Institute Bambino Gesù-Rome



digitalizzazione sanità Calabria Legge di Bilancio sanità 2026; Aziende Ict in sanità: le ricette per migliorare la qualità delle cure e rendere più sostenibile il sistema sanitario IA nei sensori medici
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

L’arrivo dell’intelligenza artificiale è oggi una delle trasformazioni più profonde e dibattute in campo medico. A quattro anni dalla definizione proposta dall’OMS, il confronto tra potenzialità e rischi è ancora aperto, e la strada verso un’implementazione equa, sicura e condivisa passa necessariamente da scelte di governance, formazione e responsabilità istituzionale.


L’intelligenza artificiale in sanità: quattro anni dopo la definizione WHO

Sono passati oramai quattro anni da quando WHO ha proposto la definizione di intelligenza artificiale “the performance by computer programs of tasks that are commonly associated with intelligent being”, e con essa la capacità intrinseca di rivoluzionare il sistema salute.

L’intelligenza artificiale ha questa capacità intrinseca essendo capace come un cervello in modalità duale, associato a quello medico, di analizzare rapidamente grandi e complessi datasets, di produrre raccomandazioni e terapie mirate per i pazienti e controllarne i risultati.


Intelligenza umana e artificiale: differenze strutturali e modelli ibridi

Noi sappiamo come l’intelligenza umana sia contestuale, intenzionale, limitata nella memoria di lavoro, ma incredibilmente flessibile. L’intelligenza artificiale invece è statistica, computazionale, ma non “comprende” il contesto nel senso umano, a meno che quel contesto non venga progettato dentro il sistema.

È per questo che le applicazioni di software attuali partono dal presupposto di un sistema integrato ibrido con precise responsabilità di governance umana e gestione rapida dei volumi di attività attuate dall’AI.


Rischi su larga scala: privacy e interpretazione dei dati

Ma cosa accade su larga scala quando utilizziamo questi software in medicina? La capacità estesa dell’AI in campo medico ha subito catturato l’attenzione dei policy makers a livello nazionale e globale.

Ma ha anche aperto subito scenari, nell’applicabilità di rischio, connesso quest’ultimo prevalentemente alla violazione possibile della privacy delle persone e a un secondo aspetto di cattiva interpretazione dei risultati perpetuandone, laddove accada, la veridicità fasulla.


Il ruolo del medico e la resistenza europea alla digitalizzazione

Quale dovrebbe essere a questo punto il compito del medico? Destinato quest’ultimo a perdere non solo le skills professionali ma anche l’esclusività formale e sostanziale del suo sapere. Tutte queste riflessioni insieme, hanno costituito come un punto di arresto nella diffusione capillare dell’IA, ed hanno alimentato anche una resistenza in buona parte dei paesi Europei all’utilizzo della stessa.

Basti pensare alla Survey del 2023 sulla sanità digitale che ha mostrato come solo un terzo dei paesi attenzionati aveva politiche codificate di utilizzo e una buona formazione degli operatori sanitari.


Equità e imparzialità: i bias nei dataset sanitari

Un punto fondamentale in sanità è assicurarsi che l’intelligenza artificiale venga usata in modo equo, giusto e imparziale, controllando che risorse, benefici o opportunità siano distribuiti senza favoritismi e senza costituire un background culturale pregiudiziale inserendo datasets non rappresentativi per differenze di genere e etnie che corrano poi il rischio di tramandare la disuguaglianza.


Bias cognitivi e raccomandazioni UNESCO per un’AI equa

Per spiegarci meglio, soprattutto nell’analisi dei sistemi tecnologici, bisogna assicurarsi che non ci siano pregiudizi cognitivi rispetto al valore netto reale che possano produrre degli errori predittivi sistematici nella catena di controllo del processo a cui è deputata l’intelligenza artificiale. Le disparità e i bias basati su sesso e genere sono a volte sottilmente meno evidenti, ma presenti e non vanno tramandati con le pratiche. Proprio per questo motivo la United Nations Educational, Scientific and Cultural Organization (UNESCO) ha ritenuto necessario redigere delle raccomandazioni a cui hanno aderito le principali compagnie di tecnologie in campo informatico per l’immissione di dati che alimentano l’algoritmo in maniera equa.


Governance clinica: consenso degli operatori e criteri di Prainsack e Kickbusch

Inoltre le istituzioni pubbliche sanitarie devono provvedere a dare priorità, nell’implementazione dell’intelligenza artificiale, ad algoritmi che non rafforzino le disparità sanitarie già presenti. Nell’uso clinico della tecnologia bisogna avere il consenso operativo dei medici e degli operatori sanitari in generale.

Questo aspetto delicato va potenziato. Infatti Prainsack e Kickbusch hanno codificato i tre criteri a cui ispirarsi per l’utilizzo dell’IA che sono: produrre dati facilmente quando sia molto evidente un largo potenziale benefico per quell’uso, proibire usi che comportano alti rischi, e condividere i benefici ottenuti tra gli operatori che inseriscono i dati e quelli che ne usufruiscono, tutto questo al fine di implementare la fidelizzazione degli operatori.


AI e professionalismo medico: il rischio di una sovrapposizione non regolata

Un altro aspetto delicato è rappresentato dal fatto che l’utilizzo della intelligenza artificiale si va a sovrapporre al campo di azione del professionalismo medico. James Prior Lecture at the Christchurch Annual Scientific Congress of the College of Surgeons nel 2007 parlava dei tre aspetti fondamentali del professionalismo: il diritto esclusivo a praticare in una definita area applicativa, l’autonomia professionale, il dovere primario nei confronti dei pazienti per costruire la professione con la conseguente importanza nella percezione pubblica del ruolo di service del medico. Ora rispetto a tutto questo campo l’intelligenza artificiale va a sovrapporsi e se non regolata e implementata in modalità duale va a ingenerare confusione entropica.


Cybersicurezza e One Health: la sfida globale della protezione dei dati

In ultimo vi è l’aspetto della cybersicurezza nella protezione dei dati sia nell’ambito nazionale che rispetto all’impatto globale che l’intelligenza artificiale può avere nell’armonia dell’“One Health system”.

Bibliografia

1)Who.Ethics and governance of artificial intelligence for health.World Health Organization, 2021 https://www.who.int/publications/i/item/9789240029200(oct 18,2024)

2)Bharel M, Auerbach J, Nguyen V et al. Transforming public health practice with generative artificial intelligence. Health Aff 2024;43:776-82

3)Mc Kee M, Wouters OJ.The challenges of regulating artificial intelligence in healthcare comment on “Clinical Decision Support and New Regulatory Frameworks for Medical Devices:are we ready for it-A viewpoint Paper.Int J Health Policy Manag 2023;12:7261

4)Prainsack B, Kickbusch I.A new public health approach to data: why we need data solidarity.BMJ 2024:386:q2076.

5)Dhar P The carbon impact of artificial intelligence. Nat Mach Intell 2020;2:423-25

6)Davies G: Professionalism of surgeons:a collective responsability ANZ Journal of Surgery Vol81,4,219-226 April 2011

7)UNESCO: https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x