deskilling

Troppa IA in ospedale, i medici perdono competenze: i rischi



Indirizzo copiato

Un recente studio polacco evidenzia come l’uso routinario dell’intelligenza artificiale in medicina possa ridurre le capacità diagnostiche dei medici. Il fenomeno del deskilling solleva interrogativi sul futuro della professione e sulla formazione sanitaria

Pubblicato il 8 ott 2025

Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria



rete DPO sanità vendita di farmaci online ia in sanità; duplicato tessera sanitaria sanità sostenibile ia in medicina

Il progresso tecnologico in medicina è spesso celebrato come una conquista capace di migliorare la vita dei pazienti e alleggerire il lavoro dei medici. Tuttavia, alcune ricerche recenti stanno rivelando un lato problematico dell’intelligenza artificiale applicata alla diagnostica: l’eccessiva dipendenza dagli algoritmi rischia di ridurre le competenze umane, proprio quelle su cui si fonda la capacità di cura.

Lo studio polacco sulle colonoscopie con supporto IA

Uno studio condotto in Polonia, pubblicato su The Lancet Gastroenterology & Hepatology, ha seguito più di mille pazienti sottoposti a colonscopia per valutare l’impatto dell’uso routinario di sistemi di supporto basati su intelligenza artificiale.

L’obiettivo era misurare la capacità dei medici di individuare adenomi, cioè piccole lesioni precancerose che, se non rimosse, possono evolvere in tumori maligni al colon. I dati hanno mostrato un fenomeno inatteso: quando i medici lavoravano con l’ausilio dell’IA, le loro prestazioni erano stabili o leggermente migliorate, ma nel momento in cui tornavano a operare senza supporto tecnologico, i risultati peggioravano sensibilmente rispetto al livello iniziale.

In poche settimane, la loro abilità diagnostica si era erosa, con un calo significativo nel tasso di rilevazione. Il valore clinico di questa scoperta è rilevante. In ambito gastroenterologico, ogni punto percentuale in più di adenomi individuati equivale a una riduzione significativa dell’incidenza di cancro colorettale nella popolazione. Un peggioramento della capacità di diagnosi, anche solo di alcuni punti percentuali, può tradursi in centinaia di casi in più non individuati in tempo.

Lo studio suggerisce quindi che l’introduzione sistematica dell’intelligenza artificiale, se non accompagnata da misure correttive, rischia di minare le basi stesse della prevenzione oncologica.

Il fenomeno del deskilling e i rischi per la pratica medica

Il fenomeno osservato rientra in quello che molti esperti chiamano “deskilling”, cioè la perdita progressiva di abilità professionali dovuta a un’eccessiva delega alle macchine.

È un effetto che si è già visto in altri settori: i conducenti che si affidano troppo al GPS finiscono per perdere il senso dell’orientamento, i piloti che lavorano con sistemi di autopilota hanno più difficoltà a gestire emergenze improvvise, i lavoratori che usano strumenti automatizzati tendono a ridurre le proprie capacità manuali. In medicina, questo meccanismo assume però una valenza molto più delicata, perché la vita del paziente dipende dalla prontezza e dalla competenza del medico anche in condizioni non previste dai sistemi automatici.

L’espansione dell’IA nelle specialità diagnostiche

Il problema non riguarda solo la gastroenterologia. In radiologia, dermatologia e cardiologia, l’IA è già diffusa come strumento di supporto nella diagnosi di tumori, lesioni o malattie degenerative. Molti studi hanno dimostrato che gli algoritmi possono riconoscere pattern difficili da individuare a occhio nudo e che sono in grado di segnalare anomalie con grande rapidità. In diversi casi hanno persino superato l’accuratezza media dei medici. Questo ha portato molti ospedali a integrare stabilmente sistemi di intelligenza artificiale nei reparti diagnostici.

Autonomia ridotta e limiti dell’affidabilità algoritmica

Tuttavia, il rischio è che, abituandosi a un supporto costante, i professionisti si esercitino meno nella capacità di osservare, interpretare e decidere in autonomia. L’altro aspetto critico riguarda l’affidabilità dell’IA stessa. Gli algoritmi si basano su grandi quantità di dati e su processi statistici che non sempre sono trasparenti. Errori di programmazione, set di dati incompleti o distorti e malfunzionamenti possono generare falsi positivi o falsi negativi. Un medico che ha mantenuto viva la propria competenza critica è in grado di riconoscere l’anomalia e correggere l’errore. Un medico che si è affidato passivamente al software rischia invece di fidarsi troppo della macchina e di non intervenire con prontezza. Il nodo centrale è quindi culturale e organizzativo.

Strategie di utilizzo equilibrato e implicazioni formative

L’intelligenza artificiale può essere una risorsa straordinaria per la medicina, ma va utilizzata come strumento di supporto, non come sostituto. L’obiettivo deve essere quello di potenziare le capacità umane, non di sostituirle.

Ciò significa che occorre sviluppare protocolli che prevedano una formazione continua e sessioni di lavoro senza supporto tecnologico, per mantenere vivo l’allenamento dei medici. Alcuni esperti propongono un modello misto, in cui l’IA venga utilizzata a intervalli e non in modo costante, così da garantire che l’occhio umano resti vigile e autonomo. Il tema solleva anche questioni etiche e politiche. In un’epoca in cui i sistemi sanitari cercano soluzioni per ridurre costi e tempi, la tentazione di affidarsi in maniera crescente all’automazione è forte. Ma un risparmio immediato potrebbe generare un costo molto più alto nel medio periodo, se le competenze mediche si indeboliscono e la qualità della diagnosi peggiora.

La medicina come sintesi di tecnica ed esperienza umana

Inoltre, la formazione dei futuri medici rischia di essere condizionata da un uso precoce dell’IA, con giovani professionisti che imparano a lavorare già con un supporto automatico costante, senza sviluppare appieno la sensibilità clinica personale. Non va dimenticato che la medicina non è solo tecnica, ma anche esperienza e capacità interpretativa. Una colonscopia, una radiografia o un’ecografia non sono semplici immagini da analizzare: richiedono un contesto, una lettura globale del paziente, la capacità di cogliere dettagli minimi e di integrarli con i sintomi e la storia clinica. È proprio in questa capacità di sintesi che il medico resta insostituibile. Se la tecnologia riduce la pratica di questo esercizio, si rischia di creare una generazione di professionisti eccellenti nel gestire strumenti ma meno preparati a gestire l’imprevisto.

Regolamentazione e futuro della professione medica

Occorre, quindi, un quadro regolatorio che stabilisca limiti, linee guida e forme di monitoraggio per l’uso dell’IA in ambito clinico. È necessario che gli ospedali affianchino all’adozione della tecnologia programmi di verifica delle competenze umane. Le scuole di medicina devono introdurre corsi che insegnino a utilizzare l’intelligenza artificiale come un alleato critico, sviluppando al tempo stesso una riflessione sulle responsabilità che restano comunque in capo al professionista. La medicina moderna non può fare a meno dell’IA, soprattutto in un contesto in cui la domanda sanitaria aumenta e le risorse umane scarseggiano.

Ma non può nemmeno permettersi di trasformare i medici in semplici operatori che supervisionano una macchina. Il valore della professione medica sta proprio nella capacità di unire conoscenza, esperienza, sensibilità e intuizione, elementi che nessun algoritmo può replicare. Preservare queste competenze, mentre si sfruttano i benefici della tecnologia, sarà una delle sfide più importanti per i sistemi sanitari nei prossimi anni. L’intelligenza artificiale non deve diventare una stampella permanente, ma uno strumento che stimola il medico a migliorarsi, senza mai rinunciare alla propria autonomia. In caso contrario, la stessa tecnologia nata per salvare vite rischia di diventare, paradossalmente, un ostacolo al progresso.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati