linee indirizzo AI SANItA’

La cura è nella relazione non nell’algoritmo: la lezione Anitec-Assinform



Indirizzo copiato

Le “Linee di indirizzo” Anitec Assinform su intelligenza artificiale in Sanità presentate alla Camera spostano l’attenzione dall’algoritmo alla relazione di cura: responsabilità, fiducia, comunicazione e incertezza restano centrali. Il punto non è adottare tecnologia, ma governare un processo con regole chiare e dati affidabili

Pubblicato il 19 dic 2025

Domenico Marino

Università Degli Studi Mediterranea di Reggio Calabria



Linee di indirizzo sulle applicazioni dell’IA nella relazione tra il professionista sanitario e il paziente
AI Questions Icon
Chiedi allʼAI Nextwork360
Riassumi questo articolo
Approfondisci con altre fonti

Riconoscere che in medicina non basta avere strumenti capaci di prevedere, classificare o suggerire: la cura è un processo che passa da responsabilità professionale, fiducia, comunicazione, contesto, preferenze del paziente e gestione dell’incertezza.

Linee di indirizzo sull’adozione dell’Intelligenza Artificiale in sanità Anitec Assinform.

C’è questo dietro le Linee di indirizzo sull’adozione dell’Intelligenza Artificiale in sanità, presentato alla Camera da Anitec Assinform.

E prova a fare una cosa non così frequente quando si parla di Intelligenza Artificiale in sanità e cioè togliere il riflettore dalla tecnologia e puntarlo sulla relazione di cura.

Se l’IA entra in questo ecosistema senza un disegno preciso, rischia di diventare un intermediario che complica, opacizza e standardizza ciò che invece dovrebbe restare personalizzato.

Il documento Anitec Assinform nasce dal lavoro di un tavolo multidisciplinare e le firme che lo sostengono sono, in questo senso, parte del messaggio.

Mettere insieme pediatri, infermieri, diabetologi, medici di medicina generale, esperti di IA in medicina, sigle sindacali territoriali, cooperative sanitarie e un’associazione di cittadinanza attiva equivale a dire che l’adozione dell’IA non è un affare esclusivo dei tecnologi né una questione delegabile ai singoli reparti “più innovativi”.

È un cambio di mentalità che deve attraversare professioni, organizzazioni e diritti, altrimenti l’IA resta confinata a sperimentazioni isolate o, peggio, arriva come prodotto calato dall’alto, con effetti imprevedibili sul lavoro quotidiano e sulla relazione con il paziente.

Perché l’intelligenza artificiale in sanità deve restare un supporto

La scelta più significativa, e anche la più “scientifica”, delle linee di indirizzo Anitec Assinform è quella di descrivere l’IA come supporto e non come sostituto.

Sembra una formula ovvia, ma in realtà è un argine a un rischio molto concreto: la deriva verso l’automazione decisionale mascherata.

Il rischio dell’automation bias nella pratica clinica

Nella pratica clinica, quando uno strumento appare affidabile e soprattutto fa risparmiare tempo, la tendenza umana è fidarsi, spesso più di quanto sarebbe razionale fare.

È un fenomeno noto come automation bias che non nasce da superficialità, ma da condizioni reali di lavoro che implicano pressioni, carichi, turni, carenza di personale, complessità dei casi.

Output spiegabile e segnali di qualità dell’input

Per questo le linee di indirizzo su AI in Sanità hanno valore quando insistono sul fatto che la responsabilità rimane al professionista sanitario, e che l’IA deve essere progettata per rendere visibile la propria affidabilità, non per presentarsi come oracolo.

Se l’output di un algoritmo è una frase netta, senza contesto, senza incertezza, senza segnali di qualità dell’input, diventa facile trasformarlo in una scorciatoia mentale.

Se invece l’IA impara a mostrare quanto è sicura, su quali dati sta ragionando e quando i dati sono incompleti o anomali, allora può davvero sostenere la decisione senza sostituirla.

Il dialogo clinico nell’era dell’intelligenza artificiale in sanità

In questo quadro la “centralità della persona” smette di essere un’etichetta e diventa un criterio: la tecnologia è accettabile se migliora la capacità di ascolto e la qualità del dialogo clinico.

È un punto sottile, ma decisivo.

Molte applicazioni di IA in sanità vengono valutate quasi esclusivamente per performance e produttività, ma l’atto di cura è anche un atto comunicativo.

Un punteggio di rischio, per esempio, può essere utile al professionista; ma per il paziente può diventare un numero opaco che genera ansia o sfiducia, se non è accompagnato da spiegazione, alternative, implicazioni pratiche.

L’IA può essere alleata non solo nel calcolo, ma nel rendere più chiara la storia clinica, nel suggerire domande da porre, nel ricordare elementi trascurati, nel supportare la continuità assistenziale.

L’ambizione implicita del documento è che la tecnologia restituisca tempo e qualità alla relazione, non che la comprima in un’interazione più rapida e impersonale.

Dati e interoperabilità per l’intelligenza artificiale in sanità, con le linee di indirizzo Anitec Assinform

Il passaggio più concreto, e forse più decisivo per qualsiasi adozione reale nel Servizio Sanitario Nazionale, è quello sui dati: qualità, interoperabilità e governance.

L’IA non è magia, è statistica applicata su informazioni.

Se le informazioni sono incomplete, disallineate, frammentate o raccolte con criteri diversi tra territori e strutture, l’algoritmo può diventare una macchina che produce risultati apparentemente precisi, ma instabili, difficili da interpretare e, in alcuni casi, ingiusti.

Disuguaglianze territoriali e dati “a pezzi”

In Italia questo non è un problema astratto, ma fortemente reale, perché la sanità digitale è cresciuta in modo diseguale e spesso per stratificazioni.

Un sistema di IA che in una regione ha accesso a dati strutturati e aggiornati e in un’altra riceve documenti “a pezzi” o codifiche incoerenti, non avrà lo stesso comportamento.

Anche la sicurezza, in senso clinico, dipende dalla qualità informativa: conoscere terapie in corso, allergie, comorbidità, ultime misurazioni rilevanti non è solo un fatto amministrativo, è un requisito per prendere decisioni corrette e rapide.

Patient summary come ponte tra innovazione e pratica

Per questo appare particolarmente intelligente l’idea di far ruotare alcune priorità attorno a oggetti clinici trasversali, come il patient summary, che possono funzionare da ponte tra innovazione e pratica quotidiana.

Un riassunto clinico essenziale, ben costruito e aggiornato, vale in pronto soccorso, nelle dimissioni, nella medicina generale, nella cronicità, nelle transizioni ospedale-territorio.

Se l’IA viene usata per compilare, aggiornare e controllare la coerenza di questo riassunto, l’effetto può essere più profondo di quanto suggerisca la parola “digitalizzazione” dato che riduce errori informativi, limita incongruenze terapeutiche, evita ripetizioni inutili, facilita la continuità.

Ed è un caso d’uso che “costringe” a fare bene le basi perché, se non esiste interoperabilità reale, se mancano standard condivisi e se la qualità del dato è bassa, un patient summary assistito dall’IA non può funzionare.

Governance e drift: monitoraggio continuo nel SSN nelle linee di indirizzo

Quando il documento parla di governance, prova a descrivere l’adozione come un processo e non come un acquisto.

È una distinzione vitale: i sistemi di IA non sono statici, e anche quando non vengono aggiornati intenzionalmente possono cambiare comportamento perché cambia il mondo attorno a loro.

Le popolazioni assistite cambiano, cambiano le pratiche cliniche, cambiano i dati in ingresso, cambiano i setting organizzativi.

Che cos’è il drift e perché conta

Esiste un rischio specifico, spesso sottovalutato: il drift, cioè la perdita progressiva di affidabilità nel tempo.

In sanità questa deriva non è un grafico in un report tecnico; significa falsi negativi che aumentano, falsi positivi che sovraccaricano, allarmi inutili che intasano il lavoro e riducono l’attenzione per quelli importanti.

Audit, tracciabilità e intervento precoce

Una governance efficace dovrebbe prevedere monitoraggio continuo, audit periodici, tracciabilità delle decisioni e, soprattutto, la capacità di intervenire prima che un problema si trasformi in incidente.

Il documento, in questa direzione, suggerisce una visione corretta: valutazioni d’impatto, sperimentazioni controllate e attenzione al rischio, invece dell’entusiasmo indiscriminato per qualunque soluzione “AI-powered”.

Requisiti minimi per l’intelligenza artificiale in sanità

Eppure, proprio qui emergono le carenze più pesanti, quelle che possono trasformare una buona cornice in un manifesto poco utilizzabile.

La prima è la distanza tra principi e requisiti verificabili.

Dire “trasparenza” o “spiegabilità” è giusto, ma in ospedale o in un ambulatorio la domanda inevitabile è: cosa devo vedere, cosa devo poter controllare, cosa deve essere registrato, quali limiti d’uso sono definiti?

Spiegabilità e incertezza: domande operative

Spiegabilità per chi e con quale livello?

Quanto deve essere esplicita l’incertezza?

Cosa succede quando l’IA è addestrata su popolazioni diverse da quella in cui viene usata?

Senza una traduzione in criteri minimi, anche semplici, ma standardizzati, ogni struttura rischia di negoziare da sola e ogni progetto rischia di diventare un caso a sé.

Questo produce disomogeneità e, soprattutto, impedisce di accumulare apprendimento collettivo poiché non si capisce quali scelte funzionano meglio e quali creano più problemi.

Responsabilità lungo la filiera: chi decide cosa

C’è poi un tema di responsabilità lungo la filiera che resta troppo sfumato.

Ribadire che “l’ultima parola è del clinico” è comprensibile e in parte necessario, ma se non si chiarisce cosa compete a struttura sanitaria si crea un paradosso dato che il professionista è chiamato a rispondere di decisioni prese con strumenti che non controlla davvero, configurati magari da altri, aggiornati o modificati da terzi, integrati in flussi di lavoro disegnati altrove.

Bisogna chiedersi alcune cose.

Chi decide le soglie di allerta?

Chi autorizza l’aggiornamento di un modello?

Chi verifica che le prestazioni restino stabili?

Chi gestisce un incidente o un bias sistematico?

Se queste responsabilità non vengono distribuite in modo chiaro, l’adozione rallenta, oppure avviene in modo difensivo, con l’IA usata poco e male, solo per non esporsi.

Formazione e valutazione d’impatto nel mondo reale

La formazione è un’altra area rispetto alla quale il documento indica la direzione, ma il rischio di genericità resta alto.

Se l’IA deve diventare un supporto reale, i professionisti devono imparare a interpretarla e contestarla.

Non serve trasformare tutti in data scientist; serve però una alfabetizzazione pratica: capire cosa significa performance, quali bias possono emergere, come leggere un indicatore di confidenza, quando diffidare perché l’input è incompleto, come riconoscere un effetto di “spinta” dell’interfaccia verso certe scelte.

Alfabetizzazione pratica, ma differenziata per ruolo

E serve farlo in modo differenziato: un radiologo, un MMG, un infermiere, un diabetologo, un dirigente sanitario hanno bisogni diversi.

Senza un disegno formativo strutturato, l’adozione diventa diseguale con alcuni contesti evolvono, altri restano fermi e la promessa di ridurre disuguaglianze territoriali rischia di rovesciarsi nel suo contrario.

Indicatori minimi e impatti reali (anche negativi)

Infine, c’è la questione della valutazione degli impatti nel mondo reale.

In sanità non basta che un modello funzioni in un test o in un pilota.

Bisogna capire cosa cambia davvero: errori evitati, tempi, carichi di lavoro, esiti clinici o proxy solidi, equità su sottopopolazioni, qualità percepita dai pazienti, incidenti e quasi-incidenti, capacità dei professionisti di mantenere controllo.

Se un sistema aumenta alert inutili, può peggiorare la sicurezza invece di migliorarla.

Se riduce tempi ma aumenta contenzioso o sfiducia, il bilancio diventa ambiguo.

Qui serve un salto e servono: indicatori minimi, monitoraggio continuo, e la volontà di sospendere o modificare una soluzione quando i dati dicono che non sta funzionando come previsto.

Linee di indirizzo Anitec Assinform su AI in Sanità: un playbook operativo per l’adozione

Nonostante queste lacune, l’impressione è che il documento Anitec Assinform su AI in Sanità abbia un valore reale perché sceglie una traiettoria sensata: umanocentrica, guidata dai professionisti, ancorata ai dati e alla loro interoperabilità, attenta alla governance e al rischio.

La differenza, ora, la farà la capacità di trasformare questa traiettoria in standard pratici.

Un passo naturale sarebbe affiancare alle linee di indirizzo un playbook operativo: requisiti minimi per procurement e integrazione, criteri di valutazione proporzionati al rischio, modalità di audit e sorveglianza post-adozione, modelli chiari di responsabilità lungo la filiera, e una strategia di formazione continua che renda l’IA uno strumento quotidiano e non una scatola nera.

Occorre in sostanza passare da “come dovrebbe essere” a “cosa dobbiamo pretendere, misurare e mantenere nel tempo”.

Se questa seconda fase avverrà, l’IA potrà diventare davvero una leva di miglioramento della cura nel SSN.

Non solo, quindi, un’innovazione ornamentale, ma un’infrastruttura decisionale e organizzativa capace di aumentare qualità, sicurezza e continuità assistenziale.

Se invece resteremo al livello dei principi, avremo un documento corretto e condiviso, ma con un impatto limitato, perché l’IA — come ogni tecnologia complessa — non cambia i sistemi sanitari per dichiarazione: li cambia solo quando entra nei processi con regole chiare, dati affidabili, competenze diffuse e responsabilità ben distribuite.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x