intelligenza artificiale

AI in sanità: oltre le etichette, serve logica umana



Indirizzo copiato

Calcolatrici, lavastoviglie, software clinici: davvero tutto questo è “intelligenza” artificiale? Se continuiamo a chiamare AI ciò che non lo è, finiremo per amplificare “allucinazioni” invece che costruire progresso. La sanità potrebbe essere il banco di prova dove non possiamo permetterci di sbagliare

Pubblicato il 20 ott 2025

Alex Dell'Era

Co-coordinatore, Gruppo Scienze della vita – FERPI (Federazione Relazioni Pubbliche Italiana) Adjunct Professor – DiTEiM Department, CUIRIF (Centro Universitario Internazionale per la Ricerca sull’Innovazione e la Formazione)



ai in sanità smart health AI infarto

L’intelligenza artificiale in sanità rappresenta una delle frontiere più promettenti e controverse dell’innovazione tecnologica. Eppure, dietro l’entusiasmo e le aspettative si nasconde un problema di fondo: non tutto ciò che viene etichettato come AI lo è davvero. Questa confusione terminologica non è solo una questione accademica, ma ha conseguenze concrete sulle scelte cliniche, normative ed economiche.

Nel settore sanitario, dove ogni decisione impatta sulla salute pubblica, distinguere tra vera intelligenza artificiale e semplici automatismi diventa cruciale. La sfida consiste nel riportare la logica umana al centro della trasformazione digitale.

Il paradosso della definizione europea di intelligenza artificiale

Nella definizione europea di intelligenza artificiale si cela un paradosso che merita attenzione. I criteri contenuti nell’AI Act sono così ampi che persino una calcolatrice di vecchia generazione – e perché no, anche una banale lavastoviglie – potrebbero essere classificate come sistemi di intelligenza artificiale. Ancora più preoccupante è che alcuni software di supporto alla diagnosi rischiano di essere etichettati come “intelligenza artificiale” quando in realtà non lo sono.

Al contrario, alcuni sistemi in sanità meritano pienamente questa definizione, perché utilizzano algoritmi di machine learning o deep learning capaci di apprendere dai dati. Altri, però, sono semplicemente CAD avanzati o automatismi basati su regole statistiche di riconoscimento di pattern: strumenti utili, ma che nulla hanno a che vedere con processi cognitivi.

Le conseguenze di un linguaggio impreciso

Se li chiamiamo tutti “AI”, finiamo per alimentare confusione e aspettative distorte. Non è un mero esercizio di semantica, né un gioco da linguisti: le etichette che usiamo hanno conseguenze concrete. Ci vuole etica e serietà, perché le parole orientano scelte cliniche, politiche ed economiche. Il rischio è che, con il pretesto di normare, si finisca per banalizzare l’intelligenza stessa, chiamando con questo nome ciò che non ne ha le caratteristiche. È un rischio che non possiamo permetterci. La tecnologia non è neutra: ha impatti profondi sulla vita quotidiana, sulla sicurezza, sulle relazioni sociali. Nel settore sanitario, dove si parla di bene comune e salute pubblica, questa responsabilità è ancora più evidente.

Medici e algoritmi: il bivio della responsabilità diagnostica

L’utilizzo dell’AI autentica, quella basata su algoritmi di apprendimento profondo, è ormai un dato di fatto in medicina, soprattutto nell’ambito della diagnostica. Anche i più scettici lo stanno accettando, con la consapevolezza che non saranno i medici a sparire, ma piuttosto che solo chi non saprà interagire con l’AI rischierà di restare indietro.

Si è davanti, qui, ad un bivio complesso, che potrebbe toccare aspetti giuridici e responsabilità professionale. Fermo restando che la responsabilità della diagnosi rimane in capo a chi la formula e firma il referto, in futuro potrebbero emergere due scenari opposti: da un lato la colpevolizzazione di chi effettua una diagnosi senza avvalersi del contributo, o di una seconda valutazione, dell’AI; dall’altro il rischio che il medico si affidi troppo all’AI e sbagli proprio per eccesso di fiducia in essa. A complicare il quadro pesa la totale assenza, oggi, di un approccio regolatorio globale che disciplini in modo chiaro le responsabilità nella fase di sviluppo e implementazione delle tecnologie AI in sanità.

I limiti degli approcci attuali all’innovazione tecnologica

Negli ultimi anni sono stati elaborati diversi approcci per orientare l’innovazione, ma se pur validi nei loro ambiti specifici, presentano limiti significativi quando si confrontano con la complessità delle tecnologie contemporanee.

L’Human-Centered AI, ad esempio, pone l’accento sull’usabilità e sull’esperienza utente, ma tende a trascurare gli impatti sistemici e a lungo termine: un chatbot può essere perfettamente usabile e soddisfare i bisogni immediati, eppure contribuire a fenomeni di isolamento sociale o dipendenza tecnologica che emergono solo con il tempo.

Anche il Value Sensitive Design, pur offrendo strumenti operativi, non integra in modo sistematico considerazioni ambientali ed economiche. E lo stesso umanesimo digitale rimane spesso confinato in una prospettiva più filosofica che operativa.

Le linee guida etiche per l’AI, proliferate a livello internazionale, soffrono invece del problema opposto: enunciano principi condivisibili, ma restano spesso a un livello di astrazione che ne rende difficile la traduzione concreta. “Rispettare la dignità umana” è un principio nobile, ma come si traduce nella scelta di un algoritmo di ranking o nella progettazione di un’interfaccia? Questa combinazione di vuoti normativi e limiti metodologici rende evidente che limitarsi a un approccio regolatorio o a un generico richiamo all’umanesimo digitale non basta più. Serve un cambio di passo: un paradigma capace di rafforzare il legame tra tecnologia e umanità, evitando derive riduzioniste.

“Umanologico”: un paradigma per l’innovazione centrata sulla persona

È in questo contesto che prende forma il concetto di Umanologico. Non è soltanto un neologismo, ma un framework pensato per orientare l’innovazione mettendo al centro la logica umana. Si fonda su cinque pilastri tra loro interconnessi: l’etica, che ne rappresenta le fondamenta e richiama il rispetto dei valori e dei diritti; l’empatia, che guida l’implementazione centrata sulla persona; la chiarezza, indispensabile per garantire trasparenza e comprensibilità; la sostenibilità, che assicura continuità e solidità nel tempo; e infine il co-valore, che estende i benefici dell’innovazione all’intera comunità di stakeholder, evitando approcci esclusivi e autoreferenziali.

È in fase di definizione anche un primo framework concettuale che articola il paradigma Umanologico in pilastri e indicatori pensati per guidare istituzioni e imprese a valutare l’impatto delle tecnologie, non solo in termini di efficienza, ma anche di coerenza con il bene comune.

Non si tratta di un modello rigido, ma di una base di lavoro aperta al confronto. In altre parole, Umanologico non è una parola d’effetto, ma una bussola per non perdere di vista ciò che conta: l’essere umano. In sanità, questo vuol dire costruire strumenti che aiutino i professionisti, rafforzino la fiducia dei pazienti e mettano al centro il bene comune. Lo stesso principio può valere in ogni ambito in cui l’innovazione impatta sulla vita delle persone. Le parole non sono neutre. Se definiamo “intelligenza” ciò che è solo calcolo statistico, rischiamo di deformare il dibattito. Un lessico confuso porta a decisioni confuse. Servono concetti nuovi e la volontà di rimettere al centro la logica umana come criterio per valutare e guidare la trasformazione tecnologica.

Interdisciplinarità e dialogo: la via per una tecnologia al servizio dell’uomo

La sfida è aperta e riguarda tutti: istituzioni, imprese, comunità scientifica e cittadini. Perché innovare senza logica umana, con un approccio esclusivo anziché inclusivo, non è progresso. Infatti, troppo spesso l’IA viene percepita come una “scatola nera”, quando in realtà si basa su modelli matematici e statistici comprensibili, se solo ci fosse più confronto tra chi li sviluppa, chi li regola e chi li utilizza. Lo stesso vale per il coding: non è questione di renderlo misterioso, ma di creare ponti tra mondi diversi come giuristi, ingegneri, medici, comunicatori. Serve uno sforzo collettivo di autentica interdisciplinarità. Il Paradigma Umanologico nasce proprio con l’intento di favorire il dialogo tra saperi per riportare la tecnologia al servizio dell’essere umano, rafforzando ciò che nessuna macchina potrà mai replicare: le relazioni.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati