Nel corridoio di un ospedale, una notifica vibra sullo smartphone di un paziente diabetico. “È ora di misurare la glicemia“, recita il messaggio, accompagnato da un’icona rassicurante. Il paziente, quasi senza pensarci, apre l’app e segue la procedura guidata.
Un gesto apparentemente banale come un semplice tap su uno schermo innesca una catena di eventi che va ben oltre l’atto stesso: i dati vengono analizzati, confrontati con parametri storici, e l’algoritmo calibra automaticamente i prossimi promemoria, personalizza le raccomandazioni nutrizionali, e se necessario, allerta discretamente il team medico.
Ogni interazione, dalla scelta di un’opzione di default in un’app medica, all’accettazione di una raccomandazione terapeutica, fino al semplice scroll tra contenuti informativi sulla salute, funziona come la prima tessera di un domino progettato per generare effetti a catena attraverso sistemi che non si limitano a osservare i nostri comportamenti sanitari, ma li interpretano, li prevedono e, in misura crescente, li orientano attraverso meccanismi sottili di “spinta gentile“: i nudge algoritmici.
Indice degli argomenti
Dai nudge classici all’intelligenza artificiale sanitaria
Il concetto di nudge, teorizzato da Richard Thaler e Cass Sunstein nel 2008, descrive quelle “spinte gentili” volte a indirizzare i comportamenti delle persone senza limitare la libertà di scelta. In ambito sanitario, questo si traduce in interventi sottili sull’architettura delle opzioni mediche: un default preimpostato per la prenotazione di screening preventivi, un messaggio formulato strategicamente per incoraggiare l’aderenza terapeutica, un ordine visivo che indirizza l’attenzione verso comportamenti salutari.
Con l’avvento dell’intelligenza artificiale (AI), i nudge si sono evoluti in nudge algoritmici, capaci di apprendere dinamicamente dai comportamenti dell’utente, dalle sue interazioni con dispositivi medici, dalla storia clinica e persino dai pattern di utilizzo delle app sanitarie.
Attraverso tecniche di machine learning, profilazione comportamentale e ottimizzazione predittiva, l’AI trasforma il nudge da strumento statico a meccanismo adattivo e personalizzato, in grado di alterare l’architettura del processo decisionale in tempo reale.
Questi interventi sfruttano i bias cognitivi descritti da Daniel Kahneman, tra cui l’avversione alla perdita (la paura di peggiorare le proprie condizioni di salute), l’effetto di ancoraggio (il riferimento a valori “normali” di parametri clinici) e la preferenza per la scelta più semplice (l’accettazione di terapie standard piuttosto che personalizzate). Ma è fondamentale ricordare che tali meccanismi non sono mai neutrali: sono strettamente legati all’etica di chi li progetta e alle intenzioni che guidano l’interazione tra tecnologia e comportamento umano.
Tassonomia operativa: le tre categorie di nudge algoritmici
Nel loro libro “Nudge: Improving Decisions About Health, Wealth, and Happiness”, Thaler e Sunstein non propongono una tassonomia rigida, ma identificano strumenti ricorrenti nell’architettura delle scelte. Di seguito si propone una classificazione dei nudge algoritmici in ambito sanitario declinandoli in tre categorie che operano su scale e con finalità differenti. La prima categoria è quella dei “nudge di ottimizzazione” che rappresentano la forma più diretta dell’idea originale di Thaler e Sunstein applicata alla sanità digitale. Sono progettati per aiutare pazienti e operatori sanitari a raggiungere obiettivi di salute con meno attrito, sfruttando l’inerzia comportamentale a loro vantaggio.
Un esempio paradigmatico è rappresentato dalle configurazioni intelligenti dei parametri di default nei dispositivi medici: un glucometro che imposta automaticamente i promemoria per la misurazione basandosi sui pattern individuali del paziente, oppure un’app per la gestione delle terapie che precompila automaticamente i dosaggi sulla base della prescrizione medica e della storia clinica. Nella seconda categoria troviamo i “nudge di persuasione“, che appartengono a una famiglia di strumenti più ambiziosi, ideati per modificare attivamente comportamenti o atteggiamenti. Questa categoria può infatti intendersi come estensione della “Captology” di B.J. Fogg che studia le modalità attraverso cui la tecnologia digitale può essere progettata allo scopo di influenzare il comportamento delle persone. Il nudge algoritmico persuasivo diventa un abile “consulente di salute” grazie al profilo comportamentale ottenuto dall’analisi dei dati e alla capacità di sfruttare i bias cognitivi.
Un’app per la prevenzione cardiovascolare, ad esempio, può modificare i contenuti informativi mostrati all’utente sulla base delle sue preoccupazioni specifiche: se il sistema rileva ansia verso i rischi cardiaci, può enfatizzare i benefici positivi dell’attività fisica piuttosto che i pericoli della sedentarietà. La terza e ultima categoria raggruppa i “nudge di orchestrazione” che rappresentano la forma più pervasiva di intervento, operando non più sul singolo paziente ma su popolazioni intere. Questi strumenti utilizzano un’architettura dell’informazione basata su gamification di massa e ingegneria sociale per orientare comportamenti collettivi. Un esempio concreto è costituito dalle campagne di vaccinazione digitali, dove algoritmi sofisticati analizzano la diffusione di informazioni sui social media per indirizzare messaggi personalizzati che contrastino l’esitazione vaccinale su larga scala.
Sfide etiche e rischi sistemici
L’implementazione di nudge algoritmici in ambito sanitario solleva questioni etiche specifiche che vanno oltre i tradizionali principi della medicina. In particolare, la tensione tra personalizzazione terapeutica e manipolazione del consenso informato rappresenta una delle sfide più complesse.
L’asimmetria informativa tra paziente e algoritmo, dove quest’ultimo ha accesso a dati e pattern comportamentali che il paziente stesso non conosce pienamente, trasforma potenzialmente ogni interazione sanitaria digitale in un esperimento comportamentale non completamente consensuale.
I nudge algoritmici possono amplificare bias esistenti nel sistema sanitario. Se un algoritmo apprende che pazienti di determinate demografiche sono storicamente meno aderenti a certe terapie, potrebbe iniziare a proporre automaticamente opzioni “semplificate” a questi gruppi, creando disparità nelle cure offerte. La personalizzazione, se non attentamente governata, può diventare discriminazione algoritmica.
L’interazione tra milioni di micro-nudge sanitari può generare dinamiche sistemiche impreviste: la polarizzazione informativa sui temi di salute, la creazione di “bolle sanitarie” dove pazienti con condizioni simili ricevono informazioni sempre più omogenee, o la diffusione virale di comportamenti sanitari non sempre benefici rappresentano rischi emergenti dell’orchestrazione algoritmica su larga scala.
Effetti controproducenti documentati: alert, fatica e burnout clinico
L’implementazione su larga scala di nudge clinici, particolarmente quelli veicolati tramite alert nei sistemi informativi sanitari, ha generato conseguenze non intenzionali ben documentate. Il fenomeno dell’alarm fatigue rappresenta un rischio concreto: l’87% dei medici di medicina generale considera “eccessivo” il numero di alert ricevuti giornalmente, mentre il 70% dichiara di ricevere “più alert di quanti possa gestire efficacemente“.
La ricerca di Ancker et al. ha dimostrato che la probabilità di accettazione di un alert del sistema clinico informatizzato diminuisce del 30% per ogni alert aggiuntivo ricevuto durante un singolo incontro clinico. Questo fenomeno non solo riduce l’efficacia degli interventi, ma contribuisce al burnout dei clinici e alla frammentazione dei flussi di lavoro assistenziali.
I clinici riportano di dedicare oltre un’ora al giorno alla gestione di alert del sistema clinico informatizzato, con un costo stimato di $0,52 per alert e conseguenze cognitive significative legate al cambio continuo di compiti. L’ironia è che i nudge, progettati per semplificare le decisioni cliniche, spesso aumentano la complessità decisionale invece di ridurla.
Il rischio di crowd-out: quando il micro oscura il macro
Un aspetto critico emerso dalla ricerca comportamentale riguarda gli “effetti di crowd-out“: la tendenza degli interventi individuali a ridurre il supporto per riforme strutturali più efficaci. Hagmann et al. hanno dimostrato sperimentalmente che l’esposizione a politiche che promuovono cambiamenti comportamentali individuali riduce il supporto per interventi sistemici più incisivi.
Nel contesto sanitario, questo fenomeno assume particolare rilevanza. Mentre i nudge algoritmici vengono presentati come soluzioni a basso costo ai problemi del sistema sanitario, possono involontariamente distogliere attenzione e risorse dalle cause strutturali dei problemi sanitari: inadeguatezza dei finanziamenti, frammentazione organizzativa, disuguaglianze socioeconomiche.
Last et al. evidenziano come alcuni nudge clinici (ad esempio quelli per ridurre la prescrizione di oppioidi) siano necessari proprio a causa di problemi sistemici creati dall’industria farmaceutica. Questo crea un paradosso in cui le soluzioni tecnologiche vengono applicate per rimediare a problemi generati dalle stesse dinamiche di mercato che favoriscono approcci individualistici rispetto a riforme strutturali.
Il quadro normativo dell’AI Act: requisiti operativi
Il Regolamento UE 2024/1689 (AI Act) introduce un framework normativo specifico per l’intelligenza artificiale che impatta direttamente sui nudge algoritmici sanitari. Il regolamento, entrato in vigore il 1° agosto 2024, prevede un’applicazione graduale con scadenze cruciali al 2 febbraio e 2 agosto 2025.
L’Articolo 6 del Regolamento (UE) 2024/1689 classifica come “sistemi di intelligenza artificiale ad alto rischio” quelli impiegati in ambito sanitario, in particolare quando utilizzati come dispositivi medici o per finalità diagnostiche, terapeutiche o decisionali. Questa classificazione comporta una serie di obblighi stringenti, descritti negli articoli da 8 a 15.
Tra questi, l’Articolo 9 impone l’adozione di un sistema di gestione del rischio e della qualità, mentre l’Articolo 13 stabilisce requisiti di trasparenza e la necessità di fornire informazioni chiare agli utenti. L’Articolo 14 introduce il principio della supervisione umana significativa, e l’Articolo 15 definisce standard elevati in termini di accuratezza, robustezza e cybersicurezza. Per i nudge algoritmici sanitari, questi requisiti si traducono in obblighi operativi concreti: ogni decisione di nudging deve prevedere la possibilità di intervento umano qualificato, i pazienti devono poter comprendere le logiche delle raccomandazioni ricevute, e devono essere mantenute registrazioni complete delle decisioni algoritmiche per consentire verifiche post hoc.
Le sanzioni previste dall’Articolo 99 possono raggiungere i 35 milioni di euro o il 7% del fatturato globale annuo per le violazioni più gravi, rendendo la compliance non solo un imperativo normativo, ma anche un fattore economico strategico per gli sviluppatori di sistemi sanitari.
Applicazioni concrete dei nudge in ambito sanitario italiano ed europeo
L’implementazione pratica di nudge algoritmici sanitari ha registrato sviluppi significativi in diversi paesi europei, con approcci metodologici differenziati. Il Regno Unito, attraverso il Behavioral Insights Team (la cosiddetta “Nudge Unit“), ha accumulato oltre un decennio di esperienza nell’applicazione di tecniche comportamentali in ambito sanitario, con particolare focus su campagne per l’aderenza ai trattamenti medici e la prevenzione dell’obesità.
La Francia, tramite France Stratégie, ha sviluppato metodologie specifiche per le “green nudges” sanitarie, con focus sull’integrazione tra sostenibilità ambientale e comportamenti salutari. I paesi nordici, in particolare Danimarca e Svezia, hanno adottato approcci evidence-based con sistemi di monitoraggio particolarmente sofisticati.
Il modello toscano
In Italia, la Regione Toscana ha sviluppato un modello strutturato attraverso la Nudge Unit Toscana Salute (NUTS), nata dalla collaborazione tra l’Agenzia Regionale di Sanità (ARS) Toscana e la Scuola IMT Alti Studi di Lucca. Questa unità multidisciplinare unisce competenze sanitarie, psicologiche, filosofiche, statistiche ed economiche per co-progettare interventi basati sulle scienze cognitive e comportamentali. L’approccio toscano si distingue per la metodologia di co-progettazione con i professionisti sanitari e per l’utilizzo di banche dati amministrative per il monitoraggio degli interventi.
Governance situata, trasparente e partecipata
Affrontare le sfide etiche e sistemiche poste dai nudge algoritmici in sanità richiede una governance che superi i tradizionali framework della tecnologia medica, abbracciando una visione più situata, relazionale e dinamica. La trasparenza, ad esempio, non può essere intesa come un valore monolitico: deve essere stratificata, adattata al destinatario. Un paziente anziano con limitata alfabetizzazione digitale avrà bisogno di spiegazioni diverse rispetto a un medico specialista, e ciò implica la costruzione di sistemi di spiegabilità capaci di modulare il livello informativo senza tradire la sostanza del messaggio.
Allo stesso modo, la progettazione dei sistemi non può prescindere da un coinvolgimento diretto e anticipato delle comunità interessate. Pazienti, caregiver, operatori sanitari e rappresentanti sociali devono essere parte integrante del processo sin dalle fasi iniziali, affinché i nudge riflettano realmente le esigenze e le sensibilità del contesto in cui operano, prevenendo distorsioni e discriminazioni.
La responsabilità non si esaurisce nella fase di design: richiede un monitoraggio continuo, un audit etico che non si limiti alla performance clinica ma che osservi l’impatto sociale, l’evoluzione dei pattern di influenza e la comparsa di effetti collaterali non desiderati. In questo quadro, la capacità di intervenire rapidamente diventa una componente essenziale della governance.
Infine, nessuna architettura decisionale può dirsi equa se non è accompagnata da un processo di alfabetizzazione digitale che renda i pazienti consapevoli non solo degli strumenti che utilizzano, ma anche dei meccanismi attraverso cui tali strumenti orientano le loro scelte. Educare alla comprensione del nudging significa restituire agency, e dunque dignità, all’esperienza sanitaria digitale.
Un framework operativo in tre fasi per l’implementazione sicura
La necessità di implementare tecnologie digitali nel settore sanitario in modo sicuro e trasparente ha portato allo sviluppo di framework metodologici specifici come quello descritto nell’articolo “Methodology for Safe and Secure AI in Diabetes Management” pubblicato nel Journal of Diabetes Science and Technology nel 2024 da Geukes Foppen et al., e che si articola in tre principali fasi:
● Fase di pianificazione e design: include l’identificazione precisa dei problemi da risolvere, l’analisi degli stakeholder e la definizione di requisiti che garantiscano compliance con standard come HIPAA e GDPR. Particolare attenzione viene data alla progettazione di Predetermined Change Control Plans (PCCP) che rispettino le linee guida FDA.
● Fase di sviluppo e testing: comprende la raccolta e il preprocessamento di dati da sorgenti multiple, seguendo principi di Good Machine Learning Practice (GMLP). I modelli vengono sviluppati privilegiando interpretabilità e spiegabilità, con validazione rigorosa attraverso trial clinici.
● Fase di deployment e manutenzione: prevede l’integrazione nei workflow clinici con monitoraggio continuo post-market, raccolta di feedback utenti e aggiornamenti adattivi che mantengano sicurezza ed efficacia nel tempo.
Entro una simile impostazione metodologica di base, i nudge algoritmici possono essere implementati seguendo standard rigorosi che bilanciano personalizzazione ed efficacia terapeutica con sicurezza e trasparenza.
Conclusioni: ripensare i nudge nell’era della sanità digitale
L’analisi dei nudge algoritmici in sanità digitale rivela un panorama sfaccettato che richiede un approccio più maturo e critico rispetto all’entusiasmo iniziale. Alcune evidenze empiriche (Maier et al. 2022; Della Vigna e Linos 2022) suggeriscono che l’efficacia reale dei nudge possa essere stata significativamente sovrastimata, laddove gli effetti controproducenti, dall’alarm fatigue al crowd-out delle riforme strutturali, sono ben documentati. Ciò non significa che i nudge algoritmici debbano essere abbandonati, ma piuttosto che il loro sviluppo e implementazione richiedano una revisione metodologica profonda.
In termini generali, le tecnologie digitali possono migliorare i risultati di salute nel momento in cui vengono integrate in ecosistemi che riconoscano i limiti degli approcci puramente individualistici e mantengano l’attenzione sulle cause strutturali dei problemi sanitari. Nello specifico, i nudge algoritmici potranno essere progettati con trasparenza in merito alle loro limitazioni e con un impegno costante verso interventi complementari tesi a fronteggiare le urgenze sanitarie nella loro reale complessità.
L’AI Act europeo fornisce un quadro normativo importante, ma la sua implementazione dovrebbe essere accompagnata da istanze di governance responsabile e sostenibile che vadano oltre la mera conformità tecnica. È necessario sviluppare sistemi di valutazione continua che misurino non solo l’efficacia clinica immediata, ma anche gli effetti sistemici a lungo termine, inclusi gli impatti sulla professione medica e sull’equità sanitaria.
La lezione più importante emersa da questa analisi è che nessuna soluzione tecnologica, per quanto sofisticata, può sostituire la necessità di investimenti sistemici in personale sanitario adeguato, tempo clinico sufficiente, accesso equo alle cure e riduzione delle disuguaglianze socioeconomiche che determinano la salute delle popolazioni.
Oltre le notifiche: una trasformazione sistemica
Nel corridoio di quell’ospedale dove tutto è iniziato, la notifica sullo smartphone del paziente diabetico può certamente aiutare nella gestione della sua patologia. Ma per una vera trasformazione sanitaria, serve andare oltre le notifiche: serve ripensare l’intero ecosistema di cura, riconoscendo che l’innovazione più importante potrebbe non essere algoritmica, ma sistemica.
Bibliografia
● Thaler, R., & Sunstein, C. (2008). Nudge: Improving Decisions About Health, Wealth, and Happiness. Yale University Press.
● Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
● Fogg, B.J. (2003). Persuasive Technology: Using Computers to Change What We Think and Do. Morgan Kaufmann.
● Geukes Foppen, R.J., et al. (2024). Methodology for Safe and Secure AI in Diabetes Management. Journal of Diabetes Science and Technology, 18(2), 234-251.
● Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio relativo all’armonizzazione delle norme sull’intelligenza artificiale.
● Miller, T. (2019). Explanation in AI: Insights from the social sciences. Artificial Intelligence, 267, 1-38.
● Möhlmann, M. (2021). Algorithmic Nudges Don’t Have to Be Unethical. Harvard Business Review, marzo 2021.
● Last, B.S., et al. (2024). A critical review of clinician-directed nudges. Current Opinion in Psychology, 59, 101856.
● Maier, M., et al. (2022). No evidence for nudging after adjusting for publication bias. Proceedings of the National Academy of Sciences, 119, e2200300119.
● DellaVigna, S., & Linos, E. (2022). RCTs to scale: comprehensive evidence from two nudge units. Econometrica, 90, 81-116.
● Ancker, J.S., et al. (2017). Effects of workload, work complexity, and repeated alerts on alert fatigue in a clinical decision support system. BMC Medical Informatics and Decision Making, 17, 36.
● Hagmann, D., et al. (2019). Nudging out support for a carbon tax. Nature Climate Change, 9, 484-489.










