Nel mondo della medicina c’è una domanda antica a cui, ancora oggi, non sappiamo rispondere con precisione: quanto fa davvero male?
Per decenni la risposta è stata affidata a scale soggettive, dal classico “da 0 a 10” alle faccine sorridenti o corrucciate sui poster in corsia. Funzionano, ma solo fino a un certo punto. Dipendono dal linguaggio, dalla cultura, dall’abitudine a sopportare, dal timore di non essere creduti. E poi c’è chi non può proprio rispondere: neonati, persone con demenza, pazienti sedati in terapia intensiva, animali da laboratorio.
Tecnologie che analizzano volto, parametri vitali e segnali biologici promettono di affiancare le vecchie scale numeriche, aprendo la strada a una misurazione più continua e sistematica del dolore.
Negli ultimi anni, infatti, l’intelligenza artificiale ha iniziato a entrare proprio in questo spazio grigio, cercando di trasformare il dolore da esperienza indicibile a segnale misurabile. L’idea ambiziosa è di usare algoritmi di machine learning per leggere nel volto, nei parametri vitali, nei segnali elettrici di muscoli e cervello ciò che la persona non riesce a dire, o che il medico fatica a interpretare. Il dolore, da sensazione privata, diventerebbe un nuovo “segno vitale”, qualcosa che può essere registrato, monitorato, confrontato nel tempo, potenzialmente in modo più sistematico di quanto avvenga oggi con le sole domande al paziente.
Indice degli argomenti
Dolore e intelligenza artificiale: un nuovo segno vitale
Uno dei filoni più avanzati è quello che punta dritto in faccia al dolore, in senso letterale. Alcuni sistemi usano la fotocamera di uno smartphone o di un tablet per analizzare micro-espressioni, tensioni muscolari, cambiamenti appena percettibili nella mimica. Reti neurali addestrate su migliaia di video imparano ad associare determinate combinazioni di movimenti facciali a livelli di dolore riportati dai pazienti. I primi studi mostrano che questi algoritmi riescono a distinguere in modo affidabile tra assenza di dolore, dolore lieve e dolore intenso, sia in adulti sottoposti a procedure chirurgiche sia in persone anziane con difficoltà di comunicazione.
Su questa stessa tecnologia si basano app già utilizzate in contesti reali, in particolare nelle strutture per anziani con demenza. L’operatore punta la fotocamera sul volto della persona per pochi secondi; il software “legge” una serie di indicatori come corrugamento della fronte, tensione delle palpebre, posizione della bocca, rigidità dei muscoli e restituisce un punteggio di dolore insieme a suggerimenti su cosa osservare nel comportamento o nel movimento. In alcune case di riposo e reparti geriatrici, l’uso sistematico di questi strumenti ha permesso di rilevare episodi di dolore prima invisibili e di adeguare le terapie, riducendo sia la sofferenza non trattata sia il ricorso eccessivo a sedativi o contenzioni.
Come l’intelligenza artificiale legge il dolore dal volto
All’interno di questi progetti l’obiettivo è far sì che l’intelligenza artificiale dolore sia in grado di cogliere micro-segnali espressivi che spesso sfuggono all’occhio umano, soprattutto in contesti affollati o quando il personale ha poco tempo. L’analisi automatica della mimica facciale diventa così una sorta di “sorveglianza del dolore”, pensata per segnalare precocemente situazioni critiche che richiedono una valutazione clinica più approfondita.
Intelligenza artificiale e previsione del dolore
Ma il volto non è l’unico “schermo” su cui il dolore lascia tracce. Un altro fronte di ricerca guarda ai parametri fisiologici: battito cardiaco, variabilità della frequenza cardiaca, frequenza respiratoria, conduttanza della pelle legata alla sudorazione, saturazione di ossigeno. Presi singolarmente, questi segnali sono rumorosi e poco specifici: il cuore accelera per mille motivi diversi. Gli algoritmi, però, possono imparare pattern complessi che sfuggono all’occhio umano, combinando i parametri tra loro e seguendone l’andamento nel tempo.
In studi condotti in terapia intensiva e in sala operatoria, modelli di deep learning sono riusciti a prevedere la presenza di dolore con buona accuratezza, talvolta anticipando i punteggi assegnati dagli infermieri. Parallelamente, si stanno esplorando anche segnali ancora più “profondi”. Alcuni gruppi di ricerca lavorano su elettromiografia, per misurare una finissima attività muscolare associata alle espressioni di dolore, e su elettroencefalogramma, per cogliere possibili firme neurali del dolore acuto.
Altri cercano biomarcatori nelle molecole che circolano nel sangue o nei liquidi interstiziali: ormoni dello stress, citochine infiammatorie, metaboliti che cambiano quando la nocicezione è intensa. È un campo ancora agli inizi, ma l’obiettivo è chiaro: arrivare a strumenti che possano dire non solo “questa persona sembra soffrire”, ma anche “questo è il tipo di dolore e questa è la sua intensità”, sulla base di dati biologici oggettivi.
Dataset, sfide scientifiche e ricerca condivisa
Per capire quanto il settore stia accelerando basta guardare alle competizioni scientifiche dedicate. In pochi anni sono nati workshop e “grand challenge” internazionali che mettono a disposizione grandi dataset di segnali fisiologici e video, chiedendo ai partecipanti di costruire modelli in grado di classificare automaticamente il livello di dolore. Alcune sfide includono dati multimodali che partono dalla conduttanza cutanea per arrivare all’ampiezza del battito cardiaco, dalle immagini del volto ai movimenti del corpo con il compito di distinguere tra assenza di dolore, dolore lieve e dolore intenso. È un modo per spingere la ricerca verso sistemi più robusti e confrontabili tra laboratori e ospedali diversi.
Bias, disuguaglianze e limiti nella valutazione del dolore
Tutto questo entusiasmo, però, va associato a una lunga lista di avvertimenti. Il primo riguarda la capacità di generalizzare. Un modello addestrato sui volti di adulti europei in un ospedale urbano funzionerà allo stesso modo sui volti di bambini asiatici o su una persona anziana con un ictus che altera la mimica? Il rischio è che sistemi non ben calibrati finiscano per sottostimare il dolore di alcune popolazioni e sovrastimarlo in altre, amplificando le disuguaglianze già presenti nella medicina del dolore.
Queste disuguaglianze storicamente penalizzano donne, minoranze etniche e persone con disturbi psichiatrici. Per questo molti ricercatori insistono sulla necessità di validare questi strumenti in gruppi diversi per età, provenienza e condizioni cliniche, prima di considerarli pronti per l’uso di routine. L’intelligenza artificiale dolore, in questo quadro, rischia di diventare un ulteriore livello di opacità se non viene progettata e valutata con grande attenzione alla giustizia distributiva delle cure.
Intelligenza artificiale e dolore: il ruolo del giudizio clinico
C’è poi il problema del contesto. Un volto contratto e un battito accelerato possono significare dolore, ma anche paura, rabbia, freddo, confusione. I team che sviluppano questi sistemi ripetono che non devono sostituire il giudizio clinico, bensì affiancarlo: una sorta di “seconda opinione automatica” che segnala possibili episodi di sofferenza da confermare osservando la persona, parlando con i familiari, integrando altre informazioni.
Alcune ricerche sperimentano anche la combinazione tra i punteggi generati dall’algoritmo e brevi descrizioni testuali del paziente su dove e come sente dolore, che l’AI analizza per cogliere sfumature difficili da codificare in schede standard. L’idea è che la macchina non prenda decisioni, ma aiuti il medico a orientarsi in una mole crescente di dati, mantenendo al centro l’interpretazione clinica e la relazione con il paziente.
Dati, privacy e futuro della medicina del dolore
Infine, ci sono questioni molto concrete di implementazione. Chi possiede e gestisce i dati video dei pazienti? Come si garantisce che le registrazioni delle espressioni facciali non vengano riutilizzate per altri scopi, dalla sorveglianza alla profilazione commerciale? Quanto è realistico pensare che reparti già sottodimensionati trovino il tempo e le risorse per aggiungere un tablet e una nuova procedura a ogni valutazione del dolore?
Studi che coinvolgono operatori e familiari evidenziano sia entusiasmo sia timori: da un lato la speranza di vedere il dolore “preso sul serio”, dall’altro la paura che il contatto umano venga ulteriormente mediato da schermi e punteggi. Nonostante queste ombre, il quadro che emerge è quello di una medicina del dolore in piena trasformazione.
Se i progetti oggi in corso manterranno le promesse, potremmo trovarci in un futuro non troppo lontano in cui il dolore sarà misurato quasi in tempo reale da monitor al letto del paziente, da patch cutanee che leggono molecole sotto la pelle, da app in grado di decifrare un’espressione prima ancora che la persona trovi le parole per dire “mi fa male”.
L’intelligenza artificiale, in tutto questo, non “sentirà” mai nulla: non conoscerà la fitta sorda di un mal di schiena cronico né la lama breve di un ago. Ma potrà aiutarci a vedere meglio una dimensione che, proprio perché invisibile, è stata troppo spesso sottovalutata o fraintesa. Il passo successivo sarà quello di trasformare quella consapevolezza in cure più efficaci, più eque e più umane che resteranno comunque nelle mani, e nella responsabilità, di medici, infermieri e caregiver.













