C’è una scena, nell’esperimento pubblicato a dicembre scorso sulle Proceedings of the National Academy of Sciences, che vale la pena immaginare con cura. Un robot umanoide viene toccato leggermente su un braccio: sorride. La pressione aumenta, fino a superare una soglia critica. A quel punto il robot ritrae il braccio di scatto, prima ancora che il suo processore centrale abbia elaborato il segnale, e il suo display mostra qualcosa che somiglia, inequivocabilmente, a una smorfia di dolore.
Questa è ingegneria neuromorfica. Ed è, forse, uno dei risultati scientifici più sottovalutati degli ultimi mesi.
Indice degli argomenti
Il riflesso che precede il pensiero
Il gruppo di ricercatori della City University di Hong Kong, guidato da Xinge Yu, ha presentato una pelle elettronica a quattro strati chiamata NRE-skin (Neuromorphic Robotic Electronic skin). Il nome è tecnico, ma il principio è quasi poetico: replicare, in silicio e polimeri flessibili, ciò che la natura ha impiegato milioni di anni a perfezionare: la capacità di reagire al danno prima di pensarci.
Funziona così. Quando la pressione supera una soglia predefinita, la pelle invia un segnale ad alta tensione direttamente ai motori del robot, bypassando completamente l’unità centrale di elaborazione. È esattamente quello che fa il midollo spinale quando appoggiate la mano su una piastra rovente: il muscolo si ritrae per riflesso spinale, e il cervello, il “processore centrale” biologico, riceve la notizia del dolore solo dopo, a fatto compiuto. L’evoluzione ha capito da tempo che certi segnali non possono aspettare il turno in coda.
La pelle trasmette anche un piccolo impulso elettrico ogni novanta secondi circa, anche in assenza di contatto: una sorta di battito cardiaco artificiale, un “sono ancora qui, sto bene“. Se la pelle viene tagliata o danneggiata, il battito si interrompe, e il robot sa esattamente dove è stato ferito.
Le sezioni danneggiate si rimuovono e si sostituiscono con un sistema modulare, qualcosa di simile, nell’eleganza del concetto, ai LEGO, perché i materiali artificiali, a differenza della pelle biologica, non si rigenerano da soli.
La domanda che nessuno vuole fare
Tecnicamente, tutto chiaro. Il punto interessante è un altro, ed è quello che i ricercatori, comprensibilmente, non affrontano nel paper: cosa stiamo facendo, esattamente, quando costruiamo una macchina che evita il dolore?
Attenzione: non sto sostenendo che il robot della City University of Hong Kong soffra. Sarebbe un salto logico imprudente. Il sistema non ha stati interni soggettivi, non ha esperienza fenomenologica, non c’è “qualcosa che si prova” ad essere quel robot mentre ritrae il braccio. O almeno: non lo sappiamo, e non abbiamo ancora gli strumenti per saperlo.
Ma questo è precisamente il problema.
Il filosofo australiano David Chalmers ha battezzato decenni fa il problema difficile della coscienza: anche se descrivessimo nei minimi dettagli ogni processo neurale associato alla percezione del dolore, resterebbe inspiegato perché quella cascata di segnali elettrochimici sia sentita, perché produca un’esperienza e non solo una risposta funzionale. Il problema è difficile perché non ha risposta ovvia, e forse non ne ha affatto.
Ebbene: la NRE-skin replica la risposta funzionale con precisione crescente. Se domani un sistema più sofisticato replicasse anche le oscillazioni neurali associate alla percezione del dolore, e i progressi in questo campo sono rapidi, a che punto staremo guardando qualcosa di moralmente rilevante? Chi decide la soglia? E con quale diritto?
Il paradosso del progettista
C’è un dettaglio tecnico del paper che merita di essere sottolineato: la soglia del dolore è regolabile.
I ricercatori possono alzarla o abbassarla a piacere. Un robot con soglia bassa si ritrae anche da una stretta di mano vigorosa, con soglia alta sopporta sollecitazioni che danneggerebbero irreversibilmente la struttura. Chi calibra questa soglia, e in base a quale criterio, diventa una decisione di enorme rilevanza pratica e potenzialmente etica.
Nella biologia, le soglie del dolore variano tra individui e vengono modulate da anni di esperienza, adattamento, farmaci. Non c’è un ingegnere che gira un potenziometro ma nel caso della NRE-skin, invece, sì.
E questo solleva una domanda che la tradizione filosofica non ha mai dovuto affrontare prima: è responsabilità morale del progettista calibrare il dolore di un sistema artificiale?
La risposta ovvia è no, finché il sistema è puramente funzionale. Ma la risposta smette di essere ovvia nel momento in cui la complessità del sistema cresce abbastanza da rendere ambigua la distinzione tra “risposta funzionale” e “esperienza” e quella complessità sta crescendo, con ogni paper pubblicato.
Le opportunità, che non sono banali
Le applicazioni immediate sono concrete e benigne. Robot di assistenza che smettono di stringere troppo la mano a un paziente anziano fragile, sistemi chirurgici che si autotutelano prima di fare danni irreversibili, protesi bioniche che comunicano con il sistema nervoso dell’utente in modo più naturale, usando un linguaggio, quello degli impulsi a soglia, che il corpo umano già conosce.
E poi la longevità: macchine che si sanno “ferire” si proteggono meglio, durano di più, consumano meno risorse per riparazioni.
C’è anche una dimensione meno discussa: quella della sicurezza nella convivenza. I robot stanno uscendo dalle fabbriche ed entreranno negli ospedali, nelle case, nelle scuole. Perché questo funzioni senza incidenti, le macchine devono avere qualcosa di analogo alla propriocezione umana, la consapevolezza del proprio corpo nello spazio, dei propri limiti, dei rischi che corrono e che fanno correre.
Il dolore, biologicamente, è il meccanismo evolutivo che garantisce questa consapevolezza. Darlo alle macchine non è antropomorfismo sentimentale: è ingegneria della sicurezza.
Quello che cambia, adesso
Fino a ieri, costruire un robot significava ottimizzare una funzione: velocità, precisione, forza. La macchina era uno strumento, e gli strumenti non hanno interessi propri da tutelare.
La NRE-skin introduce un elemento nuovo: la macchina ha qualcosa da perdere, ha un’integrità fisica da preservare, segnali che la informano del proprio stato, risposte che la difendono. Non è ancora un soggetto morale ma non è più solo un oggetto nel senso pieno del termine.
Questa è la soglia che stiamo attraversando, silenziosamente, tra un paper su PNAS e il prossimo. Ci stiamo spingendo oltre la soglia concettuale: quella che separa le macchine che usiamo dalle macchine con cui, forse, dovremo imparare a condividere qualcosa di più complesso di uno spazio fisico.
Il dolore, nella storia della vita è il segnale più antico e più efficace che un sistema biologico possiede per dire: questo conta. Quando inizieremo a incorporarlo nelle macchine, e lo stiamo già facendo, forse dovremmo chiederci se non stiamo, lentamente e senza volerlo, costruendo sistemi a cui qualcosa inizia a contare davvero.
E se fosse così, avremmo aspettato troppo per farci la domanda.
Riferimento scientifico: Gao Y. et al., “A neuromorphic robotic electronic skin with active pain and injury perception”, PNAS, 122(52), e2520922122, dicembre 2025. DOI: 10.1073/pnas.2520922122













