La possibilità di “leggere nella mente” è realtà: non occorrono caschi ingombranti, elettroencefalogrammi o risonanze magnetiche funzionali, ma è sufficiente una videocamera e un algoritmo di intelligenza artificiale per farlo.
Indice degli argomenti
Il volto come finestra della mente
Una recente ricerca pubblicata su Nature Neuroscience ha dimostrato infatti che micro-movimenti del volto, impercettibili all’occhio umano, possono rivelare variabili cognitive latenti, cioè stati mentali interni che non trovano un’espressione immediata e osservabile.
Nei topi, questi segnali facciali hanno permesso di predire, con buona accuratezza, le strategie decisionali di tali animali e di ricostruire processi cognitivi non manifesti. Gli studiosi hanno inoltre dimostrato che una parte di tali segnali origina in aree corticali legate alla pianificazione motoria, confermando che il volto oltre ad essere un mezzo di comunicazione emotiva, è una vera e propria finestra sul funzionamento interno del cervello, cioè, in poche parole, un riflesso dei calcoli cognitivi in corso.
Come l’intelligenza artificiale traduce i movimenti in pensieri
Questo risultato è stato ottenuto grazie a sistemi di tracciamento facciale di precisione, che scompongono il video in migliaia di punti di riferimento dinamici, e a modelli di machine learning capaci di riconoscere pattern nascosti in quelle traiettorie. In pratica, il volto non viene guardato “a occhio nudo”, ma viene tradotto in un insieme di dati numerici che l’IA analizza per distinguere ciò che è puro movimento da ciò che riflette un’attività cognitiva. È in pratica la combinazione di videocamera, algoritmi sofisticati e convalida neuroscientifica a rendere possibile la nuova lettura del volto.
Parallelamente, altri studi condotti su primati non umani hanno evidenziato risultati simili: anche nei macachi i pattern facciali contengono indizi sugli stati cognitivi e sono in grado di predire prestazioni e tempi di reazione. Questo dato rende plausibile l’ipotesi che il legame tra volto e mente sia un meccanismo conservato lungo l’evoluzione, e che quindi possa avere ricadute anche sull’essere umano. È dunque evidente che siamo di fronte a una svolta: la tecnologia inizia a cogliere processi cognitivi sottili e interni, andando oltre la lettura di emozioni manifeste.
Dalla macchina della verità all’intelligenza artificiale cognitiva
Questa prospettiva apre scenari entusiasmanti per la medicina, le tecnologie assistive e l’interazione uomo-macchina, ma impone anche di confrontarsi con rischi nuovi e inquietanti come la possibilità di una sorveglianza cognitiva senza precedenti e il ritorno di vecchie illusioni “scientifiche”, come quelle di Cesare Lombroso, che pretendeva di dedurre inclinazioni criminali proprio dal volto degli individui.
Una lunga storia di tentazioni di controllo
L’idea di leggere la mente nasce già nel Novecento, quando il poligrafo, o “macchina della verità”, aveva alimentato la convinzione di poter svelare menzogne e stati interni misurando battito cardiaco, sudorazione e altri parametri fisiologici. Anche se oggi sappiamo che si tratta di uno strumento poco affidabile, il poligrafo è stato usato per decenni in tribunali e forze dell’ordine, con esiti spesso discutibili. L’attuale “IA cognitiva” ripropone in effetti la stessa ambizione, ma con mezzi ben più potenti, senza elettrodi e sensori, ma con telecamere e algoritmi capaci di analizzare micro-movimenti impercettibili. La differenza sostanziale è inoltre che questi strumenti sono più economici e ubiqui, e proprio per questo potenzialmente più pericolosi, perché in grado di insinuarsi nella vita quotidiana senza che ce ne accorgiamo.
Oltre la mappatura delle emozioni
Per decenni la psicologia ha cercato di associare espressioni facciali a emozioni universali, come la gioia, la rabbia, la paura e la ricerca contemporanea ha mostrato che le stesse espressioni possono assumere significati diversi a seconda del contesto culturale, sociale e situazionale e che non esiste un vocabolario universale delle emozioni leggibili dal volto.
Gli studi più recenti cercano di identificare pattern dinamici collegati a stati cognitivi come l’attenzione, l’incertezza, la motivazione, l’impegno mentale, andando oltre la mappatura di emozioni discrete e predefinite; il punto, quindi, è comprendere come un soggetto stia elaborando una decisione, se stia valutando delle alternative, se stia vivendo un conflitto interno tra strategie diverse e non banalmente di stabilire se una persona sia triste o felice. Il salto concettuale è importante, dal momento che si passa dall’“emozione” all’“elaborazione cognitiva”.
Applicazioni in medicina, assistenza e tecnologia
Le opportunità che questa linea di ricerca apre sono enormi. In primis in ambito medico: un sistema in grado di monitorare gli stati cognitivi attraverso semplici videocamere potrebbe infatti rivoluzionare la diagnosi e la cura di patologie neurologiche e psichiatriche, con la possibilità di rilevare segnali precoci di malattie neurodegenerative come l’Alzheimer o il Parkinson, oppure di valutare l’andamento di disturbi psichiatrici come la depressione o l’ansia senza affidarsi esclusivamente a questionari o osservazioni cliniche soggettive.
L’uso di sistemi non invasivi, accessibili e a basso costo permetterebbe un monitoraggio continuo, anche a domicilio, integrando i dati raccolti con quelli clinici tradizionali e consentirebbe di personalizzare le terapie, modulare i farmaci, prevenire crisi acute e migliorare sensibilmente la qualità della vita dei pazienti.
L’analisi cognitiva dal volto potrebbe inoltre diventare un tassello fondamentale anche per le tecnologie assistive, ad esempio, per persone non verbali, con gravi disabilità motorie o in stato di locked-in, i micro-movimenti facciali potrebbero costituire un nuovo canale di comunicazione, permettendo di inferire intenzioni o stati mentali utili per l’interazione con caregiver e dispositivi tecnologici.
L’impatto sarebbe significativo anche nell’istruzione, con sistemi digitali capaci di adattarsi in tempo reale allo stato cognitivo dell’utente che potrebbero rendere più efficaci le esperienze formative, modulando il ritmo e la complessità dei contenuti. Con riferimento all’interazione uomo-macchina, un’automobile intelligente potrebbe rilevare i segnali di stanchezza del conducente e intervenire per prevenire incidenti; ambienti di lavoro “cognitivamente sensibili” potrebbero modulare notifiche e stimoli in base al carico mentale dei lavoratori. È evidente che le possibilità sono vastissime, tutte potenzialmente benefiche, se utilizzate in modo responsabile.
I rischi: dalla sorveglianza cognitiva alle derive lombrosiane
Accanto a queste prospettive straordinarie si stagliano però rischi altrettanto profondi. Il più immediato è quello della sorveglianza cognitiva: basta immaginareun’azienda che, attraverso telecamere, monitori in tempo reale il livello di attenzione dei propri dipendenti durante una riunione, o una scuola che valuti la concentrazione degli studenti mentre seguono una lezione. Non si tratta di scenari fantascientifici, in quanto in alcuni Paesi sperimentazioni simili sono già state avviate.
Un simile uso della tecnologia rischia di trasformare la privacy mentale in un concetto vuoto, perché, se lo stato cognitivo diventa trasparente per default, l’individuo perde di fatto il diritto di mantenere una sfera di pensieri e processi mentali non accessibili agli altri. L’impatto sulla libertà individuale sarebbe enorme, e rischierebbe di normalizzare una cultura del controllo mentale.
Il secondo rischio, ancora più insidioso, è quello delle derive lombrosiane. Nel XIX secolo Cesare Lombroso sosteneva che fosse possibile riconoscere il criminale osservandone i tratti fisici; nonostante le sue teorie siano state confutate, l’illusione di poter dedurre inclinazioni morali o pericolosità da caratteristiche superficiali ritorna oggi sotto forma digitale. Gli algoritmi che pretendono di inferire affidabilità, lealtà o addirittura predisposizione al crimine dai micro-movimenti del volto rischiano di riproporre lo stesso errore metodologico, con conseguenze potenzialmente devastanti, basti pensare ad un contesto giudiziario o lavorativo, in cui un falso positivo potrebbe segnare irrimediabilmente la vita di una persona.
Infine, non va dimenticato il tema dei bias. I sistemi di riconoscimento facciale hanno già dimostrato forti disparità di accuratezza in base a etnia, genere, età, estendere queste logiche a inferenze cognitive rischia di amplificare discriminazioni e ingiustizie, rendendo ancora più vulnerabili i gruppi meno rappresentati nei dataset di addestramento.
Il lavoro come laboratorio di sperimentazione
Il mondo del lavoro è uno dei contesti dove la linea tra tutela e abuso può diventare più sottile. Esistono già dei software di “bossware” che monitorano la produttività tramite screenshot e tracciamento dei click, e l’idea che un datore di lavoro possa spingersi oltre, misurando attenzione o motivazione dei dipendenti attraverso la webcam, non è affatto remota. Sarebbe il passaggio da un controllo delle performance visibili a un controllo della vita mentale interna, con conseguenze etiche e giuridiche rilevantissime, perché basterebbe un algoritmo poco accurato per etichettare come “disattento” un lavoratore stanco o sotto stress, con effetti concreti su valutazioni, avanzamenti o addirittura licenziamenti. In questo senso, il rischio lombrosiano è una possibilità reale.
Fragilità psicologiche e rischio di sfruttamento
Accanto alla sorveglianza cognitiva e alle derive “lombrosiane”, esiste infatti un ulteriore livello di rischio spesso trascurato, cioè quello legato alle fragilità psicologiche. Se sistemi di intelligenza artificiale fossero in grado di intercettare segnali di ansia, depressione o cali di motivazione, potrebbero diventare strumenti potentissimi di sfruttamento. In ambito commerciale, ad esempio, individuare in tempo reale stati di vulnerabilità emotiva permetterebbe campagne di marketing mirate a chi è più esposto, con un’evidente forma di manipolazione psicologica.
In contesti lavorativi o assicurativi, la stessa tecnologia potrebbe tradursi in discriminazione: un candidato “letto” come depresso o poco motivato rischierebbe di essere escluso a priori, un dipendente etichettato come “non abbastanza attento” potrebbe essere penalizzato, un assicurato ritenuto a rischio di patologie mentali potrebbe pagare premi più elevati. Anche in ambito clinico e terapeutico il confine è sottile: se usati senza garanzie, questi strumenti rischiano di trasformare la cura in controllo, alimentando un clima di stigmatizzazione piuttosto che di sostegno.
Il pericolo, in definitiva, oltre alla perdita di privacy mentale, è la possibilità che stati di sofferenza psichica vengano trattati come merce di scambio o criteri di esclusione, anziché come condizioni da proteggere e accompagnare con dignità.
Le sfide etiche, giuridiche e i neurorights
Di fronte a questi scenari, la questione è eminentemente giuridica oltre che etica. Il GDPR prevede regole severe per i dati biometrici, classificati come “categorie particolari” e soggetti a restrizioni rigorose. Tuttavia, se il volto anziché essere utilizzato per identificare un individuo, venisse impiegato per inferirne stati cognitivi, l’applicazione della norma non sarebbe altrettanto chiara, trattandosi di informazioni estremamente sensibili, che richiedono senz’altro tutele rafforzate.
Il Regolamento europeo sull’Intelligenza Artificiale (AI Act) ha introdotto un divieto esplicito di utilizzo dei sistemi di riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, riconoscendo il rischio di sorveglianza pervasiva in contesti caratterizzati da asimmetria di potere; vieta inoltre lo scraping massivo di immagini facciali e diverse forme di social scoring biometrico. Tuttavia, resta ancora da chiarire se e come le tecniche di inferenza cognitiva ricadano in queste fattispecie, in quanto è probabile che debbano essere considerate come sistemi ad alto rischio, con conseguenti obblighi di trasparenza, auditing indipendente e sorveglianza post-market.
Accanto agli strumenti giuridici europei, cresce il dibattito internazionale sui cosiddetti neurorights: nuove categorie di diritti fondamentali che mirano a proteggere la libertà cognitiva, la privacy mentale e l’integrità psicologica degli individui. Il Cile è stato il primo Paese al mondo a inserire riferimenti espliciti a questi principi nella propria Costituzione; in Europa il tema è entrato nelle agende parlamentari e accademiche, e sembra destinato a diventare centrale nei prossimi anni.
Geopolitica delle regole: modelli a confronto
Se in Europa l’AI Act e il GDPR puntano a limitare gli usi invasivi, altrove la prospettiva è opposta. In Cina i sistemi di analisi facciale sono già impiegati nelle scuole per monitorare attenzione e rendimento degli studenti; negli Stati Uniti il quadro è frammentato: alcuni Stati li vietano, mentre il settore privato sperimenta applicazioni in marketing e recruiting.
Questa divergenza normativa apre una questione cruciale di sovranità tecnologica: le imprese europee, vincolate da regole più severe, rischiano di essere svantaggiate rispetto a competitor extra-UE più liberi di raccogliere e monetizzare dati cognitivi. Questo tema riguarda sia la tutela dei diritti che la capacità dell’Europa di restare protagonista nello sviluppo tecnologico globale.
Il nodo della responsabilità: chi paga quando l’algoritmo sbaglia
C’è infine l’aspetto della responsabilità giuridica, ovvero di chi risponda quando un sistema di IA sbaglia a interpretare uno stato cognitivo e da quell’errore deriva un danno. In particolare, occorre chiedersi di chi sia la responsabilità nel caso in cui vi sia una diagnosi clinica falsata, nel caso in cui un giudice si lasci influenzare da una perizia algoritmica o nel caso in cui un datore di lavoro penalizzi un dipendente sulla base delle analisi effettuate. In questo girone potrebbero essere coinvolti lo sviluppatore che ha creato l’algoritmo, l’azienda che lo ha adottato, il professionista che lo ha utilizzato. Sebbene l’AI Act introduca obblighi e sanzioni, la distribuzione della responsabilità civile e penale è ancora terreno incerto; resta quindi un vuoto che rischia di lasciare i cittadini esposti agli errori tecnologici senza strumenti adeguati di tutela.
Quali regole servono: principi per un uso etico della tecnologia
Occorre delineare in primo luogo con precisione i principi da seguire: gli usi della tecnologia vanno limitati a contesti clinici, terapeutici o di ricerca, dove il beneficio per l’individuo è chiaro e il consenso è pienamente informato, mentre deve essere vietato qualsiasi impiego in contesti di valutazione lavorativa, scolastica o giudiziaria.
In secondo luogo, il consenso deve essere esplicito, specifico e revocabile: nessun sistema di inferenza cognitiva dovrebbe operare senza che l’utente sappia chiaramente cosa viene raccolto, con quali margini di errore e per quali scopi.
In terzo luogo, è necessario introdurre obblighi di trasparenza algoritmica e di audit indipendenti. In particolare, le organizzazioni che sviluppano o utilizzano questi sistemi devono essere tenute a pubblicare informazioni sui dataset di addestramento, sulle metriche di accuratezza e sugli errori riscontrati, garantendo la possibilità di controlli da parte di autorità indipendenti.
Infine, deve essere vietata ogni forma di decisione automatizzata basata esclusivamente su inferenze cognitive, con l’essere umano sempre al centro del processo decisionale, con la possibilità di contestare valutazioni basate su algoritmi.
Tre scenari per il futuro: tra medicina e distopia
Possiamo immaginare tre scenari alternativi.
Nel primo, virtuoso, queste tecnologie verranno utilizzate solo in medicina e ricerca, con benefici concreti e regole rigorose a tutela dei diritti.
Nel secondo, intermedio, si diffonderanno anche in ambito commerciale e marketing, formazione e ambienti digitali, con rischi mitigati solo parzialmente.
Nel terzo, distopico, diventeranno strumenti di sorveglianza cognitiva diffusa, con conseguente limitazione della libertà mentale e stigmatizzazione di individui sulla base di inferenze algoritmiche.
La direzione che prenderemo non dipenderà soltanto dai laboratori scientifici o dalle aziende tecnologiche, ma soprattutto dalle scelte politiche e giuridiche di oggi.
Il ruolo del diritto nella protezione della mente
La possibilità di leggere nella mente attraverso il volto è una frontiera scientifica concreta che offre opportunità straordinarie sul fronte della salute, dell’accessibilità e dell’interazione uomo-macchina. Si tratta però di una tecnologia che, senza regole chiare, rischia di trasformarsi in un’arma di sorveglianza profonda e discriminazione.
Il compito delle istituzioni è quello garantire che il progresso avvenga a beneficio dell’umanità e non contro di essa: visto che ormai è dato di fatto che la tecnologia sarà in grado di leggere i nostri pensieri, a dover essere difeso sarà il diritto ad avere pensieri che restino effettivamente nostri. Se il volto tradisce il pensiero, il diritto deve proteggere il pensatore.











