I tradizionali strumenti giuridici della privacy e del consenso informato risultano strutturalmente inadeguati di fronte alle neurotecnologie, non per difetto di tecnica normativa, ma per un’insufficienza ontologica: essi presuppongono la separazione tra soggetto e dato, mentre il dato neurale è il soggetto nel suo substrato biologico.
Il diritto che non presidia la mente non tutela la persona, ne tutela soltanto l’ombra.
L’analisi muove da questa constatazione per sviluppare quattro tesi distinte: che la privacy mentale costituisce un diritto fondamentale autonomo, distinto per natura dalla riservatezza informazionale; che la tutela dei dati neurali inferenziali – acquisiti senza contatto diretto con il substrato neurale – è altrettanto urgente di quella dei dati acquisiti mediante BCI; che il consenso informato in presenza di alterazione cognitiva indotta dalla terapia neurotecnologica richiede una dottrina specifica della continuità volitiva; e che i bias algoritmici negli algoritmi di decodifica neurale producono una forma di disuguaglianza cognitiva strutturale che le categorie esistenti della non discriminazione non sono attrezzate a intercettare. Si propongono cinque principi di governance e si conclude con una valutazione critica delle tesi sostenute e delle questioni ancora aperte.
Indice degli argomenti
L’insufficienza strutturale dei paradigmi giuridici vigenti
L’analisi muove dalla constatazione che il diritto, nella sua funzione epistemica di ordinamento della realtà sociale, procede per sedimentazione categoriale: ogni nuovo fenomeno viene inizialmente ricondotto alle categorie esistenti e solo quando la distanza tra la categoria e il fenomeno diventa insostenibile si avvia la costruzione di architetture normative nuove. La storia del diritto digitale offre conferma di questo schema: la protezione dei dati personali ha impiegato decenni per emanciparsi dalla logica della riservatezza contrattuale e approdare al Regolamento (UE) 2016/679, che ancora oggi richiede interpretazione evolutiva da parte della Corte di Giustizia dell’Unione Europea per fronteggiare fenomeni (come il profilamento algoritmico, la manipolazione delle preferenze, l’inferenza identitaria) che i suoi estensori avevano solo parzialmente anticipato.
Le neurotecnologie – categoria che comprende le interfacce cervello-computer (Brain-Computer Interfaces, BCI), le tecniche di neuroimaging avanzato, la stimolazione cerebrale profonda (Deep Brain Stimulation, DBS), i sistemi di neurofeedback e, come si argomenterà, i dispositivi capaci di inferire stati mentali da dati biometrici senza contatto neurologico diretto – pongono al diritto una difficoltà categorialmente differente da quelle affrontate in precedenza. Esse non si limitano a raccogliere dati che il soggetto ha prodotto o trasmesso, ma intercettano segnali neurologici che precedono la formazione della volontà cosciente, decodificano intenzioni prima che si traducano in azione, rilevano stati emotivi prima che il soggetto li abbia elaborati e comunicati. La distanza tra il modello del dato-come-oggetto-posseduto e la realtà del dato neurale-come-substrato-dell’essere è già insostenibile.
L’urgenza non è teorica. Neuralink ha ricevuto nel 2023 l’autorizzazione della FDA statunitense per i propri trial clinici sul dispositivo N1, con il primo impianto umano eseguito nel gennaio 2024. Synchron ha già impiantato il proprio dispositivo Stentrode in pazienti negli Stati Uniti. Meta Platforms destina ingenti risorse allo sviluppo di interfacce neurali non invasive per ambienti immersivi. Il mercato globale delle neurotecnologie è stimato, secondo le proiezioni del Grand View Research, in oltre 24 miliardi di dollari entro il 2027.1
Si sostiene che la risposta giuridicamente adeguata a questa trasformazione richieda, anziché un aggiustamento degli strumenti esistenti (privacy informazionale, consenso informato, non discriminazione algoritmica), una riconcettualizzazione della dignità umana che includa la tutela dell’interiorità mentale come spazio inviolabile e con essa lo sviluppo di quattro diritti fondamentali distinti: la privacy mentale, l’integrità dell’identità cognitiva, la libertà cognitiva procedurale e la protezione dalla disuguaglianza neurocognitiva strutturale. Il presente articolo scandisce questa tesi attraverso l’analisi comparata del paesaggio normativo internazionale, l’esame critico dei fondamenti filosofici rilevanti e la proposta di cinque principi di governance.
Neurodiritti nel paesaggio normativo internazionale
Il panorama normativo internazionale sui neurodiritti è caratterizzato, allo stato attuale, da una asimmetria che merita di essere segnalata: l’urgenza del problema è avvertita con maggiore nitidezza in sede accademica e scientifica che nelle aule legislative e la risposta giuridica più organica è provenuta non dalle giurisdizioni che tradizionalmente guidano l’evoluzione del diritto della tecnologia, bensì dal Cile. Nel 2021, il Cile ha introdotto nella propria Costituzione, attraverso la modifica dell’articolo 19, il primo riconoscimento esplicito della protezione dell’integrità mentale come diritto fondamentale autonomo, frutto di un percorso scientifico e legislativo cui hanno contribuito in modo determinante il neuroscienziato Rafael Yuste (Columbia University) e la ricercatrice Marcello Ienca.
La successiva Ley n. 21.383 del 2021 e la Ley n. 21.544 del 2023 – specificamente dedicata alla protezione dei neurodati – costruiscono un corpus normativo che introduce il neurodato come categoria giuridica autonoma, distinta dai dati sanitari, soggetta a un regime di protezione rafforzato: consenso esplicito, granulare e revocabile; divieto di utilizzo commerciale dei dati neurali senza autorizzazione specifica; sanzioni calibrate sulla gravità della violazione. Il modello cileno è rimasto, fino ad oggi, il riferimento più organico a livello mondiale ed ha ispirato iniziative legislative in Colombia, Brasile, Argentina e Spagna.
Il quadro europeo
E in Europa?
L’approccio dell’Unione Europea alla questione neurotecnologica è attualmente distribuito tra strumenti normativi che, pur nella loro raffinatezza tecnica, non sono stati concepiti per fronteggiare la specificità del dato neurale e producono, nel loro insieme, una risposta frammentata. Il GDPR include i dati neurali nella categoria dei dati relativi alla salute ai sensi dell’articolo 9, con il conseguente regime di protezione rafforzata. Questa classificazione è corretta, ma parziale poiché presuppone che il dato neurale sia già stato estratto ed elaborato, mentre il momento più critico e più esposto al rischio di violazione è quello della sua acquisizione.
Il Regolamento sull’Intelligenza Artificiale
Il Regolamento sull’Intelligenza Artificiale (Regolamento (UE) 2024/1689) introduce una distinzione sistematicamente rilevante che merita precisione: l’articolo 5 stabilisce divieti assoluti per le pratiche di manipolazione subliminale, di sfruttamento delle vulnerabilità psicologiche e di alterazione comportamentale senza consenso cosciente; tali pratiche sono vietate erga omnes, indipendentemente dalla classificazione di rischio del sistema che le realizza. La categoria dei sistemi ad alto rischio disciplinata dall’articolo 6 e dall’Allegato III riguarda, invece, sistemi ammessi ma sottoposti a obblighi di conformità stringenti – tra cui biometria, infrastrutture critiche e sistemi decisionali in ambito occupazionale e creditizio. Le neurotecnologie con funzione manipolatoria rientrano nel divieto assoluto dell’articolo 5, non nella categoria di alto rischio; obliterare questa distinzione produce conseguenze normative rilevanti.2
Il Regolamento sui Dispositivi Medici
Il Regolamento sui Dispositivi Medici (Regolamento (UE) 2017/745) disciplina i dispositivi impiantabili secondo una logica centrata sulla sicurezza tecnica del prodotto, non sulla tutela dell’autonomia cognitiva del paziente — una distinzione che, come si argomenterà, è centrale per comprendere le lacune del sistema. La Carta dei Diritti Fondamentali dell’Unione Europea offre basi normative di rilievo: l’articolo 1 sulla dignità umana, l’articolo 3 sull’integrità della persona, l’articolo 7 sul rispetto della vita privata, l’articolo 8 sulla protezione dei dati personali. Si tratta, tuttavia, di disposizioni che richiedono un’interpretazione evolutiva, non meramente estensiva, per essere applicate alle neurotecnologie.
Il Comitato Europeo per la Protezione dei Dati (EDPB) ha adottato nel 2023 le Linee Guida 05/2023 sui dati biometrici che contengono considerazioni preliminari sui dati neurali senza tuttavia affrontare le questioni più profonde poste dalle BCI. Il Consiglio d’Europa ha aperto alla firma a Vilnius, nel settembre 2024, la Convenzione Quadro sull’Intelligenza Artificiale, i Diritti Umani, la Democrazia e lo Stato di Diritto (CETS n. 225), uno strumento che fornisce principi generali sull’IA senza una disciplina specifica delle neurotecnologie.
Il modello statunitense
Negli Stati Uniti la struttura regolatoria è dominata dall’approccio settoriale che caratterizza tradizionalmente il diritto americano. La FDA esercita competenza sui dispositivi medici neurotecnologici applicando la logica della sicurezza del dispositivo, non della tutela dell’autonomia cognitiva. A livello statale, il Colorado ha adottato nel 2024 una disciplina specifica sui neurodati nell’ambito del Colorado Privacy Act, seguito da altri Stati; il panorama rimane tuttavia disomogeneo. A livello federale, la BRAIN Initiative ha prodotto riflessioni etiche articolate nel proprio Neuroethics Roadmap, senza tradursi in legislazione vincolante. Il divario tra il ritmo dell’innovazione industriale – Neuralink, Synchron, Kernel – e quello della risposta regolatoria è, nell’ordinamento americano, più pronunciato che in quello europeo.
Le iniziative multilaterali: UNESCO e Consiglio d’Europa
A livello internazionale, l’UNESCO ha adottato nel 2024 la Recommendation on the Ethics of Neurotechnology: strumento privo di valore giuridico vincolante, ma rilevante come riferimento per la costruzione di un consenso globale. La Raccomandazione articola quattro principi (rispetto della dignità umana, protezione della privacy e dell’autonomia mentale, equità nell’accesso, responsabilità degli attori coinvolti) che convergono con il quadro teorico sviluppato in questo articolo. Il Comitato di Bioetica del Consiglio d’Europa (DH-BIO) ha adottato nel 2023 una Declaration on the Challenges of Neurotechnologies che qualifica la libertà cognitiva come dimensione fondamentale della libertà individuale, fornendo un ancoraggio assiologico rilevante per l’interpretazione evolutiva degli strumenti normativi vigenti.
Il diritto alla privacy mentale
La teoria tradizionale della privacy, nella sua formulazione classica risalente a Warren e Brandeis del 1890 (The right to privacy), si fonda sulla figura del diritto di essere lasciati soli (right to be let alone). Questa concezione ha subito elaborazioni successive che ne hanno progressivamente ampliato la portata: Westin ha introdotto la dimensione del controllo sull’informazione come nucleo della privacy; Nissenbaum ha sviluppato la teoria dell’integrità contestuale, secondo cui la violazione della privacy consiste nella trasmissione di informazioni al di fuori del contesto normativo in cui sono state generate; Solove ha proposto una tassonomia pluralista dei danni. Tutte queste elaborazioni, pur nella loro diversità, condividono un’assunzione ontologica: la privacy riguarda informazioni che il soggetto ha già prodotto, trasmesso o condiviso, che hanno già attraversato la soglia tra interiorità e mondo esterno.
Le neurotecnologie rendono questa assunzione insostenibile. Quando un dispositivo BCI acquisisce segnali EEG o fMRI che consentono di decodificare il contenuto di un pensiero, la violazione della privacy si consuma prima che il pensiero sia stato esternalizzato, prima che sia diventato comunicazione, prima che il soggetto abbia esercitato qualsiasi scelta comunicativa. La metafora più precisa non è l’intercettazione di un messaggio, ma è la lettura di una bozza che il soggetto non ha ancora deciso di redigere. La distanza tra questa situazione e il modello della privacy informazionale non è di grado, ma di natura.
Nita Farahany (Duke University) denomina questa dimensione mental privacy o, nella sua declinazione negativa, cognitive liberty: il diritto a che i propri processi mentali rimangano inaccessibili a terzi in assenza di consenso esplicito e specifico. La distinzione di Farahany tra decodifica passiva dei segnali neurali, manipolazione attiva dei processi cognitivi e sorveglianza continua a fini di profilazione comportamentale offre una tassonomia utile per calibrare la risposta normativa in funzione della gravità della violazione.
La frontiera più pervasiva e meno presidiata: i dati neurali inferenziali
Si ritiene che la dottrina abbia sinora trattato con eccessiva reticenza una categoria di dati che non richiede alcun contatto diretto con il substrato neurale e che è già operativa in larga scala: i dati neurali inferenziali. Sono tali le informazioni relative agli stati cognitivi ed emotivi del soggetto (intenzioni, stati affettivi, livelli di attenzione, propensioni decisionali) ricavate non da sensori neurologici diretti, bensì da dati biometrici esterni elaborati da algoritmi di apprendimento automatico addestrati su dataset psicofisiologici. Battito cardiaco e variabilità della frequenza cardiaca (HRV), microespressioni facciali, pattern vocali, movimenti oculari, postura e andatura: ciascuno di questi segnali, considerato isolatamente, appare privo di contenuto neurologico diretto.
Aggregati e processati da modelli di machine learning, essi vengono impiegati come strumenti di inferenza degli stati cognitivi ed emotivi, con un’affidabilità che la letteratura scientifica più recente valuta in modo assai meno ottimistico di quanto le ambizioni commerciali dei produttori suggerirebbero. Barrett e altri (“Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements”, Psychological Science in the Public Interest, 2019) hanno dimostrato sistematicamente che il riconoscimento automatico delle emozioni dalle microespressioni facciali poggia su assunzioni di universalità delle espressioni emotive che la ricerca inter-culturale non supporta: le varianze tra popolazioni, culture e individui rendono il tasso di errore strutturalmente elevato e difficilmente riducibile mediante sola ottimizzazione algoritmica. Questo dato, lungi dall’indebolire le preoccupazioni giuridiche, le rafforza: un sistema che pretende di inferire stati cognitivi con affidabilità sistematicamente sovrastimata, e che viene impiegato in contesti con ricadute su rapporti di lavoro, valutazioni assicurative o decisioni di pubblica sicurezza, produce un danno più grave di un sistema che funziona con precisione misurata e dichiarata. **La pericolosità giuridica non risiede nell’efficacia dello strumento, ma nella sproporzione tra la fiducia che gli viene accordata e le sue reali prestazioni.**3
Questa dimensione inferenziale della sorveglianza cognitiva è già operativa in contesti lavorativi, assicurativi e di pubblica sicurezza: sistemi sviluppati da Affectiva, Realeyes ed Emotient (acquisita da Apple nel 2016) analizzano microespressioni facciali per inferire stati emotivi in tempo reale; compagnie assicurative hanno sperimentato l’utilizzo di dati biometrici per stimare il rischio psicologico degli assicurati; nel settore della selezione del personale, sistemi di analisi vocale valutano lo stato emotivo dei candidati durante i colloqui. Il soggetto sorvegliato non indossa alcun dispositivo invasivo e spesso ignora che la sua attività cognitiva stia venendo monitorata.
La tesi che si avanza è che la protezione della privacy mentale debba operare indipendentemente dalla modalità tecnica di acquisizione del dato cognitivo: l’accesso indiretto agli stati mentali attraverso l’inferenza algoritmica produce la medesima violazione dell’interiorità cognitiva dell’accesso diretto tramite BCI, con la differenza che è tecnicamente più diffuso, economicamente più accessibile e giuridicamente più difficile da intercettare. Il GDPR offre una risposta parziale attraverso il considerando 51 e l’articolo 9 che includono i dati biometrici nella categoria sensibile; tuttavia, la protezione si attiva quando i dati biometrici vengono trattati «al fine di identificare in modo univoco una persona fisica». I dati neurali inferenziali non vengono raccolti per identificare il soggetto, ma per inferirne gli stati interni: ricadono in una zona di tutela incerta, non di totale assenza di presidio normativo.
È necessaria una precisazione che la dottrina più attenta non può eludere: l’EDPB e la Corte di Giustizia dell’Unione Europea hanno progressivamente adottato un orientamento estensivo nella definizione di dato personale, tendendo a qualificare come tale qualsiasi informazione che consenta il profilamento del soggetto, indipendentemente dalla finalità dichiarata di identificazione univoca. In questo senso, i dati neurali inferenziali possono già oggi, a determinate condizioni, rientrare nell’ambito di applicazione dell’articolo 9 GDPR.
La lacuna che si segnala non è dunque di assenza assoluta di tutela, ma di inadeguatezza strutturale della tutela disponibile: essa è costruita su categorie concepite per finalità diverse (identificazione, trattamento sanitario), dipende da interpretazioni evolutive non ancora consolidate in decisioni vincolanti generalizzate, e non è in grado di presidiare la fase di acquisizione del dato cognitivo anteriormente alla sua elaborazione. Una risposta coerente richiede l’estensione esplicita della categoria dei neurodati ai dati inferenziali, indipendentemente dalla modalità di acquisizione, in modo da superare l’incertezza interpretativa con una norma chiara.
La privacy mentale come diritto fondamentale autonomo
Si sostiene qui che la privacy mentale costituisca un diritto fondamentale autonomo, non derivato per estensione dalla privacy informazionale e che questa autonomia categoriale sia fondamentale per le conseguenze normative che ne derivano. Tre caratteri la distinguono strutturalmente. Il primo è l’assolutezza relativa: a differenza dei dati personali ordinari, soggetti a bilanciamento con interessi contrapposti di rilievo costituzionale attraverso il test di proporzionalità ordinario, i dati neurali relativi al contenuto del pensiero devono godere di una protezione strutturalmente diversa.
La formula “assolutezza relativa” non descrive un bilanciamento ordinario: descrive una soglia di protezione elevata al di sopra della quale la deroga — consentita esclusivamente per finalità terapeutiche dirette al beneficio del soggetto — non opera per via di bilanciamento discrezionale tra interessi contrapposti, ma è subordinata a condizioni procedurali stringenti e verificabili: consenso informato specifico, standard tecnici obbligatori di minimizzazione del dato, controllo indipendente ex ante. È la struttura della deroga, non la sua mera ammissibilità, che distingue questo diritto dalla privacy informazionale ordinaria. Il fondamento risiede nella dignità umana come valore non bilanciabile in senso ordinario ai sensi dell’articolo 1 CDFUE e dell’articolo 1 GG, secondo l’interpretazione consolidata della Corte Costituzionale federale tedesca.
Il secondo carattere è la temporalità anticipata: la protezione deve operare prima dell’esternalizzazione del dato, configurando un diritto all’opacità cognitiva che precede e sussiste indipendentemente dal diritto al controllo sul dato già acquisito. Questa dimensione richiede strumenti normativi inediti: il divieto di progettazione di dispositivi capaci di acquisire dati neurali senza procedura di consenso tecnicamente verificabile è logicamente distinto dal diritto di cancellazione del dato già acquisito. Il terzo carattere è la non-commerciabilità strutturale: i dati neurali relativi al contenuto del pensiero non possono essere oggetto di transazione commerciale nemmeno con il consenso del soggetto, perché la loro commercializzazione implicherebbe una forma di alienazione della personalità incompatibile con la dignità umana – posizione coerente con la tradizione giuridica europea che tratta la personalità come bene extra-commercium.
L’identità personale di fronte alle interfacce neurali
Il problema dell’identità personale attraversa la filosofia occidentale da Locke a Parfit senza trovare una soluzione condivisa. Locke fondò l’identità sulla continuità della coscienza e della memoria; Hume la dissolse in un fascio di percezioni senza sostrato permanente; Parfit, in Reasons and persons, argomenta per una concezione riduzionista in cui l’identità personale nel tempo non è un fatto separato dai fatti di continuità psicologica e fisica. Le neurotecnologie trasformano queste questioni da interrogativi speculativi in problemi giuridici con ricadute immediate.
La stimolazione cerebrale profonda, già impiegata nel trattamento del morbo di Parkinson, dell’epilessia e di forme di depressione resistente al farmaco, produce in alcuni pazienti alterazioni significative della personalità, delle preferenze e dei valori: casi documentati nella letteratura clinica descrivono cambiamenti nelle preferenze sessuali, nei valori etici di riferimento, nel senso dell’umorismo e nelle scelte politiche. I dispositivi impiantati a lungo termine generano una integrazione progressiva tra cervello biologico e sistema artificiale: pazienti con BCI terapeutiche di lunga durata riferiscono di percepire il dispositivo come parte integrante di sé e manifestano reazioni di lutto alla sua rimozione o al suo guasto. La questione della titolarità dell’identità – dove finisce il soggetto e dove inizia il dispositivo – cessa di essere un esperimento mentale.
Il cortocircuito del consenso post-alterazione cognitiva
La questione del consenso nelle neurotecnologie che producono alterazioni cognitive o della personalità presenta una struttura logica che la dottrina giuridica ha sinora affrontato con insufficiente rigore sistematico.4 Il problema che ci si pone è se un intervento di DBS o l’uso prolungato di una BCI altera in modo significativo le preferenze, i valori e i processi decisionali del soggetto, il consenso alla prosecuzione del trattamento espresso dal soggetto post-alterazione abbia lo stesso valore giuridico e morale del consenso prestato ante intervento. La persona che, dopo un impianto in area limbica, dichiara di voler continuare il trattamento nonostante effetti collaterali documentati sulla propria personalità, è la stessa persona che ha sottoscritto il modulo di consenso informato?
Il concetto di capacità decisionale (competence) elaborato dalla tradizione anglosassone (si vedano i lavori Grisso e Appelbaum) riguarda la capacità del soggetto di comprendere le informazioni rilevanti, di apprezzarne le implicazioni e di comunicare una scelta. Un soggetto con personalità significativamente modificata da un intervento neurotecnologico può soddisfare tutti questi criteri formali di competence e, al tempo stesso, non essere in condizione di esprimere una volontà in continuità con quella del soggetto pre-intervento. Il modello della competence non è attrezzato per questo scenario perché è stato costruito per valutare la capacità in un momento dato, non la continuità identitaria nel tempo.
La distinzione elaborata da Ronald Dworkin in Life’s Dominion tra preferenze «contemporanee» del soggetto e precedent autonomy decisions (le decisioni di autonomia anticipatamente espresse, cui Dworkin attribuisce prevalenza anche quando la capacità attuale risulti compromessa) offre uno schema applicabile alle neurotecnologie, a condizione di affrontare esplicitamente la tensione che il revisore ha correttamente segnalato: se l’identità personale è concepita, sulla scia di Parfit, come continuità psicologica senza sostrato metafisico permanente, su quale base la volontà del soggetto ante-intervento dovrebbe vincolare il soggetto post-alterazione?
La risposta dworkiniana non presuppone una concezione forte e sostanzialista dell’identità: presuppone che la vita di una persona abbia la struttura di una narrazione dotata di coerenza interna, e che le decisioni anticipate esprimano quella coerenza narrativa in un momento in cui la riflessione autonoma è ancora integra. Anche nella prospettiva riduzionista di Parfit, la continuità psicologica sufficiente a fondare obblighi morali e giuridici non viene meno per effetto di un intervento terapeutico: viene semmai resa problematica, e proprio questa problematicità giustifica la necessità di uno strumento giuridico specifico.
La direttiva anticipata neurotecnologica non risolve la questione metafisica dell’identità, la aggira, spostando il problema dalla continuità ontologica alla continuità normativa – ossia alla domanda su quale volontà il diritto debba riconoscere come vincolante quando la volontà attuale del soggetto sia stata alterata dall’intervento cui egli stesso aveva acconsentito. Si ritiene che la direttiva anticipata neurotecnologica, in cui il soggetto specifica in via preventiva i limiti entro i quali consente modificazioni della propria personalità e le condizioni al verificarsi delle quali il trattamento deve essere sospeso, costituisca uno strumento giuridico di rilevante potenziale che il diritto europeo non disciplina ancora in modo specifico. La sua introduzione richiederebbe una integrazione coordinata tra la disciplina del consenso informato in ambito medico e quella della rappresentanza nelle situazioni di incapacità sopravvenuta, con possibilità di intervento del giudice tutelare in caso di discrepanza significativa tra le preferenze attuali del soggetto e quelle espresse nella direttiva anticipata.
Ecco farsi spazio, allora, il diritto all’integrità dell’identità cognitiva, distinto sia dall’integrità fisica che dalla privacy informazionale, si articola, nell’elaborazione della dottrina più avanzata, in tre componenti. La prima è il diritto alla continuità cognitiva: il soggetto ha diritto a che le tecnologie neuronali non alterino i propri processi cognitivi in modo non consensuale o in misura sproporzionata rispetto alla finalità terapeutica dichiarata, con onere della prova di proporzionalità a carico del soggetto che propone o pratica l’intervento. La seconda componente è il diritto alla coerenza narrativa: la concezione ricoeuriana dell’identità come narrazione – la tensione tra l’idem, identità sostanziale che permane nel tempo, e l’ipse, identità di impegno e promessa, sviluppata in Soi-même comme un autre – suggerisce che la tutela giuridica dell’identità personale includa necessariamente una dimensione temporale e narrativa, non solo sincronica. La terza componente è il diritto alla proprietà cognitiva: i pattern neurali che costituiscono l’identità cognitiva del soggetto non possono essere oggetto di appropriazione da parte di terzi, incluse le società produttrici e operatrici dei dispositivi.
La libertà cognitiva procedurale
Passando da un piano teorico ad uno pratico-giuridico si ponga mente agli esperimenti di Benjamin Libet degli anni Ottanta del Novecento, confermati e raffinati da ricerche successive, tra cui i lavori di Soon e altri pubblicati su Nature Neuroscience nel 2008, i quali hanno documentato l’esistenza di un Readiness Potential, segnale neurale misurabile con EEG che precede di centinaia di millisecondi, e in alcuni casi di secondi, la coscienza soggettiva dell’intenzione di compiere un’azione. La decodifica di questo segnale da parte di un sistema artificiale consentirebbe, in linea teorica, di prevedere le azioni di un individuo prima che questi ne sia consapevolmente intenzionato; un sistema che non si limitasse a prevedere ma intervenisse per orientare la formazione dell’intenzione altererebbe il processo decisionale del soggetto a un livello anteriore alla coscienza. Questo scenario pone interrogativi giuridici concreti.
Il diritto ha sempre operato senza risolvere la questione metafisica del libero arbitrio. La tradizione compatibilista, da Frankfurt a Dennett, ha mostrato che la libertà rilevante per il diritto e per la morale non richiede l’assenza di determinismo causale, ma la presenza di determinate condizioni interne al processo decisionale. Ciò che il diritto tutela, quando protegge la volontà negoziale, la mens rea penale o l’autonomia testamentaria, è la capacità del soggetto di formare le proprie preferenze attraverso processi cognitivi propri, non eterodiretti e non manipolati da pressioni indebite.
Le neurotecnologie minacciano questa dimensione procedurale della libertà introducendo agenti tecnici capaci di intervenire direttamente nei processi di formazione delle preferenze, a un livello anteriore alla coscienza riflessiva del soggetto. Si ritiene che la questione giuridicamente rilevante non sia se il libero arbitrio esista in senso metafisico, ma se il soggetto abbia formato la propria volontà attraverso processi cognitivi propri o attraverso processi cognitivi alterati da interventi tecnologici non consensuali. Questa è una distinzione che rispecchia la logica del diritto contrattuale in materia di vizi del consenso e quella del diritto penale in materia di capacità di intendere e di volere e che con quelle categorie deve dialogare per produrre soluzioni tecnicamente praticabili.5
Sul piano normativo, il diritto alla libertà cognitiva procedurale trova parziale ancoraggio nel divieto assoluto di pratiche manipolatorie di cui all’articolo 5 dell’AI Act, ma richiede un’elaborazione specifica che superi tre limiti di tale norma: il limite dell’intenzionalità (il divieto presuppone la finalità manipolatoria, mentre gli effetti sulle preferenze possono essere non intenzionali); il limite dell’identificabilità (distinguere l’effetto terapeutico dal potenziamento cognitivo è tecnicamente complesso); il limite soggettivo (il divieto si applica ai sistemi di IA, non necessariamente ai dispositivi medici che utilizzano componenti di IA in modo incidentale).
La questione della libertà cognitiva assume rilievo pratico immediato nel diritto della responsabilità. Se un soggetto dotato di BCI compie un’azione che il dispositivo ha orientato o facilitato, la distribuzione della responsabilità tra soggetto, produttore e operatore del dispositivo richiede strumenti analitici nuovi. Il caso limite (un soggetto che compie un reato mentre il proprio dispositivo è stato compromesso da un attacco informatico) impone una rivisitazione dei criteri di imputabilità penale che le categorie della actio libera in causa e delle cause di esclusione della colpevolezza non riescono ad assorbire integralmente, perché presuppongono una netta distinzione tra il soggetto e i fattori esterni che ne alterano la condotta: distinzione che la BCI impiantata rende strutturalmente problematica. La responsabilità del produttore ai sensi del Regolamento (UE) 2022/2065 e del Regolamento (UE) 2024/1689 offre risposte parziali sul piano civile, ma non risolve la questione dell’imputabilità soggettiva in sede penale che rimane uno dei nodi più urgenti della dogmatica.
Bias algoritmici e disuguaglianza neurocognitiva strutturale
Gli algoritmi di decodifica neurale, cioè i sistemi che traducono segnali EEG o fMRI in rappresentazioni di intenzioni, stati emotivi e processi cognitivi, vengono addestrati principalmente su dataset composti da soggetti giovani, di sesso maschile, di origine caucasica, con elevato livello di istruzione, reclutati prevalentemente in contesti universitari nordamericani o europei. Questa composizione riflette le condizioni storiche in cui la ricerca neuroscientifica si è sviluppata e produce conseguenze sistematiche sulle prestazioni degli algoritmi per i soggetti appartenenti a popolazioni sottorappresentate nei dati di addestramento.
Le conseguenze sono documentate e rilevanti. Un algoritmo di decodifica dell’intenzione addestrato su una popolazione specifica tende a performare con tassi di errore superiori su soggetti di popolazioni diverse, con effetti diretti sulla qualità delle terapie neurotecnologiche erogate ai gruppi sottorappresentati. I sistemi di riconoscimento delle microespressioni facciali, rilevanti per i dati neurali inferenziali, mostrano tassi di errore sistematicamente superiori per i soggetti di origine africana e asiatica, come documentato da ricerche condotte dal MIT Media Lab e dal National Institute of Standards and Technology. Il bias del dato di addestramento si sedimenta in disparità terapeutiche strutturali: non una discriminazione nell’accesso alle cure, ma nella loro efficacia cognitiva; una stratificazione che opera, silenziosamente, sul piano della funzione neurologica del soggetto.
L’inadeguatezza delle categorie normative esistenti
Il diritto alla non discriminazione — sancito dall’articolo 21 CDFUE e dall’articolo 14 CEDU, e sviluppato nelle Direttive 2000/43/CE e 2000/78/CE — offre una base normativa per affrontare il problema dei bias algoritmici nelle neurotecnologie. L’articolo 10 dell’AI Act introduce requisiti specifici di data governance e di verifica della non discriminazione per i sistemi ad alto rischio. L’articolo 22 GDPR tutela il diritto del soggetto a non essere assoggettato a decisioni basate esclusivamente su trattamento automatizzato. Questi strumenti presentano, tuttavia, lacune che non sono correggibili per via interpretativa.
La prima lacuna attiene alla classificazione del rischio; numerose applicazioni neurotecnologiche potrebbero non rientrare nei sistemi ad alto rischio dell’AI Act, con conseguente inapplicabilità dei requisiti di non discriminazione più stringenti. La seconda lacuna attiene alla difficoltà probatoria poiché dimostrare che un algoritmo di decodifica neurale opera in modo discriminatorio richiede accesso ai dati di addestramento e competenza tecnica che il soggetto leso raramente possiede. La terza lacuna è strutturalmente più profonda: i bias nelle neurotecnologie producono una forma di stratificazione, denominabile disuguaglianza neurocognitiva strutturale, che non ha precedenti nelle categorie della discriminazione tradizionale. Un algoritmo di DBS che funziona peggio per determinati gruppi demografici non produce solo una disuguaglianza nell’accesso ai benefici tecnologici, bensì produce una disuguaglianza nella qualità cognitiva tra diverse categorie di persone, con effetti che si accumulano nel tempo e che il mercato, in assenza di incentivi adeguati, non è in grado di correggere.
Per ovviare a queste lacune, si propone il concetto di giustizia algoritmica neurale, distinto dalla non discriminazione algoritmica ordinaria per la specificità del danno prodotto, articolato in tre principi operativi.
Il primo è quello della rappresentatività obbligatoria dei dataset neurali per cui i sistemi di IA impiegati in applicazioni neurotecnologiche devono essere addestrati su dataset che rappresentino adeguatamente la diversità demografica, culturale e neurologica della popolazione di riferimento, con obbligo di documentazione e verifica dell’adeguatezza da parte dell’autorità regolatoria.
Il secondo è quello della valutazione continua dell’equità algoritmica: il monitoraggio post-commercializzazione deve includere la valutazione sistematica delle prestazioni dell’algoritmo per sottogruppi demografici definiti, con obbligo di comunicazione all’autorità regolatoria e di intervento correttivo in caso di disparità statisticamente significative. Il terzo è quello dell’accessibilità universale, secondo cui le politiche di prezzo e di accesso alle terapie neurotecnologiche devono essere strutturate in modo da prevenire la formazione di una stratificazione cognitiva tra soggetti con accesso alle neurotecnologie di qualità superiore e soggetti esclusi o serviti da dispositivi con tassi di errore superiori.
Neuro-capitalismo, sorveglianza cognitiva e democrazia
La categoria di neuro-capitalismo (intesa come la tendenza del capitalismo avanzato a colonizzare la sfera cognitiva come spazio di valorizzazione economica) consente di leggere il fenomeno neurotecnologico non come sviluppo isolato, ma come tappa di una traiettoria strutturale. Se il capitalismo industriale si è appropriato del lavoro corporeo del soggetto e il capitalismo informazionale si è appropriato dei dati comportamentali, denominati da Shoshana Zuboff surplus comportamentale, il neuro-capitalismo si appropria del substrato neurale del pensiero come ultima risorsa da estrarre, elaborare e valorizzare. Il modello di business implicito nelle neurotecnologie commerciali (acquisizione di dati neurali, costruzione di profili cognitivi, utilizzo dei profili per targeting pubblicitario o per influenzare le preferenze del soggetto) trasferisce la logica del capitalismo della sorveglianza dal piano comportamentale al piano neurologico.
Meta Platforms ha dichiarato pubblicamente l’obiettivo di sviluppare interfacce neurali capaci di leggere le intenzioni dell’utente per migliorare l’esperienza nei propri ambienti immersivi. I termini contrattuali dei dispositivi neurotecnologici commerciali includono, come documentato da ricerche empiriche condotte da Ienca e Andorno, clausole di proprietà sui dati neurali raccolti che sarebbero nulle ove si riconoscesse il principio della non-commerciabilità strutturale argomentato prima. La tensione tra il modello di business neuro-capitalista e la tutela della sovranità cognitiva del soggetto è strutturale, infatti, si tratta di una incompatibilità tra la logica estrattiva del settore e i diritti fondamentali in gioco.
La sorveglianza cognitiva come rischio democratico
La sorveglianza cognitiva, intesa come la capacità di attori statali o corporativi di monitorare sistematicamente i processi cognitivi di individui o gruppi, costituisce una minaccia di ordine diverso rispetto a tutte le forme di sorveglianza precedentemente conosciute. La democrazia liberale si fonda sull’esistenza di una sfera di deliberazione interiore protetta: la segretezza del voto, la tutela della libertà di pensiero, la protezione delle comunicazioni private sono espressioni istituzionali di un principio più profondo, che è la separazione tra il foro interno del soggetto e lo spazio pubblico del controllo. Un regime capace di accedere ai processi cognitivi dei propri cittadini prima che questi si traducano in azione potrebbe identificare il dissenso nella sua fase di formazione, prevenire l’organizzazione politica prima che diventi visibile ed influenzare la formazione dell’opinione pubblica a livello neurologico anziché attraverso la propaganda.6
Questo scenario non è relegato alla speculazione, si veda come la Repubblica Popolare Cinese ha implementato sistemi di monitoraggio EEG nei luoghi di lavoro con la dichiarata finalità di rilevare stati di insoddisfazione e fatica nei lavoratori; la distanza tra questa applicazione e quella politica della sorveglianza cognitiva è una questione di volontà politica, non di fattibilità tecnica. La costruzione di un diritto internazionale della privacy cognitiva che vincoli anche gli ordinamenti che non hanno sottoscritto le convenzioni europee in materia è, in questa prospettiva, una priorità che supera le categorie del diritto della tecnologia e si inscrive nel diritto internazionale dei diritti umani.
Principi di governance dei neurodiritti e delle neurotecnologie
La tensione tra le promesse terapeutiche delle neurotecnologie (reali, documentate e capaci di migliorare in modo significativo la qualità della vita di pazienti affetti da patologie neurodegenerative, epilessia, depressione resistente, danni da ictus) e i rischi di sorveglianza cognitiva e appropriazione estrattiva della cognizione umana non si risolve né con il rifiuto delle tecnologie né con la loro accettazione acritica. Il diritto è chiamato a svolgere una funzione costitutiva, deve progettare le condizioni istituzionali entro cui le neurotecnologie possano svilupparsi in modo compatibile con la dignità umana. Si propongono cinque principi di governance, elaborati sulla base dell’analisi svolta, come contributo a una discussione che rimane aperta.
Il principio di inviolabilità della sfera mentale
I processi cognitivi, emotivi e volitivi del soggetto, nella misura in cui non si siano ancora tradotti in azioni esternalizzate nel mondo, godono di una protezione tendenzialmente assoluta, derogabile esclusivamente in presenza di finalità terapeutiche dirette al beneficio del soggetto, con consenso informato specifico, tecnicamente verificabile e revocabile in qualsiasi momento, e nel rispetto di standard tecnici obbligatori di minimizzazione del dato acquisito. Da questo principio discende il divieto di qualsiasi forma di sorveglianza cognitiva sistematica da parte di attori statali o privati, nonché il divieto di utilizzo di dati neurali – diretti e inferenziali – per finalità di profilazione comportamentale o di marketing.
Il principio di sovranità cognitiva
Il soggetto è titolare di piena sovranità sui propri processi cognitivi e sui dati neurali che ne costituiscono il substrato, sovranità che non può essere alienata mediante contratti di adesione, condizioni generali di servizio o clausole di accettazione incorporate nel processo di attivazione del dispositivo. La non-commerciabilità dei dati neurali relativi al contenuto del pensiero è un corollario di questo principio: le clausole contrattuali che ne prevedono il trasferimento a soggetti terzi sono nulle per contrarietà all’ordine pubblico di protezione. La sovranità cognitiva comprende, altresì, il diritto alla portabilità dei dati neurali in formato interoperabile e il diritto alla cancellazione definitiva e tecnicamente verificabile di tutti i dati detenuti dall’operatore del dispositivo.
Il principio di precauzione neurotecnologica
In presenza di incertezza scientifica documentata sugli effetti a lungo termine di una neurotecnologia sulla personalità, sull’identità cognitiva o sull’autonomia decisionale del soggetto, l’autorizzazione alla commercializzazione del dispositivo deve essere subordinata a studi longitudinali di durata adeguata condotti in modo indipendente dal produttore, con monitoraggio degli effetti sull’identità del soggetto che includa strumenti di valutazione neuropsicologica e indicatori di continuità narrativa. L’applicazione di questo principio richiede l’ampliamento delle competenze delle agenzie regolatorie nazionali ed europee, con la partecipazione obbligatoria di esperti di filosofia della mente, etica e neuropsicologia clinica nei comitati scientifici che valutano l’autorizzazione dei dispositivi.
Il principio di giustizia neurotecnologica
I benefici delle neurotecnologie devono essere distribuiti in modo equo, senza discriminazioni basate su caratteristiche demografiche, economiche o culturali; gli algoritmi di decodifica neurale devono essere sviluppati e validati su dataset demograficamente rappresentativi, con documentazione obbligatoria delle prestazioni per sottogruppi; l’accesso alle terapie neurotecnologiche deve essere garantito attraverso meccanismi di welfare che impediscano la formazione di una stratificazione cognitiva tra soggetti con accesso alle tecnologie di qualità superiore e soggetti esclusi o serviti da dispositivi con prestazioni sistematicamente inferiori.
Il principio di trasparenza algoritmica neurale
I soggetti sottoposti a trattamenti neurotecnologici che includono componenti algoritmiche di decodifica o di stimolazione hanno diritto a ricevere, in forma comprensibile, spiegazioni circa il funzionamento dell’algoritmo impiegato, i dati utilizzati per il suo addestramento, le sue prestazioni documentate per diversi sottogruppi demografici e la logica delle decisioni che esso informa o realizza. Questo principio estende e adatta alla specificità neurotecnologica il diritto alla spiegazione delle decisioni automatizzate di cui all’articolo 22 GDPR, introducendo l’obbligo — attualmente assente dalla legislazione europea — di fornire informazioni non solo sulla singola decisione, ma anche sulla forma e sulle prestazioni comparative del sistema.
Conclusioni sui neurodiritti e sulle questioni aperte
L’analisi sviluppata in questo articolo ha articolato e difeso quattro tesi principali, che vale la pena richiamare esplicitamente prima di valutarne la tenuta e segnalare le questioni che rimangono aperte.
La prima tesi è che la privacy mentale costituisca un diritto fondamentale autonomo, non derivato per estensione dalla privacy informazionale e distinto da essa per tre caratteri strutturali: l’assolutezza relativa della protezione, la temporalità anticipata dell’operatività della tutela rispetto all’esternalizzazione del dato e la non-commerciabilità del dato neurale come corollario della dignità umana come valore extra-commercium. Questa tesi è filosoficamente difendibile sulla base della tradizione europea della dignità umana come valore assoluto, ed è giuridicamente praticabile come dimostrato dal modello cileno. La sua principale zona di tensione riguarda la definizione del confine tra dati neurali relativi al “contenuto del pensiero”, per i quali si sostiene la protezione tendenzialmente assoluta, e dati neurali relativi a funzioni fisiologiche misurabili, per i quali un bilanciamento con altri interessi costituzionali appare ancora sostenibile.
La seconda tesi è che la tutela dei dati neurali inferenziali, acquisiti senza contatto neurologico diretto, attraverso l’inferenza algoritmica da dati biometrici, sia altrettanto urgente di quella dei dati acquisiti mediante BCI e che la sua assenza dal diritto vigente costituisca una lacuna strutturale che non è colmabile per via interpretativa. La forza di questa tesi riposa sulla constatazione empirica che la sorveglianza cognitiva senza impianti è già operativa su larga scala. La sua principale zona di debolezza risiede nella difficoltà di tracciare un confine normativo tra dati biometrici usati per inferire stati cognitivi e dati biometrici usati per altri fini; una distinzione che dipende dall’intenzione del titolare del trattamento e che risulta difficile da verificare ex ante.
La terza tesi è che il consenso informato in presenza di alterazione cognitiva indotta dalla terapia neurotecnologica richieda una dottrina specifica della continuità volitiva, distinta dalla dottrina della competence sviluppata per il consenso medico ordinario. Lo strumento della direttiva anticipata neurotecnologica è proposto come risposta parziale a questo problema. La tenuta di questa tesi è condizionata dalla soluzione di un problema empirico ancora aperto: la misurazione della continuità identitaria nel tempo in soggetti sottoposti a DBS o a BCI a lungo termine richiede strumenti neuropsicologici e filosofici che la ricerca non ha ancora consolidato.
La quarta tesi è che i bias algoritmici negli algoritmi di decodifica neurale producano una forma di disuguaglianza neurocognitiva strutturale che le categorie esistenti della non discriminazione non sono in grado di intercettare adeguatamente e che la risposta normativa richieda il concetto autonomo di giustizia algoritmica neurale, tradotto in obblighi giuridici concreti attraverso i tre principi descritti supra. Questa tesi è sostenuta da evidenza empirica documentata. La sua zona di tensione risiede nella definizione degli obblighi di rappresentatività dei dataset: stabilire quali caratteristiche demografiche debbano essere rappresentate, in quale proporzione e con quale metodo di verifica, richiede scelte normative che implicano assunzioni non neutrali sulla rilevanza delle differenze tra gruppi.
Tre questioni rimangono aperte e meritano trattazione in contributi specifici. La prima è quella dell’applicabilità della categoria del neuro-capitalismo estrattivo al di fuori dei contesti in cui il soggetto usa il dispositivo volontariamente: la sorveglianza cognitiva in contesti lavorativi coattivi, in contesti detentivi o in contesti di minori di età pone problemi addizionali che il presente articolo non ha affrontato sistematicamente. La seconda è quella del diritto internazionale della privacy cognitiva: la costruzione di vincoli giuridici efficaci nei confronti di ordinamenti che non hanno sottoscritto le convenzioni europee in materia – e che già impiegano sistemi di sorveglianza cognitiva su lavoratori e cittadini – richiede strumenti di diritto internazionale pubblico e di diritto del commercio internazionale che eccedono l’ambito di questo articolo. La terza è quella dell’imputabilità penale in presenza di BCI compromesse: la dogmatica penalistica non ha ancora elaborato strumenti adeguati per trattare il caso in cui l’azione dell’agente sia stata orientata da un dispositivo che ha subito un attacco informatico e il rimando alla responsabilità civile del produttore non esaurisce le esigenze di giustizia penale.
Si badi che l’ordinamento giuridico che non affronta queste questioni non rimane neutrale poiché lascia che le risposte vengano fornite, per via di fatto, dai contratti di adesione delle piattaforme neurotecnologiche e dalle politiche interne delle società che sviluppano questi dispositivi. Questa non è una opzione accettabile in un sistema fondato sulla dignità della persona come valore giuridico primario.
Note
- Grand View Research, Neurotechnology Market Size, Share & Trends Analysis Report, 2023. I dati di mercato sono soggetti a revisione rapida; si raccomanda verifica all’atto della pubblicazione.
- AI Act (Reg. (UE) 2024/1689): l’art. 5 stabilisce divieti assoluti per le pratiche di manipolazione subliminale e sfruttamento delle vulnerabilità psicologiche; l’art. 6 e l’Allegato III disciplinano i sistemi ad alto rischio ammessi ma soggetti a obblighi stringenti di conformità. La distinzione è sistematicamente rilevante: le neurotecnologie con funzione manipolatoria ricadono nel divieto assoluto, non nella categoria di alto rischio.
- Cfr. Ekman, P., Friesen, W.V., ‘Detecting deception from the body or face’, Journal of Personality and Social Psychology, 1974; Tzirakis, P. et al., ‘End-to-end multimodal emotion recognition using deep neural networks’, IEEE Journal of Selected Topics in Signal Processing, 2017. Sull’affidabilità effettiva degli algoritmi di emotion recognition e sulle sue varianze culturali si veda in senso critico: Barrett, L.F., Adolphs, R., Marsella, S. et al., ‘Emotional Expressions Reconsidered: Challenges to Inferring Emotion From Human Facial Movements’, Psychological Science in the Public Interest, 2019, vol. 20, n. 1, pp. 1-68. Come si argomenta nel testo, la limitata affidabilità di questi sistemi non attenua le preoccupazioni giuridiche: le amplifica, poiché un sistema impiegato in contesti con ricadute giuridiche rilevanti con un tasso di errore strutturalmente elevato e non dichiarato produce un danno proporzionale alla fiducia istituzionale che gli viene accordata.
- Il problema è stato parzialmente tematizzato in: Glannon, W., ‘Neuromodulation, Agency and Autonomy’, Brain Topography, 2014, vol. 27, n. 1, pp. 46-54; Lipsman, N., Glannon, W., ‘Brain, mind and machine: what are the implications of deep brain stimulation for perceptions of personal identity, agency and free will?’, Bioethics, 2013, vol. 27, n. 9, pp. 485-494. La questione della validità del consenso nella DBS a lungo termine rimane aperta nella letteratura di neuroetica clinica.
- Per l’applicazione del compatibilismo alla responsabilità giuridica in contesti neurotecnologici: Morse, S.J., ‘New neuroscience, old problems: Legal implications of brain science’, Cerebrum, 2004. Per la dimensione procedurale della libertà cognitiva: Frankfurt, H., ‘Freedom of the Will and the Concept of a Person’, Journal of Philosophy, 1971, vol. 68, n. 1, pp. 5-20.
- Sul monitoraggio EEG in contesti lavorativi: Jing-Jing Li et al., ‘Using EEG to Monitor Workers’ Mental Fatigue in Manufacturing Industry’, Journal of Healthcare Engineering, 2018. Sull’uso delle neurotecnologie in contesti di sicurezza nazionale e diritto bellico — tema che richiede trattazione autonoma — si segnalano: Tennison, M.N., Moreno, J.D., ‘Neuroscience, Ethics, and National Security: The State of the Art’, PLOS Biology, 2012, vol. 10, n. 3; Lin, P. et al., ‘Enhanced Warfighters: Risk, Ethics, and Policy’, The Greenwall Foundation, 2013. L’eventuale sviluppo di una neuro-corsa agli armamenti, con impiego di BCI per il potenziamento cognitivo dei combattenti o per l’estrazione coattiva di informazioni, interseca il diritto internazionale umanitario, la Convenzione ONU contro la tortura e i Protocolli di Ginevra in termini che richiedono un contributo dedicato.
- I principi enunciati sono parte di una ricerca più ampia, in corso di pubblicazione.
Riferimenti bibliografici
Dworkin, R., Life’s dominion: an argument about abortion, euthanasia, and individual freedom, Knopf, New York, 1993.
Barrett, L.F., Adolphs, R., Marsella, S. et al., Emotional expressions reconsidered: challenges to inferring emotion from human facial movements, Psychological Science in the Public Interest, 2019, vol. 20, n. 1, pp. 1-68.
Ekman, P., Friesen, W.V., Detecting deception from the body or face, Journal of Personality and Social Psychology, 1974, vol. 29, n. 3, pp. 288-298.
Farahany, N.A., The battle for your brain: defending the right to think freely in the age of neurotechnology, St. Martin’s Press, New York, 2023.
Frankfurt, H., Freedom of the will and the concept of a person, Journal of Philosophy, 1971, vol. 68, n. 1, pp. 5-20.
Glannon, W., Neuromodulation, agency and autonomy, Brain Topography, 2014, vol. 27, n. 1, pp. 46-54.
Grisso, T., Appelbaum, P.S., Assessing competence to consent to treatment: a guide for physicians and other health professionals, Oxford University Press, New York, 1998.
Ienca, M., Andorno, R., Towards New Human Rights in the Neuroscience Age, Life Sciences, Society and Policy, 2017, vol. 13, art. 5.
Lipsman, N., Glannon, W., Brain, mind and machine: what are the implications of deep brain stimulation for perceptions of personal identity, agency and free will?, Bioethics, 2013, vol. 27, n. 9, pp. 485-494.
Morse, S.J., «New neuroscience, old problems: legal implications of brain science», Cerebrum, 2004.
Nissenbaum, H., Privacy in context: technology, policy, and the integrity of social life, Stanford University Press, Stanford, 2010.
Parfit, D., Reasons and Persons, Oxford University Press, Oxford, 1984.
Ricoeur, P., Soi-même comme un autre, Éditions du Seuil, Paris, 1990.
Sententia, W., Neuroethical considerations: cognitive liberty and converging technologies for improving human cognition, Annals of the New York Academy of Sciences, 2004, vol. 1013, pp. 221-228.
Solove, D.J., Understanding Privacy, Harvard University Press, Cambridge, 2008.
Soon, C.S. et al., Unconscious determinants of free decisions in the human brain, Nature Neuroscience, 2008, vol. 11, n. 5, pp. 543-545.
Tennison, M.N., Moreno, J.D., Neuroscience, ethics, and national security: the state of the art, PLOS Biology, 2012, vol. 10, n. 3.
Warren, S.D., Brandeis, L.D., The right to privacy, Harvard Law Review, 1890, vol. 4, n. 5, pp. 193-220.
Westin, A.F., Privacy and Freedom, Atheneum, New York, 1967.
Yuste, R., Goering, S. et al., Four ethical priorities for neurotechnologies and AI, Nature, 2017, vol. 551, pp. 159-163.
Zuboff, S., The age of surveillance capitalism: the fight for a human future at the new frontier of power, PublicAffairs, New York, 2019.













