Le neurotecnologie militari stanno trasformando il rapporto tra combattente, macchina e responsabilità giuridica. Le BCI applicate alla guerra sollevano questioni inedite per il diritto internazionale umanitario, la Convenzione contro la tortura e la governance della sicurezza globale.
Indice degli argomenti
Il problema e la sua collocazione nel dibattito internazionale
Il 21 agosto 2025 il blog istituzionale del Comitato Internazionale della Croce Rossa (CICR) ha pubblicato un contributo intitolato Warfare at the Speed of Thought: Can Brain-Computer Interfaces Comply with IHL?, in cui si afferma che l’integrazione del cervello umano con tecnologie militari, inclusi sistemi d’arma, posiziona le BCI come un nuovo mezzo di conduzione delle ostilità e richiede un’analisi più approfondita alla luce del diritto internazionale umanitario e del diritto internazionale dei diritti umani[1]. È un’affermazione di per sé significativa, proveniente dall’organo custode delle Convenzioni di Ginevra, che segnala che la questione non appartiene più al dominio speculativo della filosofia del diritto, ma interpella in modo urgente l’ordinamento internazionale esistente.
L’urgenza è ben evidenziata anche dal fatto che nel 2024 la DARPA (Defense Advanced Research Projects Agency) ha confermato il proseguimento del programma N3 (Next-Generation Nonsurgical Neurotechnology), avviato nel 2018 con l’obiettivo dichiarato di sviluppare interfacce cervello-macchina ad alte prestazioni, bidirezionali e non chirurgiche, destinate a combattenti in piena salute fisica, per applicazioni che includono il controllo mentale di veicoli aerei senza pilota, sistemi di difesa cibernetica e gestione simultanea di missioni complesse[2]. Nello stesso anno, Neuralink ha impiantato il suo dispositivo Telepathy nei primi soggetti umani, dimostrando il controllo di sistemi digitali attraverso il pensiero[3], mentre la Repubblica Popolare Cinese ha istituzionalizzato nel China Brain Project (2016–2030) una strategia di sviluppo duale, civile e militare, delle BCI, in coerenza con la dottrina della military-civil fusion che guida il potenziamento tecnologico dell’Esercito Popolare di Liberazione (EPL)[4].
Nei teatri di conflitto aperti — la guerra in Ucraina e il conflitto a Gaza — le neurotecnologie propriamente dette non risultano ancora documentate come strumenti operativi diretti al momento della stesura del presente contributo. Tuttavia, i conflitti in corso forniscono un contesto rilevante sotto almeno due profili. Il primo riguarda l’accelerazione dell’integrazione uomo-macchina: l’impiego intensivo di droni, sistemi di targeting assistito dall’intelligenza artificiale e piattaforme di sorveglianza autonoma ha reso la velocità decisionale un parametro critico della sopravvivenza in combattimento, alimentando la domanda militare per tecnologie che riducano la latenza tra percezione e azione[5]. Il secondo profilo concerne la questione dei potenziamenti farmacologici: un rapporto del marzo 2025 del Global Initiative Against Transnational Organised Crime ha documentato l’uso diffuso di stimolanti sintetici tra i soldati ucraini, in contesti nei quali il confine tra automedicazione per il PTSD e potenziamento cognitivo indotto dall’istituzione militare è strutturalmente ambiguo[6]. Questo elemento, pur non riguardando le BCI in senso stretto, è pertinente all’analisi giuridica perché solleva le stesse questioni di consenso, integrità neurale e responsabilità della catena di comando che le neurotecnologie pongono in forma più acuta.
L’analisi che segue è articolata in cinque sezioni. Le prime due ricostruiscono lo stato della tecnologia nei suoi risvolti militari più rilevanti. Le tre successive esaminano, rispettivamente, le implicazioni per il DIU nella dimensione del potenziamento e della condotta delle ostilità, le implicazioni per la CAT nella dimensione dell’interrogatorio coattivo e la questione della neuro-corsa agli armamenti come problema strutturale di governance internazionale.
Anatomia della tecnologia
Prima di procedere all’analisi giuridica, è necessario distinguere con precisione le categorie tecnologiche in gioco, poiché le implicazioni normative variano significativamente a seconda del tipo e della modalità di funzionamento del dispositivo.
Le BCI si classificano secondo due assi principali: l’invasività dell’interfaccia e la direzione del flusso di informazioni. Sotto il primo profilo, si distinguono dispositivi invasivi (con elettrodi impiantati chirurgicamente nel tessuto cerebrale, come il dispositivo Neuralink), semi-invasivi (posizionati sulla superficie corticale senza penetrazione del parenchima) e non invasivi (indossabili esterni, come i sistemi EEG o a stimolazione magnetica transcranica). Il programma N3 della DARPA persegue specificamente interfacce non invasive ad alte prestazioni, con l’obiettivo di rendere la tecnologia accessibile alla popolazione militare in servizio senza richiedere procedure chirurgiche[7].
Sotto il secondo profilo si distinguono BCI afferenti che leggono segnali neurali e li traducono in comandi per sistemi esterni (read-only), BCI efferenti che trasmettono segnali al cervello influenzandone l’attività (write-only) e BCI bidirezionali che integrano entrambe le funzioni. Le implicazioni giuridiche differiscono in modo rilevante: una BCI afferente che consente a un soldato di controllare uno sciame di droni con il pensiero pone principalmente questioni di responsabilità e di meaningful human control nel targeting; una BCI efferente che trasmette segnali di stimolazione al cervello del combattente (sopprimendo la risposta di paura, aumentando la soglia dell’attenzione, alterando stati emotivi) pone questioni di integrità neurale e di consenso informato; una BCI bidirezionale pone entrambi gli ordini di questioni in modo inscindibile.
Interessante è lo studio del 2020 della RAND Corporation sulle applicazioni militari delle BCI negli Stati Uniti il quale ha identificato quattro aree di impiego prioritario: potenziamento sensoriale e della consapevolezza situazionale, controllo di sistemi d’arma, comunicazione uomo-macchina accelerata e monitoraggio dello stato cognitivo del combattente[8]. L’EPL, secondo il rapporto del Dipartimento della Difesa americano relativo al 2024, sta esplorando un insieme di capacità di neurocognitive warfare che includono il potenziamento dell’agilità mentale dei combattenti e la degradazione cognitiva degli avversari mediante tecnologie di interferenza neurale[9]. Queste ultime, le cosiddette neuroweapons offensive, includono lo spettro delle armi acustiche a infrasuono, dei campi elettromagnetici diretti e delle sostanze neurochimiche, tecnologie che il PLA avrebbe sviluppato secondo fonti governative americane, sebbene la documentazione pubblica su questo punto resti parziale e vada trattata con cautela metodologica[10].
Potenziamento del combattente e diritto internazionale umanitario
Il DIU impone agli Stati l’obbligo di esaminare la liceità di ogni nuovo mezzo o metodo di guerra prima della sua adozione, ai sensi dell’articolo 36 del Primo Protocollo Aggiuntivo alle Convenzioni di Ginevra (PAI).
La revisione delle armi e il problema dell’agente aumentato
La disposizione è formulata in termini di nuove armi, nuovi mezzi o metodi di guerra: la questione preliminare è, dunque, se una BCI impiantata o indossata da un combattente costituisca un’arma o un mezzo di guerra soggetto a revisione o se si tratti invece di un equipaggiamento del combattente che non rientra nell’ambito applicativo dell’articolo 36.
Denise Koecke, in un contributo apparso sull’International Review of the Red Cross nel 2025, ha sostenuto che la configurazione in cui il combattente controlla sistemi d’arma attraverso la BCI con modalità reattive, cioè senza deliberazione consapevole interponibile tra il segnale neurale e l’esecuzione del comando, trasforma l’uomo-macchina in un sistema d’arma unitario, rispetto al quale la distinzione tra l’arma e l’operatore perde consistenza concettuale[11]. Se la BCI reattiva elimina l’intervallo deliberativo tra intenzione e azione, il soldato non usa l’arma nel senso ordinario, ma diviene il vettore di un sistema la cui risposta è determinata dalla decodifica algoritmica dei suoi segnali neurali. Koecke conclude che le BCI reattive violano il principio del meaningful human control, mutuato dal dibattito sui sistemi d’arma letali autonomi (LAWS) e sono, pertanto, illecite ai sensi dell’articolo 36 PAI.
L’argomento merita una valutazione critica attenta. Il concetto di meaningful human control è emerso nel dibattito sulle LAWS come criterio per distinguere i sistemi che mantengono un giudizio umano effettivo nella selezione e nell’attacco di obiettivi da quelli che lo eliminano[12]. Applicarlo alle BCI richiede, tuttavia, una precisazione ovvero che il controllo esercitato da un soldato aumentato non è eliminato, ma trasformato. La domanda giuridicamente rilevante non è se esista un essere umano nella catena di comando, bensì se quell’essere umano eserciti ancora un giudizio autonomo nel senso richiesto dai principi di distinzione e proporzionalità. Quando la BCI decodifica segnali neurali pre-intenzionali (come nei sistemi che anticipano l’intenzione di movimento con latenze inferiori ai cento millisecondi) il controllo dell’operatore precede la sua stessa consapevolezza dell’intenzione, il che rende problematica l’attribuzione di responsabilità nelle forme ordinarie.
Il principio di distinzione e il combattente come piattaforma
L’articolo 48 PAI sancisce il principio di distinzione tra combattenti e civili come fondamento del DIU. Ora, la questione che le BCI militari pongono rispetto a questo principio opera su due livelli.
Il primo livello riguarda la protezione del combattente aumentato. Il blog del CICR del 2025 osserva che l’integrazione bidirezionale tra cervello e sistemi militari rischia di riconfigurare il combattente come componente di un sistema d’arma, come arma in sé, o (nell’ipotesi più problematica) come piattaforma biologica per la conduzione delle ostilità[13]. Se il combattente è ridefinito come piattaforma d’arma, le regole che lo proteggono hors de combat – cioè fuori combattimento per ferite, malattia o resa – entrano in tensione con quelle che regolano la distruzione di sistemi d’arma avversari. Un combattente con una BCI invasiva che ne integra le funzioni cognitive con un sistema d’arma autonomo può essere considerato, dalla parte avversaria, ancora protetto dalle Convenzioni di Ginevra quando perde la capacità di combattere o la neutralizzazione del sistema richiede la neutralizzazione della BCI che è fisicamente nel suo cervello? Il DIU non offre una risposta perché non ha concettualizzato questa fattispecie.
Il secondo livello riguarda la degenerazione delle capacità di distinzione nel combattente aumentato. Il CICR ha segnalato che la manipolazione farmacologica e tecnologica dell’empatia e dei freni inibitori cognitivi, funzioni che presiedono alla capacità del soldato di percepire la distinzione tra combattente e civile come moralmente rilevante, può compromettere il rispetto del principio di distinzione non per dolo, ma per alterazione strutturale del substrato neurologico del giudizio morale[14]. Questa osservazione ha una base nelle neuroscienze cognitive: la capacità di discriminare moralmente tra categorie di persone è mediata da circuiti prefrontali e limbici che sono precisamente le aree bersaglio dei potenziamenti cognitivi militari più avanzati.
Ciò comporta che la metamorfosi del soldato in una vera e propria piattaforma biologica impone al diritto internazionale umanitario una riflessione radicale sullo statuto del combattente fuori combattimento. La tradizionale dicotomia tra l’operatore umano e il mezzo bellico si dissolve nel momento in cui un’interfaccia bidirezionale continua a trasmettere dati tattici o a coordinare sistemi autonomi indipendentemente dalla volontà cosciente del soggetto, magari rimasto ferito o reso incosciente. In questo scenario, la persistenza di una funzionalità ostile automatizzata trasforma il corpo del soldato in un obiettivo militare ancora legittimo, costringendo l’avversario a una neutralizzazione che colpisca il supporto tecnologico integrato nel cervello, con conseguenze letali inevitabili per l’organismo ospite. Risolvere tale dilemma richiede la codificazione di uno statuto del combattente aumentato che riconosca la causalità distribuita tra uomo e macchina, stabilendo nuovi criteri di proporzionalità che proteggano l’agentività morale dell’individuo, senza ignorare la minaccia rappresentata da un sistema d’arma che non cessa di operare con la caduta del suo vettore biologico.
La proporzionalità e il problema della responsabilità diffusa
Il principio di proporzionalità (che vieta attacchi i cui danni incidentali ai civili sarebbero eccessivi rispetto al vantaggio militare concreto e diretto atteso) richiede una valutazione soggettiva da parte del comandante militare responsabile. Quando quella valutazione è assistita da sistemi di intelligenza artificiale integrati via BCI con il processo cognitivo del comandante, ci si chiede chi sia il responsabile dell’errore nella valutazione di proporzionalità tra il comandante umano, il sistema algoritmico o il produttore della BCI che ha progettato l’integrazione.
La questione della responsabilità diffusa nei sistemi uomo-macchina integrati non è nuova nel dibattito sulle LAWS, ma le BCI la pongono in forma più acuta perché eliminano la distinzione fisica tra l’operatore e il sistema. Lubell e Al-Khateeb, in un contributo del 2024 nella collana Lieber Studies di Oxford, hanno osservato che l’integrazione BCI-AI nel targeting militare abilita un flusso bidirezionale di dati tra cervello umano e sistema informatico che, nella migliore delle ipotesi, aumenta la consapevolezza situazionale del soldato e migliora la discriminazione degli obiettivi, ma che, nella peggiore, produce una contaminazione algoritmica del giudizio umano che non è tracciabile né attribuibile con gli strumenti ordinari del diritto della responsabilità[15].
Definizione di tortura e il requisito del dolore o della sofferenza grave
L’articolo 1 della Convenzione delle Nazioni Unite contro la tortura (CAT), adottata dall’Assemblea Generale il 10 dicembre 1984 ed entrata in vigore il 26 giugno 1987, definisce la tortura come qualsiasi atto mediante il quale sono intenzionalmente inflitti a una persona dolore o sofferenze acute, fisiche o mentali, al fine, tra l’altro, di ottenere da essa informazioni o confessioni.
Il requisito della gravità del dolore o della sofferenza è stato interpretato in senso estensivo dal Comitato contro la tortura e dalla giurisprudenza del Tribunale Penale Internazionale per la ex Jugoslavia: la sofferenza mentale grave costituisce tortura indipendentemente dall’assenza di lesioni fisiche ed il carattere acuto va valutato in relazione alla vulnerabilità della vittima e alla sistematicità della condotta[16].
L’applicazione di questa definizione alle neurotecnologie impiegate per l’estrazione coattiva di informazioni solleva questioni che la dottrina non ha ancora affrontato in modo sistematico. Si distinguono almeno tre scenari tecnici, con implicazioni giuridiche differenziate.
Il primo scenario è quello dell’impiego di BCI afferenti per la decodifica non consensuale di segnali neurali: tecnologie che leggono l’attività cerebrale del soggetto detenuto per inferirne stati cognitivi, ricordi o intenzioni, senza che il soggetto sia consapevole della lettura o possa opporsi ad essa. In questo scenario non è richiesta la produzione di dolore nel senso ordinario poiché la violazione opera sul piano dell’integrità mentale e della privacy neurale. La questione è se questa condotta integri tortura ai sensi dell’articolo 1 CAT o trattamento inumano e degradante ai sensi dell’articolo 16 o nessuno dei due, nel qual caso la lacuna normativa è manifesta.
Il secondo scenario è quello dell’impiego di BCI efferenti per la stimolazione cerebrale coattiva finalizzata all’indebolimento delle resistenze cognitive del soggetto; tali sono le tecnologie che trasmettono segnali al cervello per alterare stati emotivi, ridurre la coerenza del pensiero o indurre stati dissociativi favorevoli all’interrogatorio. Questo scenario è più chiaramente assimilabile alla tortura psicologica, ma la sua qualificazione dipende dall’intensità e dalla durata degli effetti, elementi che la tecnologia rende difficilmente standardizzabili.
Il terzo scenario, il più speculativo ma non privo di fondamento scientifico, è quello dell’impiego di tecnologie di imaging neurale avanzato per la lettura di contenuti mentali specifici, come memorie, conoscenze dichiarative o associazioni semantiche. La ricerca in questo ambito è ancora lontana da applicazioni operative, ma la direzione del progresso scientifico rende questo scenario sufficientemente plausibile da meritare anticipazione normativa.
Da ciò si inferisce che, nel contesto della Convenzione contro la tortura, emerge la necessità di una rilettura evolutiva dell’elemento soggettivo, poiché il requisito dell’intenzionalità nell’infliggere sofferenze appare oggi inadeguato a governare l’impiego di sistemi neurotecnologici complessi. Si deve, infatti, considerare come la manipolazione neurale per finalità estrattive possa produrre danni psichici devastanti non come fine diretto, ma come conseguenza di una colpa grave nella calibrazione algoritmica o di una sconsiderata accettazione del rischio biologico individuale. In tale prospettiva, l’utilizzo di una interfaccia cervello-computer di cui siano noti tassi di errore significativi o instabilità cliniche, pur in assenza di una specifica volontà di nuocere, dovrebbe integrare la fattispecie della tortura sotto il profilo del dolo eventuale, equiparando la violazione dei protocolli di sicurezza alla condotta dolosa tradizionale, onde evitare che l’opacità del sistema algoritmico diventi uno scudo per l’impunità istituzionale.
Il requisito dell’intenzione e il problema della responsabilità istituzionale
Inoltre, la definizione di tortura ai sensi dell’articolo 1 CAT richiede che il dolore o la sofferenza siano intenzionalmente inflitti, e che siano prodotti da o su istigazione di un pubblico ufficiale o altra persona che agisce a titolo ufficiale. Entrambi i requisiti presentano difficoltà applicative nel contesto delle neurotecnologie militari.
Quanto al requisito dell’intenzionalità, si osserva che i sistemi algoritmici integrati nelle BCI di interrogatorio possono produrre effetti non intenzionali sull’integrità neurale del soggetto, come conseguenza di calibrazioni imprecise o di interazioni non previste con le caratteristiche neurobiologiche individuali. La questione è se la prevedibilità oggettiva di tali effetti, indipendentemente dall’intenzione soggettiva dell’operatore, sia sufficiente a integrare il requisito della CAT o se sia necessaria un’intenzione specifica. La giurisprudenza del Comitato contro la tortura ha progressivamente esteso il requisito dell’intenzionalità fino a ricomprendere condotte che l’autore avrebbe dovuto sapere produttive di sofferenza grave, ma questa evoluzione non è stata formalizzata in modo univoco[17].
Quanto al requisito della titolarità ufficiale, il ricorso a soggetti privati per la gestione di neurotecnologie di interrogatorio — ipotesi non remota in un contesto di esternalizzazione delle funzioni di sicurezza — pone la questione della responsabilità statale per atti commessi da contraenti privati, già affrontata dalla giurisprudenza internazionale in relazione alle pratiche di interrogatorio post-11 settembre 2001.
Il divieto assoluto e il problema dell’eccezione di sicurezza nazionale
Il divieto di tortura è assoluto ai sensi del diritto internazionale consuetudinario e dello ius cogens e non ammette deroghe nemmeno in stato di guerra o emergenza nazionale. L’articolo 2, paragrafo 2, CAT è esplicito: nessuna circostanza eccezionale, qualunque essa sia, può essere invocata per giustificare la tortura.
Tuttavia, la storia giuridica recente ha mostrato che gli Stati invocano definizioni restrittive di tortura per sottrarre tecniche di coercizione cognitiva al divieto assoluto. I memos sulla tortura del Dipartimento di Giustizia americano degli anni 2002-2004, resi pubblici nel 2009, costituiscono il precedente più rilevante: ragionamenti analoghi potrebbero essere impiegati per sostenere che tecniche di interrogatorio neurotecnologico non producono dolore acuto nel senso richiesto dalla CAT o che la sofferenza mentale indotta non raggiunge la soglia della gravità richiesta.
Ebbene, la storia dell’elusione normativa attraverso la ridefinizione semantica delle condotte proibite impone di costruire una risposta giuridica che non lasci spazio a questa strategia interpretativa.
La neuro-corsa agli armamenti: perché è un problema di governance internazionale?
La corsa agli armamenti neurotecnologici tra Stati Uniti e Repubblica Popolare Cinese presenta caratteristiche che la rendono strutturalmente diversa dalle precedenti competizioni tecnologiche militari. Kosal e Putney, in un contributo pubblicato su Politics and the Life Sciences nel 2023, hanno sviluppato il primo framework analitico sistematico per predire la diffusione delle BCI ai settori commerciale e militare nei due paesi, rilevando che la Cina, pur avendo avviato il suo programma di ricerca cerebrale più tardi e con finanziamenti inferiori, gode di vantaggi strutturali che rendono plausibile un’adozione militare anticipata: la coerenza strategica tra piano civile e militare garantita dalla military-civil fusion, i minori ostacoli socioculturali all’adozione di BCI invasive e la capacità istituzionale di trasferire rapidamente ricerca accademica in applicazioni operative[18].
Il rischio identificato da Kosal e Putney è quello del secondo adottante; la nazione che adotta le neurotecnologie militari più tardi perde la capacità di definire le norme etiche e giuridiche internazionali per il loro impiego nei contesti bellici. Questa osservazione rovescia la logica ordinaria della precauzione normativa poiché, nell’arena della competizione di sicurezza nazionale, il ritardo nella definizione degli standard non protegge, ma espone. Il risultato prevedibile è una situazione di race to the bottom normativo, in cui ciascuno Stato sviluppa e adotta neurotecnologie militari senza attendere il consolidamento di una cornice regolatoria internazionale, poiché il costo del ritardo è percepito come superiore al costo della violazione anticipata di norme non ancora esistenti.
Il rapporto 2024 del Dipartimento della Difesa americano sulla Cina documenta che i ricercatori dell’EPL hanno esaminato una serie di capacità di neurocognitive warfare che sfruttano avversari attraverso neuroscienze e psicologia e che la Cina Brain Project è esplicitamente orientata a sviluppare tecnologie a duplice uso, incluse BCI, che abilitino la transizione dalla informatizzazione all’intelligentizzazione delle forze armate[19].
Il protocollo IV del 1995 relativo alle armi laser accecanti e i precedenti di regolazione preventiva
Il Protocollo IV, allegato alla Convenzione del 1980 sull’uso di determinate armi convenzionali, ha vietato preventivamente i sistemi laser progettati specificamente per causare cecità permanente nei combattenti, prima che tali sistemi fossero effettivamente impiegati su scala operativa. Questo precedente è stato invocato come modello possibile per una regolazione preventiva delle neurotecnologie militari più pericolose[20].
Il blog del CICR del 2025 ha proposto un approccio analogo suggerendo che sia meglio non porre un divieto generale delle BCI militari (il che precluderebbe anche applicazioni potenzialmente benefiche, come il monitoraggio del sovraccarico cognitivo per migliorare l’affidabilità del giudizio umano), bensì divieti mirati su categorie specifiche di alto rischio, come le BCI invasive impiegate nel controllo diretto di sistemi d’arma letali o le BCI efferenti impiegate per sopprimere le inibizioni cognitive del combattente[21].
L’analogia con il Protocollo IV ha, tuttavia, limiti che occorre riconoscere esplicitamente. I sistemi laser accecanti avevano una funzione militare unica e identificabile; le neurotecnologie sono profondamente duali, nel senso che le medesime tecnologie che aumentano le capacità cognitive del combattente sono anche le tecnologie che trattano il PTSD, l’epilessia resistente ai farmaci e i disturbi motori. Un divieto o una restrizione che colpisca le BCI militari senza distinzioni rischia di interferire con applicazioni terapeutiche di valore indiscutibile e di suscitare una resistenza statale che renderebbe lo strumento inefficace. La specificità funzionale è, pertanto, il criterio regolatorio più promettente, ma anche il più difficile da eseguire e rendere operativo in assenza di un organismo tecnico-scientifico internazionale dedicato, dotato di competenza in neuroscienze oltre che in diritto internazionale.
Il vuoto normativo e le risposte istituzionali parziali
Nel maggio 2025, l’UNESCO ha adottato la Raccomandazione sull’etica delle neurotecnologie che interdice l’uso delle neurotecnologie in interrogatori illeciti e in pratiche di conformità comportamentale coercitiva, raccomanda trasparenza governativa e divulgazione pubblica, affronta questioni di privacy neurale e sicurezza informatica e si occupa esplicitamente del duplice uso della neurotecnologia nella ricerca[22]. Si tratta di uno strumento di soft law, privo di effetti vincolanti, ma significativo come primo riconoscimento istituzionale multilaterale della specificità del problema.
Ancora, l’UNHCR, nel marzo 2025, ha pubblicato una dichiarazione in cui un esperto ONU ha invocato la regolazione delle neurotecnologie per proteggere il diritto alla privacy, estendendo implicitamente il campo di applicazione del diritto alla privacy neurale ai contesti militari e di sicurezza nazionale[23]. Anche questa è soft law, ma segnala una tendenza convergente nella comunità internazionale verso il riconoscimento che il substrato neurologico della persona umana merita protezione giuridica specifica, distinta da quella garantita dalle norme generali sulla dignità e l’integrità fisica.
L’assenza di una norma vincolante dedicata è, però, il dato dominante. Né il DIU, né la CAT, né il diritto internazionale dei diritti umani sono stati aggiornati per recepire le specificità delle neurotecnologie militari. Il quadro normativo applicabile è quello dell’interpretazione estensiva di norme costruite per tecnologie radicalmente diverse, con tutti i rischi di sottoprotezione che questa operazione comporta.
Conclusioni
L’indagine condotta in queste pagine ha percorso un territorio in cui il diritto internazionale si trova, non per la prima volta nella sua storia, ad inseguire trasformazioni tecnologiche che alterano i presupposti stessi su cui le sue categorie fondamentali erano state costruite. La specificità di questa occasione rispetto ad analoghe crisi normative del passato (la bomba atomica, i sistemi d’arma autonomi, la guerra cibernetica) risiede nel fatto che le neurotecnologie militari non modificano soltanto i mezzi con cui la violenza è esercitata, ma incidono sulla struttura soggettiva dell’agente che la esercita. È una differenza che il diritto non può ignorare senza rinunciare alla propria coerenza interna.
Quanto al diritto internazionale umanitario, l’analisi ha mostrato che le lacune non sono riducibili a un difetto di copertura testuale colmabile per via interpretativa. Il problema è più profondo. L’intero impianto del DIU, dalla revisione delle armi ai principi di distinzione, proporzionalità e precauzione, fino alle protezioni dello statuto hors de combat, presuppone un soggetto combattente la cui identità è sufficientemente stabile da consentire l’attribuzione di atti, l’imputazione di responsabilità e la titolarità di protezioni. Le BCI bidirezionali, nelle configurazioni più avanzate che le traiettorie di sviluppo rendono plausibili nel medio termine, mettono in discussione ciascuna di queste presupposizioni. Se la deliberazione del combattente è mediata in tempo reale da algoritmi che decodificano segnali neurali pre-consapevoli, il momento in cui il diritto colloca l’intenzione giuridicamente rilevante (tra la percezione e l’azione) non corrisponde più a nessun punto identificabile nella catena causale fisico-computazionale. La categoria di meaningful human control, mutuata dal dibattito sulle LAWS e applicata alle BCI da una parte crescente della dottrina, cattura una dimensione del problema, ma non lo esaurisce, infatti nelle LAWS il problema è l’assenza dell’agente umano nella catena decisionale; nelle BCI il problema, ancora più insidioso, è la sua presenza deformata, nella quale l’uomo è, sì, materialmente presente, ma giuridicamente irriconoscibile nelle forme che il diritto aveva costruito per lui.
Quanto alla Convenzione contro la tortura, le lacune identificate hanno natura strutturale e non dipendono dall’evoluzione delle configurazioni tecnologiche specifiche. La definizione di tortura contenuta nell’articolo 1 CAT è costruita attorno a tre elementi -il dolore o la sofferenza acuta, l’intenzionalità dell’atto e la titolarità ufficiale dell’autore – ciascuno dei quali incontra difficoltà applicative che non si risolvono con l’interpretazione estensiva già percorsa dal Comitato contro la tortura nella sua prassi. La lettura neurale non consensuale viola l’integrità mentale senza produrre necessariamente dolore nel senso ordinario della CAT; la stimolazione cerebrale coattiva può produrre effetti che l’operatore non prevedeva e non intendeva, scardinando il requisito dell’intenzionalità nella forma in cui esso è stato progressivamente elaborato dalla giurisprudenza internazionale; il ricorso a contraenti privati per la gestione delle tecnologie di interrogatorio replica, in contesto neurotecnologico, la problematica già affrontata, con risultati insoddisfacenti, nella stagione post-11 settembre. A fronte di queste lacune, la storia dell’elusione normativa attraverso la ridefinizione semantica, di cui i memos sulla tortura del Dipartimento di Giustizia americano costituiscono il precedente più noto, ma non l’unico, impone che qualunque risposta normativa dedicata sia costruita in modo da chiudere preventivamente gli spazi retorici che quella strategia occupa. Un’integrazione della CAT che si limitasse ad estendere la nozione di sofferenza mentale grave senza affrontare il problema dell’intenzionalità e della titolarità sarebbe, in questo senso, insufficiente.
Quanto alla governance internazionale della neuro-corsa agli armamenti, la conclusione più scomoda a cui l’analisi conduce è che nessuno degli strumenti istituzionali attualmente disponibili è adeguato, nella sua forma attuale, al problema. Il modello del Protocollo IV (divieto preventivo, specifico, funzionalmente circoscritto) è il più promettente come ispirazione metodologica, ma la sua trasposizione alle neurotecnologie si scontra con la natura duale di queste ultime in modo più pungente di quanto non accadesse per i laser accecanti: una restrizione sulle BCI invasive impiegate per il controllo diretto di sistemi d’arma è formulabile con ragionevole precisione, mentre una restrizione sulle BCI efferenti impiegate per alterare lo stato cognitivo del combattente richiede una specificazione tecnica che nessun organismo internazionale attualmente possiede la competenza per elaborare. Il meccanismo, d’altra parte, ha già dimostrato i propri limiti strutturali nel confronto con i sistemi d’arma autonomi: undici anni di riunioni di esperti senza che uno strumento vincolante sia emerso non incoraggiano all’ottimismo.
Tre questioni rimangono aperte.
La prima concerne la soggettività giuridica del combattente aumentato, intesa come questione di teoria del diritto prima ancora che di diritto positivo. Se la causalità dell’atto bellico è distribuita tra un agente umano e un sistema computazionale integrato nel suo substrato neurale, i concetti di dolo e colpa elaborati dal diritto penale internazionale (che presuppongono una mente unitaria, deliberante, capace di formare intenzioni e di agire in conformità ad esse) perdono parte della loro operatività. Il diritto penale interno conosce già la figura dell’agente in stato di alterazione della capacità volitiva; il diritto penale internazionale la conosce in forma più embrionale, prevalentemente attraverso la categoria della coercizione. L’integrazione neurotecnologica produce uno stato di alterazione indotta che non è né la coercizione ordinaria né la piena autonomia, ma la costruzione di una categoria intermedia, che preservi la responsabilizzazione senza negare l’alterazione, è un lavoro che la dottrina ha appena iniziato.
La seconda questione aperta riguarda lo statuto internazionale dei neurodiritti. Il Cile è il primo ordinamento al mondo ad aver elevato a rango costituzionale la protezione dell’identità neurale e dell’integrità mentale contro le interferenze tecnologiche, attraverso la riforma costituzionale del 2021 che ha inserito nella Carta fondamentale il diritto alla «integrità e libertà psíquica». Se questa traiettoria si consolida in un numero significativo di ordinamenti nazionali, come suggerisce l’interesse parlamentare europeo manifestatosi nell’ambito del dibattito sull’AI Act, si apre la questione di come questi diritti si sedimentino nel diritto internazionale consuetudinario e se possano generare obblighi erga omnes vincolanti anche gli Stati che non vi abbiano aderito convenzionalmente. La risposta dipende dall’applicazione dei criteri di formazione della consuetudine internazionale alla prassi statale emergente in materia di neurotecnologie, un’area in cui la dottrina internazionalistica ha prodotto finora assai poco.
La terza questione è la più radicale, e conviene enunciarla senza attenuarla. Il diritto internazionale umanitario, come ogni ordinamento normativo, è una costruzione concettuale che riflette le presupposizioni antropologiche della cultura giuridica che lo ha prodotto. Tra queste presupposizioni, una è così fondamentale da non essere mai stata tematizzata come tale: l’esistenza di un soggetto umano la cui identità neurale è data, continua nel tempo e non artificialmente manipolabile dall’esterno. Le neurotecnologie militari destabilizzano questa presupposizione in modo più diretto di qualunque tecnologia precedente, perché agiscono sul substrato biologico da cui quella soggettività dipende.
Il diritto può rispondere a questa destabilizzazione attraverso l’interpretazione evolutiva delle norme esistenti, come ha fatto, con risultati parziali, rispetto all’intelligenza artificiale, oppure può riconoscere che alcune trasformazioni tecnologiche richiedono non un adattamento, ma una rifondazione concettuale. Quale delle due strade sia praticabile, e a quali condizioni, è una domanda che il presente contributo non può risolvere, ma che ha cercato di porre con la precisione necessaria affinché altri possano raccoglierla.
Bibliografia e note
- Binnendijk, A., Marler, T. e Bartels, E.M., Brain-Computer Interfaces: U.S. Military Applications and Implications: An Initial Assessment, RAND Corporation, Santa Monica, 2020.
- Boothby, W., Weapons and the Law of Armed Conflict, 2a ed., Oxford University Press, Oxford, 2016.
- Boutin, B. e Woodcock, T., “Aspects of Realizing (Meaningful) Human Control: A Legal Perspective”, in Geiß, R. e Lahmann, H. (a cura di), Research Handbook on Warfare and Artificial Intelligence, Edward Elgar, Cheltenham, 2024.
- CICR, Warfare at the Speed of Thought: Can Brain-Computer Interfaces Comply with IHL?, CICR Humanitarian Law and Policy Blog, 21 agosto 2025.
- Devidal, P., “Cognitive Warfare: Why the Human Brain Should Not Become a Battlefield”, CICR Humanitarian Law and Policy Blog, 5 febbraio 2026.
- Eden, G.W., “Targeting Mr. Roboto: Distinguishing Humanity in Brain-Computer Interfaces”, Military Law Review, vol. 228, n. 2, 2020.
- Ienca, M. e Helbing, D., “Why Converging Technologies Need Converging International Regulation”, Ethics and Information Technology, vol. 26, n. 15, 2024.
- Koecke, D., “Merging Man and Machine: A Legal Assessment of Brain-Computer Interfaces in Armed Conflict”, International Review of the Red Cross, vol. 107, n. 92, 2025, pp. 176–199.
- Kosal, M. e Putney, J., “Neurotechnology and International Security: Predicting Commercial and Military Adoption of Brain-Computer Interfaces (BCIs) in the United States and China”, Politics and the Life Sciences, vol. 42, n. 1, 2023.
- Lin, P. et al., Enhanced Warfighters: Risk, Ethics, and Policy, The Greenwall Foundation, 2013.
- Liivoja, R., “Being More than You Can Be: Enhancement of Warfighters and the Law of Armed Conflict”, in Waxmann, M.W. e Oakley, T.W. (a cura di), The Future Law of Armed Conflict, Oxford University Press, Oxford, 2022.
- Lubell, N. e Al-Khateeb, K., “Cyborg Soldiers: Military Use of Brain-Computer Interfaces and the Law of Armed Conflict”, in Schmitt, M.N. et al. (a cura di), Big Data and Armed Conflict: Legal Issues Above and Below the Armed Conflict Threshold, The Lieber Studies Series, Oxford University Press, New York, 2024.
- Moreno, J.D., Mind Wars: Brain Research and National Defence, 2a ed., Dana Press, New York, 2012.
- Noll, G., “Weaponising Neurotechnology: International Humanitarian Law and the Loss of Language”, London Review of International Law, vol. 2, n. 2, 2014.
- Rickli, J.-M. e Ienca, M., “The Security and Military Implications of Neurotechnology and Artificial Intelligence”, in Friedrich, O. et al. (a cura di), Clinical Neurotechnology Meets Artificial Intelligence, Springer Nature Switzerland, 2021.
- Tennison, M.N. e Moreno, J.D., “Neuroscience, Ethics, and National Security: The State of the Art”, PLOS Biology, vol. 10, n. 3, 2012.
- UNIDIR, Neurotechnology in the Military Domain: A Primer, Ginevra, novembre 2025.
- White, S., “Brave New World: Neurowarfare and the Limits of International Humanitarian Law”, Cornell International Law Journal, vol. 41, n. 1, 2008.
[1] CICR, Warfare at the Speed of Thought: Can Brain-Computer Interfaces Comply with IHL?, CICR Humanitarian Law and Policy Blog, 21 agosto 2025, disponibile su: https://blogs.icrc.org/law-and-policy/2025/08/21/warfare-at-the-speed-of-thought-can-brain-computer-interfaces-comply-with-ihl/
[2] DARPA, Next-Generation Nonsurgical Neurotechnology (N3), descrizione del programma, disponibile su: https://www.darpa.mil/research/programs/next-generation-nonsurgical-neurotechnology. Cfr. anche A. Binnendijk, T. Marler e E.M. Bartels, Brain-Computer Interfaces: U.S. Military Applications and Implications: An Initial Assessment, RAND Corporation, Santa Monica, 2020.
[3] Dato riportato in CICR, Warfare at the Speed of Thought, cit. La valutazione di Neuralink a 9 miliardi di dollari è menzionata nella stessa fonte. Si segnala che i dati finanziari sulle aziende private sono soggetti a variazioni rapide e vanno trattati come indicatori di tendenza piuttosto che come valori fissi.
[4] US Department of Defense, Military and Security Developments Involving the People’s Republic of China 2024, Washington D.C., 2024, pp. citato in DoD’s 2024 China Report Highlights Plans for AI and Quantum in Military Use, HPCwire, 7 gennaio 2025; M. Kosal e J. Putney, “Neurotechnology and International Security: Predicting Commercial and Military Adoption of Brain-Computer Interfaces (BCIs) in the United States and China”, Politics and the Life Sciences, vol. 42, n. 1, 2023.
[5] Cfr. A. Ferey e L. de Roucy-Rochegonde, Gaza, Ukraine: How AI and Drones Are Transforming the Violence of War, MSF-CRASH, 14 ottobre 2025.
[6] Global Initiative Against Transnational Organised Crime, Collateral Damage: Assessing Substance Use in Ukraine’s Military, marzo 2025. Si avverte che il rapporto documenta l’uso spontaneo di sostanze, non l’impiego istituzionale: la distinzione è rilevante ai fini dell’attribuzione di responsabilità alla catena di comando.
[7] DARPA, Six Paths to the Nonsurgical Future of Brain-Machine Interfaces, comunicato, 2019, disponibile su: https://www.darpa.mil/news/2019/nonsurgical-brain-machine-interfaces. I sei gruppi finanziati sono Battelle Memorial Institute, Carnegie Mellon University, Johns Hopkins University Applied Physics Laboratory, Palo Alto Research Center, Rice University e Teledyne Scientific.
[8] A. Binnendijk, T. Marler e E.M. Bartels, Brain-Computer Interfaces, cit., pp. 13–14.
[9] US Department of Defense, Military and Security Developments, cit. Il passo testuale recita: “PLA scientists have investigated a range of ‘neurocognitive warfare’ capabilities that exploit adversaries using neuroscience and psychology.”
[10] La cautela metodologica è d’obbligo: le fonti governative americane sulle capacità neurobelliche cinesi hanno interesse strategico a enfatizzare la minaccia. Per una valutazione equilibrata cfr. M. Kosal e J. Putney, “Neurotechnology and International Security”, cit.
[11] D. Koecke, “Merging Man and Machine: A Legal Assessment of Brain-Computer Interfaces in Armed Conflict”, International Review of the Red Cross, vol. 107, n. 92, 2025, pp. 176–199.
[12] Sul concetto di meaningful human control nelle LAWS cfr. B. Boutin e T. Woodcock, “Aspects of Realizing (Meaningful) Human Control: A Legal Perspective”, in R. Geiß e H. Lahmann (a cura di), Research Handbook on Warfare and Artificial Intelligence, Edward Elgar, Cheltenham, 2024.
[13] CICR, Warfare at the Speed of Thought, cit.
[14] P. Devidal, “Cognitive Warfare: Why the Human Brain Should Not Become a Battlefield”, CICR Humanitarian Law and Policy Blog, 5 febbraio 2026, disponibile su: https://blogs.icrc.org/law-and-policy/2026/02/05/cognitive-warfare-why-the-human-brain-should-not-become-a-battlefield/
[15] N. Lubell e K. Al-Khateeb, “Cyborg Soldiers: Military Use of Brain-Computer Interfaces and the Law of Armed Conflict”, in M.N. Schmitt et al. (a cura di), Big Data and Armed Conflict: Legal Issues Above and Below the Armed Conflict Threshold, The Lieber Studies Series, Oxford University Press, New York, 2024.
[16] Comitato contro la tortura, Osservazioni conclusive sui rapporti degli Stati parti; cfr. anche TPIY, Prosecutor v. Kunarac, Kovac and Vukovic, Nos. IT-96-23 e IT-96-23/11, par. 486 (Camera di primo grado, 22 febbraio 2001), sulla rilevanza dello scopo nella qualificazione della tortura.
[17] Per una ricostruzione dell’evoluzione della giurisprudenza del Comitato contro la tortura cfr. il documento CTI 2024, UN Convention Against Torture — Explainer, disponibile su: https://cti2024.org/un-convention-against-torture/
[18] M. Kosal e J. Putney, “Neurotechnology and International Security”, cit.
[19] US Department of Defense, Military and Security Developments, cit.
[20] CICR, Warfare at the Speed of Thought, cit. Sul Protocollo IV CCW del 1995 cfr. W. Boothby, Weapons and the Law of Armed Conflict, 2a ed., Oxford University Press, Oxford, 2016.
[21] CICR, Warfare at the Speed of Thought, cit.
[22] UNESCO, Recommendation on the Ethics of Neurotechnology, adottata nel maggio 2025, citata in Neuro-Weaponisation: How Neurotechnology Is Blurring Humanity in the Military Arena, Modern Diplomacy, 20 novembre 2025.
[23] OHCHR, UN Expert Calls for Regulation of Neurotechnologies to Protect Right to Privacy, comunicato stampa, 12 marzo 2025, disponibile su: https://www.ohchr.org/en/press-releases/2025/03/un-expert-calls-regulation-neurotechnologies-protect-right-privacy.












