scenari

Guerra post-umana: in Ucraina l’algoritmo decide, il diritto tace



Indirizzo copiato

In Ucraina la tecnologia diventa attore del conflitto: droni autonomi, intelligenza artificiale e warfighting algoritmico comprimono il ciclo decisionale. La posta in gioco non è solo la superiorità militare, ma il controllo umano e la responsabilità giuridica sulle scelte di vita o di morte

Pubblicato il 26 nov 2025

Marco Bacini

Professore di Omnichannel Marketing

Oreste Pollicino

professore ordinario di diritto costituzionale, Università Bocconi e founder Oreste Pollicino Advisory



guerra ibrida russa guerra post-umana

L’analisi del conflitto in Ucraina offre uno spaccato cruciale sulle dinamiche della guerra post-umana. In questo teatro bellico, i sistemi autonomi e l’intelligenza artificiale non sono meri supporti, ma veri e propri attori che incidono sulla strategia e, di conseguenza, sollevano questioni etiche e legali di portata epocale.

L’algoritmo in guerra: da strumento a soggetto attivo nel conflitto ucraino

Nel teatro bellico contemporaneo, la guerra post-umana rappresenta una realtà già operativa che si manifesta con evidenza nei diversi conflitti in corso. In Ucraina, la tecnologia non è più un semplice strumento ma un soggetto attivo del confronto, e l’intelligenza artificiale si inserisce nella catena di comando, nella raccolta informativa e nella pianificazione strategica. Droni, sistemi autonomi e processi di automazione decisionale hanno modificato radicalmente la tempistica e la natura stessa del potere militare.

L’uomo, da decisore esclusivo, diventa parte di un ecosistema ibrido in cui l’algoritmo elabora, apprende e, in alcuni casi, decide. La superiorità strategica non si misura più in potenza di fuoco, ma in potenza cognitiva: chi controlla i dati e i flussi informativi domina la dimensione del conflitto.

Nel caso ucraino, l’intelligenza artificiale viene impiegata nella ricognizione automatica di obiettivi, nell’analisi predittiva dei movimenti e nella fusione di dati provenienti da satelliti, droni e fonti aperte. Il fronte è divenuto un laboratorio di guerra algoritmica. Entrambe le parti utilizzano droni con capacità di automazione crescente, Mosca impiega sistemi KUB-BLA e Lancet, descritti come armi “intelligenti” capaci di selezionare obiettivi e correggere traiettorie in autonomia e Kiev risponde con Bayraktar TB2, Switchblade e Phoenix Ghost, dotati di moduli di riconoscimento visivo e navigazione assistita da IA. Operazioni come la cosiddetta “Spider’s Web”, in cui oltre cento droni ucraini hanno colpito simultaneamente obiettivi militari russi, mostrano come la coordinazione algoritmica possa superare la pianificazione umana in termini di rapidità e sincronizzazione.

È il segno di una guerra che comprime il ciclo decisionale, dove la velocità dell’elaborazione diventa la nuova misura del potere. Ma l’autonomia algoritmica non è sinonimo di infallibilità. Il conflitto ha evidenziato la vulnerabilità dei sistemi d’arma alle interferenze elettroniche e alle operazioni di jamming.

La guerra elettronica russa ha dimostrato come la supremazia tecnologica sia effimera senza cyber-resilienza, e come l’autonomia, per essere efficace, debba essere accompagnata da un solido controllo umano. È proprio su questo equilibrio che si gioca la vera frontiera della guerra post-umana, ovvero la capacità di coniugare automazione e responsabilità.  

Il vuoto normativo: l’AI Act e l’esclusione della difesa

Sul piano giuridico, la guerra post-umana segna una cesura concettuale che il diritto positivo europeo non ha ancora saputo colmare. L’AI Act, espressione più matura del tentativo dell’Unione di costituzionalizzare la tecnica, esclude esplicitamente dal proprio campo di applicazione i sistemi destinati a fini militari o di difesa, ai sensi dell’articolo 2, paragrafo 3 del Regolamento (UE) 2024/1689.

Questa esclusione, apparentemente tecnica, rivela in realtà una frattura sistemica, il diritto dell’intelligenza artificiale nasce civile e resta privo di un corrispettivo nel dominio bellico, dove l’autonomia algoritmica opera in uno spazio quasi privo di regole comuni, affidato a un diritto internazionale umanitario costruito sull’antropocentrismo e oggi strutturalmente inadeguato. Il paradosso è che, proprio mentre l’Europa erige un presidio normativo senza precedenti per l’uso civile dell’AI, lascia scoperto il terreno in cui la decisione automatica incide sul bene giuridico per eccellenza, la vita umana.

Eppure il silenzio formale non equivale a neutralità giuridica. I principi ispiratori dell’AI Act, trasparenza, tracciabilità, controllo umano effettivo, accountability, pur non vincolanti nel settore della difesa, hanno ormai assunto una portata meta-normativa, configurandosi come principi generali dell’ordinamento europeo dell’automazione. Essi rappresentano un nucleo di valori costituzionali proiettabile anche oltre il confine della competenza materiale dell’Unione, fungendo da criterio interpretativo per la condotta degli Stati membri e per la definizione di una futura governance “dual use”.

In questo senso, il diritto europeo si muove più che per applicazione diretta, per irradiazione valoriale. Ciò che manca, tuttavia, è un quadro giuridico unitario capace di raccordare l’etica della regolazione con la strategia della difesa. La sfida è disegnare un modello di diritto dell’autonomia militare che non si limiti a riprodurre il linguaggio del diritto umanitario classico, ma che sappia tradurre in termini giuridici il principio costituzionale del controllo umano.  

Responsabilità algoritmica e la sfida per una costituzione del comando

È qui che la responsabilità torna ad essere la chiave di volta: occorre una ricostruzione funzionale della catena di imputazione che consenta di attribuire ex ante la titolarità della decisione automatizzata, anche quando essa è il prodotto di un processo di apprendimento non interamente prevedibile. L’Europa, se vuole preservare la propria identità costituzionale anche nella dimensione della sicurezza e della difesa, dovrà assumere l’iniziativa di codificare i limiti dell’autonomia bellica, costruendo una costituzione implicita del comando algoritmico. Perché il vero rischio della guerra post-umana non è la sconfitta militare, ma la progressiva erosione della responsabilità giuridica come fondamento dell’agire collettivo. E in questa erosione, il diritto europeo rischia di perdere la propria ragion d’essere, cioè quella di porre sempre l’uomo, anche di fronte alla macchina, al centro della decisione.  

La linea di demarcazione finale: preservare l’umano nella guerra post-umana

La guerra in Ucraina ci mostra dunque che il futuro è già arrivato. L’algoritmo non è solo un supporto tecnico ma un nuovo soggetto operativo che ridefinisce la logica del comando. Il problema non è piùse l’intelligenza artificiale sarà impiegata nei conflitti, ma come e con quali limiti. La posta in gioco non è soltanto la sicurezza militare, ma la preservazione dell’umano come misura ultima della guerra. Perché la vera linea di demarcazione, oggi, non è tra uomini e macchine, ma tra decisione e responsabilità.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati