cassandra crossing

Le armi autonome letali sono gia qui: e ora?



Indirizzo copiato

Un record sul cubo di Rubik diventa il punto di partenza per una riflessione molto più ampia. Quando la robotica supera in modo schiacciante le capacità umane e gli LLM colmano l’ultimo vuoto, le armi autonome letali smettono di appartenere al futuro

Pubblicato il 20 apr 2026

Marco Calamari

consulente in ambito privacy e Computer Forensics



chatbot meta sesso robot umanoidi in casa
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

L’anno scorso Cassandra aveva letto un articolo su Wired che dava conto di un nuovo record del mondo (del Guinnes dei Primati).

Si dava conto che alla Purdue University a giugno del 2025 un robot specializzato aveva battuto il record di velocità per la soluzione di un cubo di Rubik, stracciando il precedente record “robotico”, detenuto dal 2024 da Mitsubishi Electric, che era di 305 millisecondi, tre decimi di secondo.

Il nuovo record è di 103 millisecondi, un decimo di secondo.

Ora per comprendere l’impatto delle cose nuove con la realtà, bisogna non pensare solo ai numeri od ai record, ma alle loro relazioni con le cose più comuni e “normali”.

Quando la robotica supera ogni misura umana

Un decimo di secondo significa che è impossibile riprendere l’evento con una normale cinepresa, perché si vedrebbero solo il fotogramma iniziale e quello finale, certamente molto, molto “mossi”.

Anche se si tratta di un gioco, parliamo di capacità così sovrumane da dare da pensare.

Meccanismi automatici che agiscono sul mondo fisico, facendo le stesse cose che potremmo fare noi, solo in modo, appunto, sovrumano.

Parentesi: Meno male che li controlliamo noi … forse …

La disciplina sportiva dei solutori del cubo di Rubik si chiama Speedcubing, ed il “record umano” del mondo, detenuto da un bambino di 7 anni, è di ben 2.76 secondi.

Consideriamo poi che si tratta del solo tempo di esecuzione, perché il cubo viene guardato prima con calma, e poi risolto.

Il robot, invece, in quei miseri 103 millisecondi ha fatto ambedue le cose.

Parentesi: abbiamo dovuto usare la locuzione “record umano”; pensateci…

30 volte più veloce del più veloce umano, la stessa differenza che c’è tra una passeggiata ed una Formula 1 lanciata in rettilineo.

Parlare di capacità sovrumane non è un’esagerazione, anzi, forse è un termine riduttivo.

Perché le armi autonome letali entrano nel discorso

Ora i 24 incerti lettori diranno “Ma dove vuole andare a parare? I record sono praticamente una cosa di tutti i giorni”.

È giusto, la tesi di questa esternazione infatti è che la robotica, anche quella giocosa che risolve il cubo di Rubik, trascende ormai le capacità umane in maniera sistematica e schiacciante.

E non basta dire che questo è successo anche con l’avvento delle scavatrici rispetto agli sterratori, e che non deve sorprendere.

Sì, perché la robotica “sovrumana”, non quella “umanoide e coccolosa”, è la seconda metà di tutte le future armi autonome letali.

E gli LLM, non c’è nemmeno bisogno di dirlo, sono la prima metà, quella che fino a tre anni or sono mancava, necessaria per avere armi contemporaneamente autonome e “sovrumane”.

Come gli LLM completano le armi autonome letali

Ben prima dell’avvento degli LLM Cassandra aveva profetizzato che le LAWS erano già tra noi, se non altro nei laboratori di ricerca militare, perché per ottenere un’arma autonoma bastava “semplicemente” cambiare il “firmware” ad un benevolo automa lavoratore o ad un sistema d’arma di tipo passivo.

Ma oggi possiamo facilmente fare di più e meglio.

Basta aumentare, se necessario, le capacità informatiche di un sistema d’arma, e dotarlo di un nuovo software che utilizzi gli LLM per mimare le capacità “umane” di linguaggio, sia in input che in output; mimare cioè quelle interazioni umane, realizzate in linguaggio naturale, che normalmente fanno parte del loop di autorizzazione di qualsiasi sistema d’arma.

Ecco che l’uomo può essere facilmente rimosso dal loop di comando, ed il sistema d’arma diventa completamente autonomo.

Le obiezioni sulle armi autonome letali

A questo punto Cassandra prevede due obiezioni; e le tratterà subito.

L’etica delle IA

La prima obiezione: l’etica delle IA.

L’etica è quello che più ci distingue positivamente come umani dagli altre manifestazioni della natura.

È un argomento di cui si fa un gran parlare, ma che tende a scomparire non appena ci si avvicina ad altre problematiche, come il guadagno o gli armamenti.

In presenza di queste ultime l’etica viene rapidamente sostituita dalla propaganda e dalle consulenze per la gestione della reputazione, al fine di fare solamente qualsiasi cosa che venga considerata “necessaria”, solo da parte di chiunque.

In breve, Cassandra è certa che nessuna dialettica basata sull’etica potrà mai servire per influenzare, anche solo minimamente, la produzione e l’impiego di armi autonome letali.

L’umano nel loop

La seconda obiezione: l’umano nel loop.

L’informazione e l’automazione sono tendenze incontrastate ed incontrastabili; le spesso trascurate prima e seconda legge di Zuboff le riassumono mirabilmente.

Guardatevi intorno; non è minimamente realistico pensare che queste “naturali” tendenze, almeno negli attuali sistemi sociali, possano essere efficacemente contrastate, indipendentemente dalla bontà della motivazione.

Ora, pensate al mondo militare ed alla guerra.

Alla continua corsa dei militari all’arma più potente e più economica, volta a distruggere il nemico ed a minimizzare le proprie perdite; questi sono da sempre gli unici valori fondamentali per i militari.

Sono principi così fondamentali da non aver nemmeno bisogno, il più delle volte, di essere enunciati.

Forse proprio per questo tendiamo a dimenticarcene.

Errori, propaganda e normalizzazione militare

Ed a nulla vale il fatto che le tecnologie di IA in generale e gli LLM in particolare siano caratterizzati da ineliminabili tassi di errore, così alti da essere spesso inaccettabili nel mondo “normale”, malgrado tutta la propaganda e le spinte economiche possibili.

Ma in campo militare un limite agli errori non è mai stato enunciato anzi non esiste proprio; esistono invece da sempre concetti come “vittime collaterali” e “fuoco amico”, che verranno ovviamente utilizzati anche per giustificare gli svarioni delle armi autonome.

Non è difficile profetizzare che questi stessi concetti troveranno una applicazione immediata, pratica e diretta per giustificare qualsiasi “allucinazione”, o per meglio dire “errore”, che anche il più pazzerello degli LLM potrebbe compiere sul campo di battaglia.

Le armi autonome letali non appartengono al futuro

E questo rende gli LLM totalmente accettabili per poter “finalmente” realizzare armi autonome di ogni tipo, sostituendo in maniera semplice, rapida ed economica l’elemento umano in qualsiasi sistema d’arma.

Non sta per succedere.

È già successo.

Riferimenti e archivio

Scrivere a Cassandra — Twitter/X — Mastodon
Videorubrica “Quattro chiacchiere con Cassandra”
Lo Slog (Static Blog) di Cassandra
L’archivio di Cassandra: scuola, formazione e pensiero

Cassandra per i posteri: l’archivio su Internet Archive

Licenza d’utilizzo: i contenuti di questo articolo, dove non diversamente indicato, sono sotto licenza Creative Commons Attribuzione — Condividi allo stesso modo 4.0 Internazionale (CC BY-SA 4.0), tutte le informazioni di utilizzo del materiale sono disponibili a questo link.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x