Consideriamo due vicende che più lontane non potrebbero essere, ma che ci portano a capire lo stato dell’arte, qui e ora, di come il futuro dell’intelligenza artificiale è precipitato nel presente. Andiamo con ordine, però.
Il 10 febbraio 2026, Jesse Van Rootselaar, 18 anni, ha ucciso otto persone a Tumbler Ridge, nella Columbia Britannica canadese, prima di togliersi la vita. Cinque delle vittime erano bambini e una era un’assistente scolastica della Tumbler Ridge Secondary School; altre due persone furono trovate morte in un’abitazione vicina.
Indice degli argomenti
Il caso OpenAI e l’intelligenza artificiale davanti alla strage
Quello che è emerso dopo la strage è stato clamoroso: circa una dozzina di dipendenti di OpenAI erano a conoscenza di preoccupanti interazioni della ragazza con ChatGPT, ma l’azienda aveva scelto di non avvisare le forze dell’ordine.
Segnali intercettati, ban e soglia di “rischio imminente”
Le conversazioni di Van Rootselaar, che descrivevano scenari di violenza armata, erano state intercettate da sistemi automatici di monitoraggio e il suo account era stato bannato nel giugno 2025. I dipendenti avevano discusso se rivolgersi alle autorità canadesi, ma alla fine non lo avevano fatto.
La giustificazione di OpenAI: il comportamento della ragazza non raggiungeva la soglia interna che richiedeva un “rischio imminente e credibile” di danno fisico grave. In altre parole, sapevano, si erano riuniti per decidere, e avevano scelto il silenzio.
L’aggiramento del ban e i tempi che contano
La vicenda ha rivelato anche un’ulteriore falla: Van Rootselaar aveva aggirato il ban aprendo un secondo account su ChatGPT, che OpenAI ha scoperto soltanto dopo che le autorità avevano reso pubblico il suo nome. Otto mesi erano passati tra la chiusura del primo account e la strage.
La reazione delle autorità canadesi è stata di rabbia. Il premier della Columbia Britannica, David Eby, ha dichiarato che la tragedia avrebbe potuto essere evitata se OpenAI avesse allertato le autorità in anticipo. Il ministro canadese per l’Intelligenza Artificiale, Evan Solomon, ha incontrato i dirigenti di OpenAI a Ottawa, uscendone però “deluso“: nessuna proposta concreta, nessun nuovo protocollo di sicurezza sostanziale.
OpenAI ha poi annunciato che, con le nuove regole nel frattempo adottate, avrebbe segnalato alla polizia l’account bannato nel giugno 2025 — ma queste modifiche sono arrivate troppo tardi.
Questa vicenda dimostra che il modello linguistico è stato più capace di chiunque altro nel capire la pericolosità dell’autore della strage; semmai è stato l’elemento umano a non capire. Teniamo a mente questa conclusione e passiamo alla seconda vicenda.
Pentagono, Anthropic e vincoli sull’uso dei modelli
Al centro del caso c’è il rifiuto di Dario Amodei, CEO di Anthropic, di rimuovere le restrizioni che impediscono l’uso di Claude per la sorveglianza di massa interna e per sistemi d’arma completamente autonomi. “Non possiamo in buona coscienza accogliere la loro richiesta“, ha dichiarato Amodei. Il Pentagono aveva chiesto di accettare “qualsiasi uso legittimo” dei modelli, minacciando altrimenti di escludere l’azienda dalla catena di fornitura della Difesa, arrivando persino a classificarla come “rischio per la supply chain” — una designazione di solito riservata a tecnologie straniere considerate ostili.
Nel frattempo, Sam Altman di OpenAI si è mosso rapidamente per stringere un accordo con il Pentagono, presentandolo come il “compromesso” che Anthropic non aveva voluto trovare. Ma lo stesso Altman ha poi ammesso che la fretta di OpenAI era apparsa eccessiva (“It was definitely rushed, and the optics don’t look good“), annunciando alcune modifiche all’accordo.
Il paradosso finale: secondo il Wall Street Journal, il Pentagono avrebbe usato il modello Claude di Anthropic proprio per l’attacco all’Iran — per valutazioni di intelligence, identificazione dei target e simulazione di scenari di battaglia — nonostante il divieto imposto pochi giorni prima. Ma questa è un’altra storia ancora.
Intelligenza artificiale e regole: due problemi intrecciati
Proviamo a mettere insieme le due vicende. La prima conclusione è che i sistemi intelligenti automatici sono superiori a quelli umani (sempre? qualche volta? nella maggior parte dei casi? Non possiamo dirlo in maniera definitiva, però…); la seconda conclusione è che la velocità del miglioramento di questi sistemi supera di gran lunga, disponendosi in termini prima impensabili, le regole esistenti — private e pubbliche — al punto da creare due problemi distinti e intrecciati: se e quali siano i principi generali e universali impiegabili per la loro regolamentazione, e quali siano invece le specifiche tecniche e procedurali che fanno la differenza nella “manutenzione” e nel controllo di questi principi. Il primo punto, paradossalmente, sembra il più facile, mentre il secondo appare molto più complicato. Vediamo meglio.
Principi generali e “linea rossa” nell’uso dell’intelligenza artificiale
Amodei è stato chiarissimo nell’indicare la “linea rossa” (l’ha chiamata proprio così): no alla sorveglianza di massa e no all’impiego automatico delle armi, senza che vi sia un’esplicita e consapevole decisione di un essere umano a usarle. In sostanza, deve esserci sempre una decisione umana a premere il grilletto. Sono principi che potrebbero ottenere un consenso molto ampio.
Su questi due punti Amodei (in una sua intervista alla CBS) ha aggiunto qualcosa che rende meno ovvi questi due principi. Solo chi sta sul “front line” dell’intelligenza artificiale può sapere cosa questa tecnologia è capace di fare. Guardiamo alla semplice integrazione dei dati: un solo flusso di dati su un solo crinale (le conversazioni sul modello LLM, le ricerche su Google, ecc.) di per sé non costituisce una minaccia rilevante per la sorveglianza di massa, ma la sua integrazione con i dati di movimento, biometrici, delle telecamere pubbliche, dei sistemi televisivi, ecc. la costituisce eccome. Ecco allora il principio: no alla sorveglianza, netto nella sua enunciazione, che diventa friabile non appena si debba stabilire quali dati, per quanto tempo, con quale integrazione e con quale distanza temporale debbano essere combinati. Ad esempio, raccolta e utilizzo in tempo reale è cosa ben diversa dalla raccolta d’archivio.
Anche per il secondo principio la parte specifica prevale nettamente su quella di ordine generale. Com’è noto, i modelli linguistici lavorano per task: gli si dà un compito e loro eseguono quello al di sopra di ogni altra cosa. Proviamo a vedere quanto cambia radicalmente le cose la scelta dell’ampiezza del target. Se l’entità umana individua un target specifico e poi chiede un task all’intelligenza artificiale per localizzarlo, il principio prima enunciato è senz’altro rispettato; se però il task diventasse “trova i comportamenti più pericolosi che puoi individuare in questo set di persone o di organizzazioni”, allora il principio sarebbe già meno rispettato — ma lo sarebbe ancora, poiché ho fornito, da essere umano, delle direttive. Ma quando il task è ancora più generale e non implica l’esplicita individuazione del target, vige ancora il principio di cui sopra? E se il task lavora, com’è successo a Tumbler Ridge, nella modalità di “Minority Report” — cioè con algoritmi predittivi capaci di prevedere e anticipare comportamenti —, il principio della responsabilità umana è messo a dura prova…
L’intelligenza artificiale corre: progressi esponenziali e legge in ritardo
Teniamo poi conto della velocità esponenziale dei progressi nella capacità dell”intelligenza artificiale, che raddoppia ogni quattro mesi, e capiremo che quello che un anno fa era tecnicamente impossibile è diventato possibile; e quello che oggi non è tecnicamente possibile, e per cui non c’è ancora bisogno di una legge che lo regoli, diventerà possibile entro un certo numero di mesi.
Siamo, alla fine, nel bel mezzo di una tenaglia: da un lato l’intelligenza artificiale si dimostra via via più efficiente nello svolgere compiti automatici, quindi senza l’intervento umano; dall’altro, più l’automatismo si approfondisce, più si sottrae responsabilità umana. E questo ha conseguenze legali formidabili.
La corsa agli armamenti nucleari è stata fermata dalla consapevolezza della loro capacità distruttiva, moltiplicata ben oltre il necessario: questo ha portato a trattati e a uno stop della loro proliferazione. L’intelligenza artificiale ha uno spettro infinito di impieghi, quindi la sua affermazione è inesorabile. Si tratta di capire come il suo “contenimento” — vale a dire il principio per cui non è lecito sviluppare tutto ciò che è teoricamente possibile sviluppare — possa trovare i suoi principi e le sue regole.













