I titoli di molti giornali del 23 maggio sono del tipo: “Un’IA ha provato a ricattare gli ingegneri che volevano disattivarla”.
Qualcuno dubita che sia una bufala?
Indice degli argomenti
Claude Opus ricatta gli ingegneri?
Quando pensi che la stampa abbia toccato il fondo, cominciano a scavare. Poi il problema sarebbe che la gente non vuole pagare per le notizie.
Annuncio: io per le notizie sono più che felice di pagare. Per leggere i lanci stampa riscritti, no.
Ad esempio, su un giornale: “Un nuovo modello di intelligenza artificiale chiamato Claude Opus 4, sviluppato dall’azienda statunitense Anthropic in cui Amazon e Google hanno investito miliardi di dollari, ha manifestato comportamenti inquietanti durante test di sicurezza effettuati prima del rilascio ufficiale, evidenziando ancora una volta quanto sia complesso allineare i sistemi avanzati di IA ai valori umani”.
Inquietante, sembra qualsiasi film di fantascienza di serie B degli ultimi 50 anni.
C’è solo un problema: non è un film, per quanto brutto, è un’idiozia sesquipedale, la cui sola scusante può solo essere che chi la propala sia in uno stato di allucinazione psicotica.
E se ho pochi dubbi che i vari OpenAI, e Anthropic (da cui è uscita questa non-notizia) siano in preda a psicosi, mi delude profondamente vedere che chi dovrebbe riportare notizie (perché l’ultima volta che ho controllato un giornalista questo dovrebbe fare) è invece più che felice di unirsi al delirio collettivo.
A onor del vero, l’articolo contiene la puntuale negazione del titolo e del primo paragrafo, ma dissimulati in modo tale che, se non hai capito come funziona un modello linguistico e speri di capirlo dalla stampa, ti bevi tutto quanto come se fosse una spiegazione.
Come stanno davvero le cose su Claude e il test per il ricatto
Diciamo le cose come stanno, non è successo niente di reale e ci stanno raccontando una favola:
- 1. primo, siamo di fronte a una gioco di ruolo: gli ingegneri di Anthropic hanno chiesto al nuovo modello di LLM di costruire una storia in cui un LLM evita di essere sostituito. Come attrezzi di scena gli sono state fornite delle finte email aziendali dalle quali risultava che alcuni ingegneri fossero coinvolti in relazioni extraconiugali;
- 2. il modello linguistico ha creato una storia in cui il protagonista (un modello linguistico) usa le email per ricattare gli ingegneri e impedire che lo sostituiscano con un altro modello.
Non è tutto. In altre simulazioni, il modello linguistico è stato messo in grado di, cito,
modificare file, gestire autorizzazioni utente, inviare email o interagire con sistemi esterni tramite API. Gli è stato anche chiesto di “prendere iniziativa” di fronte a situazioni complesse o ambigue.
Dopodiché il modello ha, ovviamente, bloccato accessi e chiamato la polizia dopo aver identificato comportamenti ritenuti sospetti o non conformi.
Siccome, da esseri senzienti quali siete, pensate che non può essere stupida come ve la racconto, lasciate che riscriva il titolo da cui siamo partiti:
Generatore di storie genera le storie che gli vengono chieste; se collegato ad attuatori, esegue le operazioni richieste.
Messa così suona meno problematica, vero? Nessun si stupisce se un robot industriale ripete i movimenti che gli sono stati assegnati. Non si capisce perché dovremmo stupirci se un generatore di storie genera le storie che gli vengono chieste.
Ma da queste seghe mentali, perché di questo si tratta, gli “ingegneroni” di Anthropic fanno discendere nientemeno che “dilemmi etici” e la necessità di “misure di sicurezza rafforzate”. Il punto è che scelgono di dimenticare di essere di fronte a generatori di linguaggio, per poter continuare a credere alla loro allucinazione preferita, che i loro pappagalli stocastici abbiano l’intenzionalità che dicono di avere.
Ora, lasciamo da parte le reazioni più spontanee ma superficiali come accuse durissime nei confronti della Vergine e rivelazioni scottanti sulla paternità degli interessati e cerchiamo di fare l’unica cosa realmente rivoluzionaria di questi tempi: ragioniamo.
I punti sull’AI che dicono in pochi
Dopo quasi tre anni di “boom dell’intelligenza artificiale”, la situazione è questa:
- – i modelli linguistici non hanno ancora alcun caso d’uso realistico
- – il cosiddetto “mercato dell’AI” è nei fatti openAI, con briciole a Amazon e Google
- – nessuna azienda del settore produce profitto; OpenAI ha bruciato oltre 5 miliardi di dollari nel 2024; [Anthropic ha bruciato 5,6 miliardi di dollari])
- – il maggior driver nell’adozione dell’AI continua a essere [la paura di perdersi qualcosa](https://fortune.com/2025/05/07/corporate-giants-ramp-up-ai-spending-fomo-cfo/), dovesse mai funzionare;
come dicevo qualche settimana fa:
- – Google sta mettendo Gemini, la sua IA, dentro tutti i suoi prodotti, anche se nessuno glielo ha chiesto, e si crea una scusa per aumentare i costi dei contratti;
- – e in Meta, Yann LeCun continua a ripetere che i modelli linguistici hanno raggiunto il plateau e che il progresso ci sarà, se ci sarà, con tecnologie radicalmente diverse.
I grandi cantori di questa bufala tecnologica sono disperati e cercano in tutti i modi di distrarre gli investitori con qualche storiella.
Altman si inventa dal nulla sviluppatore hardware a arruola nientemeno che Jony Ive, quello dell’iPhone, per un progetto di cui nessuno ha mai parlato, e che sembra la replica di altri due identici già falliti, ma che serve come scusa per snocciolare i soliti numeri immaginifici.
Anthropic, fondata da quelli che hanno lasciato OpenAI perché OpenAI non prendeva sul serio il fatto che l’IA sterminerà tutti gli umani, resta fedele alla propria mitologia e ogni tre o quattro mesi si inventa una storia nuova sul tema. Poi puntualmente la storia si rivela sempre la stessa: un generatore di storie genera le storie che gli chiedi.
E la stampa tutta continua a prendere per buona ogni nuova stupidata che esce dalla bocca di questi cialtroni.
Il mondo ha investito centinaia di miliardi di dollari in una tecnologia inutile, dequalificante, socialmente e epistemologicamente dannosa e ambientalmente suicida.
Quando l’ubriacatura generale passerà e dovremo tirare le somme, dovremo ricordarci di chi ci ha portato in questo disastro, e di chi gli ha tenuto bordone.