Jack Clark, co-fondatore di Anthropic, mette nero su bianco una stima che fa venire i brividi: più del 60% di probabilità che entro la fine del 2028 un sistema di intelligenza artificiale sarà in grado di addestrare autonomamente un modello più avanzato di se stesso. Non è la profezia di un guru da palco. Non è la trovata di marketing di qualcuno che deve vendere abbonamenti. È la valutazione pubblica, firmata e documentata, del dirigente di uno dei laboratori AI più seri e accreditati al mondo. Un documento di cinque pagine, scritto con la lucidità di chi sa cosa sta costruendo e decide, per una volta, di dirlo davvero.
Indice degli argomenti
The Anthropic Institute: perché è diverso dai soliti osservatori
Il 7 maggio 2026 Anthropic ha lanciato The Anthropic Institute, detto TAI, e insieme ha pubblicato la propria agenda di ricerca. Quattro aree, molte domande scomode, e una promessa: condividere quello che solo chi costruisce AI di frontiera può vedere dall’interno. Proviamo a leggere questo documento non come un comunicato stampa di una tech company americana, ma come una mappa dei terremoti in arrivo. Perché per la pubblica amministrazione italiana, questa mappa vale più di qualsiasi circolare degli ultimi tre anni.
La prima domanda che viene spontanea è: perché dovremmo fidarci di un istituto di ricerca fondato e finanziato dalla stessa azienda di cui studia gli impatti? È una domanda legittima. Ma prima di liquidarla come l’ennesimo esercizio di washing, vale la pena capire come è strutturato TAI.
The Anthropic Institute unisce tre team preesistenti: il Frontier Red Team, che stress-testa i modelli per capirne i limiti estremi; il team Societal Impacts, che studia come l’AI viene usata nel mondo reale; e il team Economic Research, che traccia l’impatto dell’AI su lavoro e occupazione. A guidare il tutto c’è lo stesso Jack Clark, che lascia il ruolo tecnico per assumere quello di Head of Public Benefit. Trenta ricercatori, tra ingegneri ML, economisti e scienziati sociali.
Ciò che rende TAI diverso da un osservatorio accademico qualsiasi è il vantaggio informativo. Come scrive Anthropic nell’agenda: chi costruisce AI di frontiera vede cose che nessun altro può vedere. Vedono, dall’interno, che ruoli come l’ingegnere software stanno cambiando in modo radicale. Vedono l’economia interna di Anthropic stessa che si trasforma. Vedono i segnali precoci di un’AI che comincia ad accelerare il proprio sviluppo.
Poi c’è il tema della governance. I risultati di TAI confluiranno direttamente nel Long-Term Benefit Trust, l’organo di supervisione di Anthropic il cui mandato è assicurare che ogni decisione aziendale serva per il bene di lungo periodo dell’umanità. Non solo i profitti del prossimo trimestre. Se questo meccanismo funziona davvero, e il test sarà se TAI pubblicherà anche ricerche scomode per Anthropic, allora siamo di fronte a qualcosa di insolito. Un laboratorio privato che non solo studia i rischi che produce, ma si vincola strutturalmente a tenerne conto.
Intelligenza artificiale nella PA italiana: i quattro pilastri dell’agenda TAI
L’agenda di ricerca di TAI si articola in quattro aree. Le elenco, ma poi mi fermo su quelle che mi sembrano più rilevanti per chi, come molti lettori di questa rivista, si occupa di trasformazione digitale nella pubblica amministrazione italiana.
Economic Diffusion: chi adotta l’AI, chi ne cattura i vantaggi, chi resta indietro
Questa area studia come l’AI si diffonde nell’economia, come cambia la struttura delle organizzazioni, e se si comporta come altre tecnologie general-purpose della storia o se è davvero qualcosa di diverso. TAI si pone una domanda molto concreta: se tre persone con un modello AI possono fare il lavoro di trecento, cosa succede alle grandi strutture burocratiche? Non è un esercizio teorico. È la domanda che ogni dirigente di una PA con decine o centinaia di dipendenti dovrebbe portarsi a casa.
TAI lancerà reportistica mensile dall’Anthropic Economic Index, pensata come segnale precoce di cambiamenti significativi nel mercato del lavoro. Segnale precoce: non serve aspettare l’ISTAT per capire cosa sta succedendo. Serve leggere i dati mentre succede, secondo Anthropic.
Threats and Resilience: il lato oscuro che nessuno vuole discutere
Questa area copre le capacità dual-use dei modelli AI, il bilanciamento tra offesa e difesa nel cyberspazio e nel dominio bio, e le infrastrutture di crisi. Per la PA italiana, il tema della cybersicurezza abilitata dall’AI non è astratto: gli attacchi ransomware agli enti locali italiani sono aumentati in modo costante negli ultimi tre anni, e i modelli AI stanno abbassando la soglia tecnica necessaria per sferrare attacchi sofisticati. Chi gestisce la sicurezza informatica di una pubblica amministrazione con risorse limitate sa già che le regole del gioco sono cambiate. E se non lo sa, ora dovrebbe saperlo.
AI Systems in the Wild: cosa succede quando tutti chiedono le stesse cose alla stessa AI
Questa è l’area che mi sembra più sottovalutata nel dibattito pubblico italiano. TAI studia cosa succede all’epistemologia collettiva quando una grande frazione della popolazione consulta gli stessi pochi modelli. Misura cambiamenti su larga scala nelle credenze, negli stili di scrittura, negli approcci alla risoluzione dei problemi. Si chiede se l’AI stia erodendo il pensiero critico umano a causa dell’aumento della delega al giudizio della macchina.
Per chi fa formazione nella PA, questa non è una domanda accademica. È il cuore del problema. Se insegniamo ai dipendenti pubblici a usare l’AI per produrre atti, relazioni, valutazioni, e non li formiamo a leggere criticamente l’output, stiamo costruendo una PA che delega il ragionamento a una scatola nera. Il risultato non è più efficienza. È fragilità e standardizzazione sistemica. Che sia arrivato il momento di pensare a un ChatGPT-Gov-IT?
AI-Driven R&D: la frontiera che cambia tutto il resto
Quest’area studia come l’AI sta accelerando la ricerca scientifica e, soprattutto, come i sistemi AI stiano contribuendo a sviluppare versioni più avanzate di se stessi. È il cuore del problema che affronteremo tra un momento.
Miglioramento ricorsivo dell’AI: quando l’AI inizia a costruire se stessa
Torniamo alla stima di Jack Clark. Oltre il 60% di probabilità che entro il 2028 un’AI addestri autonomamente un modello più capace di se stessa. Questo fenomeno si chiama miglioramento ricorsivo, o recursive self-improvement. E l’agenda di TAI lo mette esplicitamente al centro della propria riflessione.
La logica è semplice da capire, ma le implicazioni sono difficili da gestire. Fino ad oggi, ogni nuovo modello AI richiedeva anni di lavoro umano per essere progettato, addestrato, valutato. Se quel lavoro comincia a essere svolto in misura crescente dall’AI stessa, la curva di progresso smette di essere lineare. Diventa esponenziale in modo diverso da qualsiasi cosa abbiamo visto finora.
Non è necessario aderire alle visioni più apocalittiche per capire che questo cambia il problema della governance dell’AI in modo radicale. Finora ci siamo chiesti: quanto velocemente si svilupperà l’AI nei prossimi cinque anni? Con il miglioramento ricorsivo, la domanda diventa: chi decide a che velocità si sviluppa? E chi ha la capacità tecnica di misurarne la traiettoria in tempo reale?
L’agenda di TAI propone qualcosa di molto concreto: una esercitazione antincendio per un’esplosione di intelligenza. Una tabletop exercise che testi davvero il processo decisionale dei laboratori, dei board e dei governi in uno scenario di accelerazione rapida. E cita un’analogia storica che vale la pena non dimenticare: durante la Guerra Fredda, USA e URSS, pur essendo rivali esistenziali, costruirono un telefono rosso. Perché capirono che alcune tecnologie richiedono canali di comunicazione anche tra nemici. L’AI, dice Anthropic, è la stessa cosa. E quei canali non esistono ancora.
La domanda che la PA italiana non si sta ancora facendo
A questo punto potreste chiedermi: cosa c’entra tutto questo con un Comune italiano? Con un RTD che ha il PNRR in conclusione? Con un comune di 3000 abitanti? La risposta è: tutto.
La PA italiana sta vivendo il paradosso di essere immersa in un cambiamento tecnologico di portata storica, con strumenti normativi e finanziari potenzialmente adeguati, il Piano Triennale per l’Informatica nella PA 2024-2026, il PNRR, l’AI Act, ma con una capacità di lettura prospettica quasi inesistente. Gli obiettivi del Piano Triennale parlano di interoperabilità, cloud, identità digitale. Non parlano di cosa succede quando l’AI comincia a costruire se stessa. Non parlano di come preservare il pensiero critico di un funzionario pubblico nell’era della delega cognitiva.
TAI pone una domanda concreta sul mercato del lavoro che mi sembra urgente per la PA: molte professioni si basano su ruoli junior per formare i senior del futuro. Se quei ruoli vengono assorbiti dall’AI, chi formerà la prossima generazione di professionisti competenti? Per la PA italiana, che già soffre di un invecchiamento del personale e di difficoltà nel reclutare profili tecnici, questa non è una domanda astratta. È una crisi demografica e professionale che si sta stratificando su una crisi tecnologica.
Dai miei confronti con dirigenti e funzionari di enti locali negli ultimi mesi, emerge sempre lo stesso schema: c’è consapevolezza del cambiamento in corso, ma non c’è un framework per leggerlo. Si sa che l’AI cambia qualcosa. Non si sa esattamente cosa, né a che velocità, né con quali effetti collaterali sulle competenze del personale. Questo vuoto non è colpa dei singoli: è un problema strutturale di governance della conoscenza.
Governance dell’AI nella PA: il termostato che dovrebbe interessare i regolatori italiani
Tra le proposte più originali dell’agenda TAI ce n’è una che mi ha colpito in modo particolare, anche perché potrebbe sembrare fuori contesto per un documento tecnico-scientifico. Anthropic suggerisce che le aziende AI, in coordinamento con i governi, potrebbero definire delle “manopole” per settore, strumenti per controllare la velocità di diffusione dell’AI in domini specifici, in modo simile a come le banche centrali gestiscono i tassi di interesse.
È un’idea audace. Forse troppo per l’attuale stato della governance globale. Ma solleva una domanda che nel contesto italiano è già attuale: chi ha il mandato di decidere il ritmo di adozione dell’AI nella PA? AgID pubblica linee guida. Il Dipartimento per la Trasformazione Digitale coordina i piani nazionali. ANAC vigila sulla correttezza delle procedure. Ma nessuno di questi soggetti ha un mandato esplicito per valutare: stiamo andando troppo veloce in questo settore? Stiamo andando troppo piano in quest’altro?
Il Piano Triennale 2024-2026 è uno strumento di programmazione tecnica, non di governance del ritmo di cambiamento. L’AI Act europeo fissa regole per i sistemi ad alto rischio, ma non definisce velocità di diffusione settoriale. Rimane un vuoto che, se non viene colmato con strumenti deliberati, viene riempito dal mercato. E il mercato, per definizione, non ottimizza per la resilienza delle istituzioni pubbliche.
Cosa dovrebbe fare la PA adesso: alcune direzioni concrete
Non pretendo di avere un piano completo. Ma leggere l’agenda di TAI con gli occhi di chi lavora con gli enti locali italiani suggerisce alcune direzioni che mi sembrano praticabili anche nel breve periodo.
Primo: smettere di trattare l’AI come un progetto IT
Finché l’AI resta confinata al dipartimento informatico o al CED, non si governa. Si gestisce. Governare l’AI nella PA richiede che i vertici politici e amministrativi capiscano la portata del cambiamento, non solo i dettagli tecnici. Significa portare il tema nei consigli di amministrazione dei Comuni, nelle conferenze dei dirigenti, nelle conversazioni con i segretari comunali. Non come allarme, ma come fatto strutturale da leggere.
Secondo: costruire capacità di lettura prospettica interna
Il Responsabile per la Transizione al Digitale non può fare tutto. Ma può diventare il punto di raccordo per chi, nell’ente, ha il compito di leggere cosa sta succedendo all’esterno e tradurlo in implicazioni interne. Means monitorare fonti come l’Anthropic Economic Index quando sarà disponibile, le ricerche di TAI, le analisi dell’OCSE sull’AI e il lavoro pubblico. Non per forza con un ufficio dedicato, ma con un processo deliberato di acquisizione e condivisione della conoscenza.
Terzo: investire nella qualità del pensiero critico, non solo nell’uso degli strumenti
La formazione sull’AI nella PA tende a concentrarsi sul come si usa uno strumento. Come si scrive un prompt. Come si usa Copilot in Word. Come si automatizza un flusso con i nuovi strumenti integrati nei software gestionali. Questo è necessario ma non sufficiente. Il tema che TAI solleva, l’erosione del pensiero critico, è reale e misurabile. Formare i dipendenti pubblici a valutare criticamente l’output dell’AI, a riconoscerne i limiti, a mantenere il controllo sostanziale e non solo formale delle decisioni, è la differenza tra una PA che usa l’AI e una PA che ne diventa dipendente.
Quarto: dialogare con i Consorzi e le aggregazioni territoriali per costruire osservatori condivisi
Un Comune di 5.000 abitanti non può permettersi un ufficio di intelligence tecnologica. Ma dieci Comuni aggregati in un consorzio, o in una Unione dei Comuni, possono condividere questa funzione. I Consorzi IT del territorio, quelli che aggregano decine di enti, hanno la scala per costruire una capacità di lettura prospettica che il singolo ente non ha. È un ruolo che alcuni di questi soggetti stanno cominciando a esplorare, ma che potrebbe essere esplicitamente disegnato come servizio strutturale.
Perché il documento di Anthropic cambia il dibattito sull’intelligenza artificiale
C’è qualcosa di insolito in quello che Anthropic ha fatto il 7 maggio 2026. Nel mondo delle grandi aziende tecnologiche, parlare pubblicamente dei rischi che le proprie tecnologie possono generare è sempre una mossa calcolata. Si fa quando si pensa che la narrazione del rischio faccia meno danni del silenzio. O quando si decide, strategicamente, di costruire un brand su un posizionamento di responsabilità.
Tutto questo vale anche per TAI. Ma anche un documento di marketing illuminato rimane un documento vero se contiene domande vere. E le domande di TAI sono vere. Cosa succede all’epistemologia collettiva quando tutti consultano le stesse poche AI? Chi decide la velocità di diffusione dell’AI per settore? Come si governa un sistema che comincia ad accelerare se stesso? Sono domande senza risposta certa. Ma sono le domande giuste.
Per la PA italiana, il punto non è aspettare che TAI pubblichi le proprie ricerche e poi leggerle. Il punto è iniziare adesso a costruire la capacità istituzionale per capirle, contestualizzarle e tradurle in azione. Perché quando quella ricerca arriverà, e arriverà presto, il dibattito sarà già avanzato. E chi non si sarà preparato si troverà a rincorrere, ancora una volta, un cambiamento che lo ha già attraversato.
Jack Clark ha scritto che trovare soluzioni ai problemi in campo sanitario, climatico, energetico richiede di dirigere questa tecnologia verso domini in cui è davvero difficile fare progressi. Non è retorica vuota. È un’indicazione di direzione. La PA italiana, che gestisce i servizi di salute, territorio, mobilità e welfare di milioni di cittadini, è uno di quei domini. La domanda è: sarà pronta a fare la sua parte, o starà ancora pensando a come fare quando l’AI avrà già cambiato le regole del gioco?













