La notizia non è che la CIA voglia usare l’intelligenza artificiale. Quello, ormai, sarebbe quasi scontato. Il punto vero è un altro, come riportato da Politico: l’agenzia sta iniziando a innestare l’AI dentro una delle sue funzioni più delicate, cioè la produzione di analisi sulle intenzioni, le capacità e le mosse degli attori stranieri. Non si tratta più, dunque, di aggiungere un software a supporto degli analisti, ma di modificare progressivamente l’architettura stessa con cui l’intelligence americana raccoglie, ordina, interpreta e trasforma l’informazione in giudizio strategico.
Indice degli argomenti
Dalla sperimentazione all’industrializzazione dell’analisi
Uno degli aspetti più rilevanti della vicenda è il numero dei trecento progetti AI, che descrivono non certo una curiosità organizzativa, ma una sorta di processo di industrializzazione. Quando un’agenzia dichiara di avere sperimentato centinaia di “use case”, non sta più valutando se l’intelligenza artificiale sia utile o meno, ma sta selezionando quali funzioni debbano essere assorbite in modo strutturale, quali vadano scartate, quali richiedano ulteriori livelli di sicurezza, quali possano transitare da prototipi a capacità operative. La differenza è sostanziale. La fase esplorativa indaga sulle possibilità; la fase industriale cerca integrazione, scalabilità, interoperabilità, affidabilità e standardizzazione.
L’altro elemento che merita particolare attenzione è la formula degli “AI coworkers”, che assume la connotazione di una scelta lessicale capace di fotografare bene la direzione in atto: non quella di una AI vista come sostituto dell’analista, ma come collega funzionale, integrato nei workflow, capace di assolvere attività preliminari, ripetitive e gravose, ma anche di proporre inferenze, suggerire pattern, evidenziare anomalie, confrontare serie temporali, sintetizzare materiali, supportare la redazione di giudizi chiave.
Beninteso, l’analista, in questa configurazione, non scompare, ma cambia mestiere. Lavora meno come “lettore di documenti” e più come supervisore epistemico del processo, poiché valuta la bontà della macchina, stressa le sue conclusioni, intercetta errori, contesta correlazioni apparenti, distingue il plausibile dal probabile. Forse è proprio questo il passaggio più delicato da comprendere. Nei dibattiti divulgativi si continua spesso a ragionare in termini binari: o la macchina sostituisce l’uomo, o l’uomo resta centrale e quindi nulla cambia davvero. In verità, la realtà è molto più complessa.
L’intelligence aumentata non elimina il fattore umano, ma ne ridefinisce radicalmente il valore. Prima, il vantaggio comparativo dell’analista risiedeva spesso nella capacità di leggere molto, ricordare molto, collegare molto. Domani, una parte crescente di quel vantaggio sarà assorbita da sistemi in grado di trattare simultaneamente testi, immagini satellitari, segnali, traduzioni, dati aperti e riservati. Il valore dell’analista si sposterà allora sulla capacità di impostare domande corrette, definire criteri di validazione, contestualizzare culturalmente un output, riconoscere una distorsione di modello, individuare il punto in cui l’automazione produce un’apparenza di coerenza ma non una vera comprensione.
Il contesto politico-strategico: l’AI come priorità geopolitica
La mossa della CIA non nasce nel vuoto, bensì va collocata dentro una cornice politica ben precisa. In un’intervista ad Axios del maggio 2025, Michael Ellis, vicedirettore della CIA, ha indicato la Cina come priorità strategica assoluta e ha insistito sulla necessità per gli Stati Uniti di mantenere un vantaggio tecnologico decisivo in aree come AI, semiconduttori, biotecnologie e batterie. In quella stessa intervista ha sottolineato anche il bisogno di più profili STEM all’interno dell’agenzia, segnalando che l’evoluzione del rischio richiede un’evoluzione del capitale umano.
Questo dato è fondamentale, perché consente di comprendere come la questione non vada vista come innovazione amministrativa, ma come competizione di potenza. L’AI, per Washington, non è semplicemente una tecnologia abilitante; è un moltiplicatore della superiorità strategica. E nel campo dell’intelligence lo è forse più che altrove, poiché consente di comprimere in maniera sostanziale il tempo che separa raccolta, analisi e decisione.
Chi riduce quel tempo, senza collassare sulla qualità del giudizio, dispone di un vantaggio enorme, perché può individuare rapidamente segnali di preparazione militare, intercettare anticipatamente campagne di influenza, collegare attività cyber e posture diplomatiche, riconoscere con anticipo la convergenza tra eventi apparentemente dispersi. Ed è qui che si tocca il nocciolo duro del potere contemporaneo.
Nel Novecento il vantaggio derivava spesso dal possesso esclusivo di fonti, sensori, piattaforme, archivi. Oggi, in molti contesti, il problema non è la scarsità dell’informazione, ma l’eccesso. Di conseguenza, la superiorità non dipende più solo da cosa si raccoglie, ma da come si organizza ciò che si raccoglie. L’AI è precisamente questo: un’infrastruttura di organizzazione, sintesi, prioritizzazione e inferenza. La guerra tra agenzie di intelligence, Stati e apparati di sicurezza si sposta allora dall’accumulazione di dati alla capacità di estrarne senso operativo con più precisione e meno latenza.
Dalla raccolta al giudizio: dove l’AI cambia davvero il ciclo intelligence
Purtuttavia, per comprendere la portata della trasformazione bisogna tornare alle basi, ovvero al ciclo di intelligence. Semplificando, esso si articola in orientamento, raccolta, elaborazione, analisi e diffusione. Ognuna di queste fasi può essere oggi investita dall’intelligenza artificiale, ma non allo stesso modo.
Nella raccolta, l’AI permette una selezione più efficiente dei flussi rilevanti. Può classificare immagini, riconoscere oggetti, tradurre automaticamente testi in molte lingue, fare entity extraction, clustering di fonti, ranking di affidabilità preliminare, deduplicazione di contenuti. Può individuare topic emergenti su grandi masse di dati aperti o rilevare anomalie di traffico, comportamento e comunicazione.
Nell’elaborazione, l’AI accelera pulizia, normalizzazione e correlazione. Riduce il lavoro di pre-processing, che spesso assorbe molto tempo e personale corposo e specializzato, mette in relazione dati provenienti da ecosistemi diversi e li rende interrogabili in forma più utile. Nell’ambiente dell’intelligence questo significa poter portare dentro un medesimo contesto operativo elementi provenienti da SIGINT, GEOINT, OSINT, VHUMINT, documenti classificati, archivi storici, report precedenti, flussi multilingua, social media, notizie economiche e trend logistici.
Nell’analisi vera e propria, però, il cambiamento è ancora più profondo. Qui l’AI non serve solo a vedere più dati, ma serve a costruire ipotesi, a testarle, a stressarle. Un sistema ben progettato può proporre spiegazioni alternative, cercare evidenze dissonanti, identificare lacune informative, assegnare gradi di supporto alle tesi, suggerire comparazioni con casi passati, evidenziare divergenze tra narrativa ufficiale e indicatori oggettivi.
È qui che la formula del cosiddetto “AI coworker” acquista senso, perché non rappresenta semplicemente un motore di ricerca più potente, ma un collaboratore di ragionamento, pur con tutti i limiti di un collaboratore non umano. Nella diffusione, infine, l’AI rende adattabili gli output: briefing sintetici per il decisore politico, report dettagliati per l’analista senior, dashboard dinamiche per il monitoraggio continuativo, alert automatici per eventi soglia, simulazioni evolutive per scenari di crisi. Il risultato è una intelligence più “nervosa”, più continua, meno legata alla scansione periodica del report statico.
Il primo report generato con AI: svolta simbolica e problema epistemologico
Il riferimento al primo report di intelligence generato con intelligenza artificiale ha una forte valenza simbolica. Non perché segni l’inizio di una sostituzione, ma perché segna il superamento di una barriera culturale. Finché l’AI resta un supporto invisibile, la sua presenza può essere considerata ancillare. Quando invece entra nel prodotto finale, anche solo in una fase embrionale o supervisionata, essa smette di essere “retroscena” tecnologico e diventa coautrice della conoscenza organizzativa.
È un passaggio che pone interrogativi enormi sulla validazione del giudizio. Un report di intelligence non è un testo qualsiasi e non vale certo per lo stile o la sua fluidità. Al contrario, vale per la robustezza delle inferenze, per la qualità delle fonti, per la chiarezza delle incertezze, per la possibilità di audit, per la coerenza logica, per la capacità di distinguere fatti, interpretazioni e scenari. Se una componente AI contribuisce alla stesura o alla costruzione del report, allora occorre chiedersi: quali dati ha utilizzato? quali fonti ha pesato di più? quali connessioni ha inferito? quali passaggi sono stati verificati? quali porzioni del ragionamento sono riproducibili? dove si collocano gli elementi non spiegabili o scarsamente tracciabili?
Qui l’intelligence incontra il problema classico dell’AI contemporanea, ovvero l’asimmetria tra performance e spiegabilità. Un sistema può essere utile, rapido, persino impressionante, ma in un ambiente ad alta criticità istituzionale non basta “funzionare”. Deve poter essere contestato, revisionato, sottoposto ad accountability. Per questo è interessante leggere la mossa della CIA alla luce del quadro federale più ampio.
Il memorandum OMB M-25-21, emanato dalla Casa Bianca nel 2025, chiede alle agenzie di promuovere un’adozione responsabile dell’AI, con salvaguardie per privacy, diritti civili e libertà civili, e prescrive pratiche minime di risk management per gli usi ad alto impatto; lo stesso testo richiede la presenza di Chief AI Officer e reporting sistematico sui casi d’uso. In parallelo, il memorandum OMB M-25-22 sulla procurement governance dell’AI sottolinea la necessità di team cross-funzionali, valutazione dei rischi lungo il ciclo di acquisizione, documentazione, monitoraggio delle performance, attenzione a trasparenza ed explainability, oltre alla creazione di repository condivisi di best practice per l’acquisizione pubblica di sistemi AI.
Questo significa che la trasformazione della CIA, pur avendo ovviamente specificità di sicurezza nazionale e porzioni coperte da segretezza, non si muove in un deserto normativo. Si inserisce in un ecosistema istituzionale statunitense che considera l’AI una capacità da accelerare ma anche da governare. Il punto, naturalmente, è che nella comunità intelligence l’esigenza di governance convive con una naturale opacità. E proprio questa convivenza è uno dei nodi più delicati del prossimo decennio.
L’intelligence non diventa soltanto più veloce, ma cambia natura
L’errore più comune è pensare che l’AI possa servire unicamente ad accelerare i processi. Certo, l’accelerazione conta, ma ridurre tempi di traduzione, triage, classificazione, confronto, sintesi e redazione produce solo vantaggi immediati. L’impatto più serio riguarda la natura stessa del lavoro analitico.
L’analisi di intelligence tradizionale, per quanto sofisticata, è sempre stata in parte sequenziale. Un team legge, seleziona, discute, confronta, scrive, rivede. L’AI tende a rendere simultaneo ciò che prima era sequenziale: può leggere e comparare migliaia di documenti in parallelo; può far emergere convergenze o divergenze tra fonti in tempi minimi; può proporre una prima tassonomia di scenari quasi in tempo reale e può reinterrogare archivi storici mentre integra nuovi flussi.
In sostanza, l’analisi smette di essere una catena di passaggi e diventa un ambiente dinamico di interrogazione continua. Ma questo cambiamento cosa può produrre? Sostanzialmente due conseguenze: la prima è positiva, perché aumenta la capacità di “vedere” con netto anticipo; la seconda è ambivalente, perché aumenta il rischio di affidarsi troppo a ciò che il sistema sa rendere visibile. In altri termini, l’AI amplia il campo del percepibile, ma allo stesso tempo lo filtra: ogni modello seleziona, ogni interfaccia privilegia, ogni sistema di ranking incorpora criteri, e ogni criterio può far emergere alcuni segnali e lasciarne in ombra altri. L’intelligence del futuro, quindi, dovrà imparare a non considerare l’output della macchina come “la realtà meglio organizzata”, bensì come una rappresentazione utile ma sempre parziale della realtà.
La sfida non è solo tecnica, ma è anche cognitiva
L’adozione dell’AI nelle piattaforme analitiche ha una dimensione tecnica, ma è soprattutto cognitiva. Chi lavora nell’intelligence sa che uno dei pericoli più insidiosi non è la mancanza di dati, ma il consolidarsi di una lettura sbagliata che appare internamente coerente. Bias di conferma, mirror imaging, groupthink, eccesso di fiducia in alcune fonti, letture culturalmente povere, sono solo alcuni dei problemi che esistevano prima dell’avvento dell’AI, e non scompariranno con essa. Anzi, in certi casi potrebbero rafforzarsi.
Perché? Perché i modelli generativi hanno una straordinaria capacità di produrre testi plausibili, coerenti, ben strutturati. Questo può creare nell’analista di intelligence un’illusione di solidità analitica. In altri termini, un’ipotesi fragile, se ben verbalizzata, può apparire più robusta di quanto sia, un nesso causale non provato può sembrare convincente, e un riassunto elegante può nascondere una selezione distorta delle evidenze.
In un contesto politico-operativo, dove il decisore spesso legge sotto pressione, la forma dell’argomentazione pesa. Ecco perché il rischio non è solo l’errore tecnico della macchina, ma l’estetica dell’errore: il modo in cui la macchina può dare alla cattiva analisi una forma seducente. Di conseguenza, la vera partita sarà addestrare gli analisti non soltanto a usare strumenti AI, ma a resistere al loro fascino epistemico. Serviranno competenze di prompt design, certo, ma ancora di più serviranno competenze di contestazione del modello, verifica retrospettiva, stress test delle conclusioni, auditing del ragionamento. L’intelligence analyst del futuro dovrà sapere quando fidarsi della macchina e quando sospettarne la linearità. In conclusione, dovrà saper leggere il silenzio del sistema, non solo la sua produttività.
L’AI come infrastruttura classificata
Un altro aspetto spesso trascurato nei commenti superficiali risiede nel fatto che la CIA non sta parlando semplicemente di utilizzare l’AI pubblica che tutti conoscono. La formulazione emersa dalle fonti giornalistiche richiama una versione classificata, o comunque sicura e integrata, di generative AI per l’ambiente analitico. Questo implica temi cruciali di architettura, riconducibili all’isolamento dei dati, agli ambienti “classified cloud”, alla gestione dei modelli in contesti segregati, al controllo della supply chain software, alla sicurezza del modello, alla protezione da data poisoning, al logging, alla tracciabilità, alle policy di accesso e alla segmentazione per livello di classificazione.
Il comunicato ODNI del 2026 sul più ampio sforzo di modernizzazione cyber dell’Intelligence Community è eloquente: l’ufficio del Direttore dell’Intelligence Nazionale sta sviluppando framework, governance e standard per accelerare l’adozione dell’AI nella cybersecurity e in altre tecnologie critiche, oltre a puntare sull’interoperabilità tra agenzie e sull’uso congiunto di cloud commerciali classificati.
Questa è una notizia fondamentale perché sposta l’attenzione dal modello alla piattaforma. Non basta avere un algoritmo potente, ma occorre collocarlo in una base infrastrutturale sicura, condivisibile entro limiti precisi, governabile, auditabile, interoperabile. L’AI per l’intelligence non è un’applicazione: è un ecosistema. E la vera differenza la farà chi sarà in grado di costruire questo ecosistema senza compromettere segretezza, compartimentazione e integrità dei dati.
L’elemento cinese come stimolo alla velocità e al senso di urgenza
Per capire il livello di urgenza percepito da Washington, bisogna tornare ancora una volta al riferimento costante alla Cina. La logica è semplice: se Pechino, come sembra, riesce a fondere massa di dati, capacità industriale, apparato statale, tolleranza politica al rischio e spinta all’adozione di AI in ambiti dual use, allora gli Stati Uniti non possono permettersi una lentezza burocratica incompatibile con la competizione. La mossa della CIA va anche letta in questa chiave.
Non si tratta dell’ingresso della modernizzazione nella sicurezza nazionale, ma della securitizzazione definitiva della modernizzazione tecnologica. In questo senso, l’AI nell’intelligence è l’equivalente di ciò che, in altri periodi, furono la superiorità satellitare, la crittografia avanzata, la sensoristica strategica o il dominio dello spettro informativo. Solo che oggi il vantaggio non si gioca più soltanto sull’hardware o sulla rete di raccolta, ma sulla fusione intelligente di materiali eterogenei. E qui l’AI diventa la grammatica stessa della superiorità.
Uno dei paradossi più interessanti è che l’automazione analitica non riduce necessariamente il valore della HUMINT; anzi, secondo un articolo pubblicato dalla CIA stessa nella rivista Studies in Intelligence del marzo 2026, mentre l’AI trasformerà profondamente l’intelligence, la HUMINT potrebbe persino crescere d’importanza. Il testo sostiene che l’AI renderà più economica e accessibile la raccolta tecnica di alta qualità, ma proprio per questo accrescerà il valore marginale della raccolta umana; inoltre, l’AI “sovraccaricherà” disinformazione e fabbricazione di contenuti finalizzati alla manipolazione psicologica e comportamentale, rendendo ancora più centrale la capacità della HUMINT di costruire nel tempo affidabilità delle fonti e di corroborare la raccolta tecnica. La stessa riflessione aggiunge che, se l’AI eroderà la sicurezza delle comunicazioni elettroniche, tecniche di tradecraft antiche come “dead drops” e “brush passes” potrebbero tornare rilevanti.
È una tesi molto importante perché corregge una narrazione povera e deterministica, molto in voga negli ultimi tempi. L’AI non produce automaticamente la morte delle forme classiche di intelligence, ma piuttosto una loro ricollocazione. Se aumenta la quantità di informazione sintetica, manipolata, artificiale, allora la fonte umana affidabile diventa ancora più preziosa, e se la comunicazione digitale è più vulnerabile, il contatto discreto, fisico, verificabile, torna a essere competitivo. In altri termini, se la macchina amplia le possibilità di falsificazione, la relazione umana diventa un dispositivo di autenticazione.
Questo paradosso andrebbe meditato anche in Europa. Da anni, il discorso pubblico sull’innovazione oscilla tra due caricature: il “tecnosoluzionismo”, che immagina la macchina come soluzione totale, e il tradizionalismo, che la considera un corpo estraneo rispetto ai mestieri profondi della sicurezza. In realtà, i sistemi più maturi tenderanno a combinare automazione intensiva e ritorno selettivo alle competenze umane ad alta fiduciabilità. Non meno persone, dunque, ma persone diverse, più tecniche e al tempo stesso più addestrate a riconoscere l’autenticità nel rumore artificiale.
Dalla lettura dei testi alla fusione multimodale
Altro elemento decisivo della trasformazione è quello che riguarda la fusione multimodale. Negli ultimi anni, molte piattaforme AI applicate alla sicurezza si sono concentrate su testo, lingua, ricerca documentale, classificazione semantica. Oggi il salto è di ben altro genere e interessa l’integrazione di testo, immagini, video, geolocalizzazione, sequenze temporali, pattern comunicativi e, in particolare, segnali economici.
In questo scenario, la promessa dello sviluppo di “piattaforme analitiche” dotate di AI diventa davvero rivoluzionaria. Un paper pubblicato su arXiv nel 2025, Governing Automated Strategic Intelligence, osserva che i modelli multimodali sembrano avviati a poter automatizzare una parte crescente dell’analisi strategica, storicamente svolta da esseri umani, fondendo immagini satellitari, dati di localizzazione, record social, testi e documenti in un sistema interrogabile unitariamente. Il paper usa perfino la suggestiva formula di un Paese dotato di “CIA analysts in a data-center”, a indicare un’intelligenza strategica resa sempre più scalabile dal software.
Naturalmente, un paper accademico non è una policy operativa, ma il punto cruciale risiede nel fatto che la ricerca e la prassi istituzionale stanno convergendo. Da un lato le agenzie costruiscono piattaforme dove l’AI diventa “collega”, dall’altro il mondo della ricerca inizia a concettualizzare l’analisi strategica come funzione sempre più automatizzabile, almeno in alcune sue componenti. Nel mezzo risiedono i classici problemi riconducibili alla governance, alla sicurezza, all’affidabilità, ma la traiettoria è chiara e definita.
Se mettiamo insieme tutti questi elementi, emerge una nuova divisione del lavoro. Alla macchina vengono progressivamente affidati:
- la lettura estensiva;
- la comparazione massiva;
- la sintesi preliminare;
- il recupero cross-archivio;
- la traduzione;
- l’estrazione di entità, relazioni, pattern;
- la produzione di prime bozze e possibili scenari;
- l’allerta su anomalie e cambiamenti.
All’umano restano, e anzi si rafforzano:
- la definizione della domanda intelligence;
- la comprensione del contesto politico-culturale;
- la valutazione delle intenzioni dell’avversario;
- l’interpretazione delle ambiguità;
- la gestione dei livelli di confidenza;
- la verifica di coerenza epistemica;
- la responsabilità finale del giudizio;
- la lettura delle implicazioni strategiche.
Va tuttavia osservato che tale suddivisione non va considerata come un perimetro invalicabile. Più i modelli miglioreranno, più la frontiera si sposterà. Il rischio, allora, sarà duplice: da una parte, affidare troppo all’AI compiti che richiedono profondità situazionale e giudizio umano; dall’altra, lasciare l’umano confinato a una supervisione puramente formale, che ratifica senza davvero controllare. Il famoso concetto di “human in the loop” diventa serio solo se l’umano possiede tempo, competenze e autorità per contestare la macchina, altrimenti si trasforma in rituale burocratico.
Il problema delle fonti contaminate
Come abbiamo potuto comprendere, nell’intelligence il dato non è mai neutro, ma è raccolto, manipolato, filtrato, classificato, a volte deliberatamente avvelenato dall’avversario. Ecco perché l’AI, se da un lato è capace di trattare enormi quantità di materiale, dall’altro è particolarmente esposta al rischio di contaminazione cognitiva attraverso dati corrotti, sintetici o ingannevoli.
Sia ben chiaro, non si tratta semplicemente delle note “allucinazioni” dei modelli, ma di qualcosa che assume carattere strategico. Data poisoning, prompt injection, documenti costruiti per orientare sistemi di sintesi, campagne coordinate per alterare il panorama informativo che il modello considera rilevante sono elementi che per l’intelligence rappresentano nodi nevralgici. Se il modello diventa parte della catena di costruzione del giudizio, allora attaccare il modello o i suoi dati di contesto equivale, in certa misura, ad attaccare il processo decisionale.
Non è un rischio teorico, ma è la naturale estensione del conflitto informativo nel tempo dell’AI. L’avversario non mira più soltanto a ingannare l’analista umano, ma punta a inquinare il sistema che assiste l’analista, sapendo che quel sistema prestruttura la percezione del problema. Ne deriva che la cyber intelligence, la model security e la data governance non saranno funzioni ancillari ma componenti centrali della nuova intelligence aumentata. E questo spiega perché l’ODNI colleghi espressamente accelerazione dell’AI e modernizzazione cyber della Intelligence Community.
Il lato organizzativo dell’intelligence del futuro: servono nuovi mestieri
Quando Michael Ellis parla della necessità di più profili STEM, sta indicando una trasformazione del personale, non solo delle piattaforme. Le agenzie avranno bisogno di analisti ibridi, capaci di lavorare con data scientist, ingegneri ML, esperti di sicurezza del modello, specialisti di knowledge graph, linguisti computazionali, architetti cloud classificati. Ma avranno anche bisogno di dirigenti in grado di comprendere abbastanza la tecnologia da governarla senza delegare in bianco.
Il rischio, altrimenti, è creare due caste parallele: da una parte i tecnici che controllano davvero l’infrastruttura, dall’altra gli analisti tradizionali che ne usano i risultati senza comprenderne fino in fondo le condizioni di validità. Sarebbe un errore gravissimo, perché sposterebbe il potere epistemico fuori dall’analisi e dentro la tecnica. L’intelligence, invece, deve evitare che il nucleo del giudizio venga sequestrato da chi possiede il linguaggio del sistema ma non necessariamente la sensibilità strategica.
Per questo il punto non è soltanto assumere più tecnici, ma far nascere figure ponte, ovvero nuovi analisti capaci di leggere un report di performance di modello e ingegneri capaci di capire che un output perfettamente coerente dal punto di vista matematico può essere strategicamente irrilevante o fuorviante. La vera superiorità non nascerà dai laboratori isolati, ma dalla qualità dell’integrazione culturale tra mondi professionali diversi.
L’illusione della neutralità algoritmica
C’è un altro rischio, spesso taciuto quando si parla di AI in ambito di intelligence: l’illusione che il modello, proprio perché computazionale, sia meno ideologico del ragionamento umano. È una tentazione forte, soprattutto in strutture che vogliono mostrarsi “evidence-based”. Ma ogni AI incorpora diverse assunzioni, ad esempio su quali dati contano, quali relazioni meritano attenzione, quali categorie semantiche sono utili, quali soglie attivano alert, quali fonti sono reputate affidabili, quale linguaggio viene privilegiato.
In un’agenzia di intelligence, queste assunzioni non sono mai innocenti e possono produrre effetti geopolitici. Un sistema addestrato male su un’area linguistico-culturale può fraintendere segnali di radicalizzazione o di instabilità. Un motore di sintesi che privilegia alcune tipologie di indicatori economici può sottopesare fattori identitari, religiosi o tribali. Un ranking di credibilità delle fonti può riprodurre pregiudizi strutturali. In questo senso, l’AI non elimina il bias umano, ma rischia di congelarlo in infrastruttura.
La sfida non è quindi avere un’AI “neutra”, formula che non ha vero significato operativo, ma un’AI controllabile, contestabile, misurabile, migliorabile. In altri termini, una AI che non diventi oracolo, che non chiuda il mondo, ma lo riapra. Un elemento interessante del documento analizzato è quello del riferimento temporale al 2030. Potrebbe sembrare un orizzonte lontano, ma in verità non lo è.
Dire “entro il 2030” significa che la CIA non intende muoversi con il ritmo della sperimentazione accademica, bensì con quello della pianificazione strategica. Significa prevedere un percorso di consolidamento fatto di standard, interoperabilità, migrazione di workflow, formazione del personale, procurement, hardening di sicurezza, test progressivi e probabilmente ridefinizione dei processi interni. In altre parole, il 2030 non è la data in cui inizierà qualcosa; è la data entro cui ciò che è oggi in embrione dovrà diventare struttura funzionale. Questo cambia il modo in cui anche gli alleati e i partner dovrebbero leggere la questione. Non siamo davanti a una possibile tendenza, ma siamo già dentro una transizione programmata.
Cosa insegna questa vicenda all’Europa
Per il dibattito europeo, e italiano in particolare, la lezione è duplice. Primo: non basta parlare di AI in termini regolatori o etico-astratti, la dimensione di sicurezza nazionale e di intelligence non è una nicchia, ma uno dei campi in cui l’AI ridisegnerà più rapidamente la distribuzione del potere. Secondo: non si può affrontare questa trasformazione confidando solo nella normazione, poiché servono infrastrutture, talenti, ambienti sicuri di sperimentazione, capacità di procurement, interoperabilità tra apparati, cultura del dato, cultura della verifica.
L’Europa ha spesso un riflesso normativo eccellente, ma soffre una lentezza implementativa strutturale a dir poco ingestibile. Il rischio è che, mentre l’UE disciplina in modo sofisticato l’uso dell’AI, altri attori la incorporino nelle funzioni strategiche decisive. La vicenda CIA ci mostra che, almeno negli Stati Uniti, l’approccio sta diventando chiaro: accelerare sì, ma dentro un frame di governance, risk management e procurement dedicato. I memorandum OMB del 2025 vanno letti proprio così, come tentativo di evitare che l’adozione dell’AI nel settore pubblico sia caotica o irresponsabile, senza però sacrificarne la velocità.
Per l’Italia questo conduce a uno scenario che impone, nel comparto intelligence, l’assunzione di decisioni immediate che vadano non solo nella direzione della progettazione e realizzazione di piattaforme AI, ma anche verso l’adozione di sistemi di intelligenza artificiale analitici e aumentati, la formazione di analisti in grado di lavorare con modelli generativi e multimodali senza esserne colonizzati cognitivamente, lo sviluppo di capacità di audit, red teaming e verifica dell’output, l’adozione di tecniche e strumenti in grado di mettere in relazione cyber intelligence, procurement, cloud sovrano, classificazione dei dati e addestramento del personale. In altri termini, occorre superare sperimentazioni episodiche, spesso brillanti ma non ancora sistemiche.
Una cosa emerge con forza: l’adozione dell’AI da parte della CIA non è soltanto una questione di digitalizzazione, ma una vera e propria nuova dottrina. È l’idea di come si produrrà il vantaggio strategico nel prossimo millennio. È concezione della relazione tra uomo, macchina e decisione. È scelta di architettura istituzionale. È ridefinizione del mestiere dell’analista. È riscrittura del tempo dell’intelligence.
Da questo punto di vista, il nucleo centrale della questione non è se l’AI entrerà nelle agenzie di intelligence, poiché è già presente in esse. Il punto è quale teoria dell’intelligence accompagnerà questa integrazione. Esistono almeno tre modelli possibili. Il primo è il modello efficientista: l’AI serve a fare più in fretta ciò che già si faceva. È utile ma limitato. Il secondo è il modello sostitutivo: l’AI viene vista come progressiva rimpiazzante di molte competenze umane. È seducente ma pericoloso. Il terzo è il modello aumentativo-governato: l’AI viene inserita come infrastruttura di potenziamento, ma entro una disciplina forte di validazione, responsabilità, sicurezza, audit e centralità del giudizio umano. È probabilmente il modello verso cui gli Stati Uniti stanno cercando di muoversi, almeno sul piano dichiarativo e regolativo.
La democrazia davanti alla macchina strategica
Esiste infine una questione più profonda, che riguarda le democrazie liberali. Se l’intelligence diventa sempre più dipendente da sistemi AI complessi, chi controllerà davvero il processo? Come si manterrà l’equilibrio tra segretezza necessaria e accountability democratica? Come si eviterà che strumenti nati per accelerare l’analisi producano opacità aggiuntiva? Come si distinguerà l’uso legittimo di inferenze automatizzate dalla tentazione di delegare alla macchina ciò che in realtà richiede giudizio politico?
Sono domande enormi, ma proprio per questo motivo la vicenda CIA merita di essere analizzata con attenzione. Non riguarda solo una grande agenzia di intelligence statunitense, ma riguarda il futuro dell’analisi pubblica del rischio, il modo in cui gli Stati comprenderanno crisi e minacce, e la qualità stessa delle decisioni adottate in nome della sicurezza. L’intelligenza artificiale promette di offrire ai servizi un vantaggio straordinario, ovvero vedere di più, prima e meglio. Ma vedere di più non equivale automaticamente a capire meglio, e capire meglio non equivale automaticamente a decidere meglio.
Tra dato, inferenza e decisione esiste ancora uno spazio irriducibilmente umano, quello della responsabilità, della prudenza, dell’interpretazione, della cultura strategica. Se questo spazio verrà difeso, l’AI potrà davvero diventare la nuova alleata dell’intelligence. Se invece verrà svuotato, la macchina non sostituirà solo il lavoro, ma finirà per rimodellare silenziosamente il pensiero stesso delle istituzioni.
Cosa aspettarci
La notizia secondo cui la CIA punta a integrare l’AI in tutte le piattaforme analitiche entro il 2030 va letta per quello che è: il segnale di un cambio d’epoca. I trecento progetti testati, il primo report generato con AI, la spinta dell’ODNI verso standard comuni, i memorandum OMB sulla governance e sull’acquisizione responsabile, la riflessione interna della CIA sul rinnovato valore della HUMINT nell’era della disinformazione artificiale, sono tutti elementi che convergono verso un’unica evidenza: l’intelligence del futuro non sarà né interamente umana né semplicemente automatizzata. Sarà un sistema ibrido in cui la superiorità dipenderà dalla qualità dell’integrazione tra calcolo, sicurezza, metodo e giudizio.
Ecco allora il punto decisivo. Il vero discrimine non sarà chi possiederà più dati, né chi avrà il modello più brillante in laboratorio. Il vero discrimine sarà chi riuscirà a costruire un’intelligence aumentata capace di restare lucida anche quando la macchina produrrà velocità, abbondanza e seduzione cognitiva. La sfida, in fondo, non è introdurre l’intelligenza artificiale dentro l’intelligence. La sfida è evitare che, nel momento in cui la si introduce, sia l’intelligence a perdere intelligenza.













