Threat Intelligence Group

L’AI sfruttata da Stati nemici e criminali: perché il report Google preoccupa



Indirizzo copiato

Il report del Google Threat Intelligence Group mostra l’uso offensivo avanzato dell’IA: distillation attacks, phishing più credibile, malware assistito e primi test agentici. Ma la questione supera i threat actors: l’IA diventa protesi cognitiva. E come essere umani di carne e ossa siamo del tutto inadeguati difenderci dall’AI

Pubblicato il 13 feb 2026

Alessandro Curioni

Fondatore di DI.GI Academy, specializzato in Information Security & Cybersecurity – Data Protection



AI report google

Il Google Threat Intelligence Group ha pubblicato ieri un aggiornamento sull’adversarial use dell’intelligenza artificiale, documentando come attori statali e criminali stiano integrando i modelli generativi lungo tutto il ciclo di attacco.

l report analizza fenomeni come i “distillation attacks” contro i modelli, il phishing potenziato da LLM, lo sviluppo di malware assistito dall’AI e le prime sperimentazioni di agentic AI in ambito offensivo. Il documento offre così una fotografia operativa dettagliata dello stato dell’arte dell’AI nel panorama delle minacce globali.

Il report Google sulla minaccia AI

Quella di Google è un’ottima analisi operativa: come una radiografia fatta bene, con le ossa al posto giusto e le fratture evidenziate. Ci trovi dentro la distillation, cioè il furto “per interrogazione” dei modelli; il phishing aumentato, reso più credibile da una grammatica finalmente sobria e da un tono che non tradisce più l’accento; il malware AI-assisted, dove l’intelligenza artificiale non è il colpo di pistola ma il tornio che lavora i pezzi; e poi quell’agentic experimentation che oggi è ancora laboratorio, ma già odora di officina.

Oltre il report: l’onda dell’IA e la mareggiata

Tutto utile, tutto vero, ma confinato in un perimetro preciso: l’uso dell’AI da parte dei threat actors. È un’analisi che guarda l’onda e misura quanto è alta. Il rischio è che, a forza di guardare al singolo, ci si dimentichi della mareggiata.

Il punto non è soltanto chi usa l’intelligenza artificiale per attaccare, ma che cosa stiamo facendo quando la mettiamo al centro del nostro rapporto con il digitale. L’IA non è uno strumento tra gli altri, come un nuovo cacciavite nel cassetto: appartiene a quella famiglia di invenzioni protesiche, quelle che non si limitano ad aiutarci, ma ci “allungano”. Qualcuno potrebbe immaginare la ruota che ha esteso le gambe dell’uomo nel mondo fisico, così l’IA estende le nostre mani nel mondo digitale: non per spostarci, ma per manipolare.

Quando l’intelligenza artificiale nel digitale supera l’analogia della ruota

L’analogia con la ruota è potente ma essa ha esteso la nostra capacità di muoverci nel mondo fisico: ha reso più veloce ciò che già sapevamo fare, ha moltiplicato la distanza percorribile, ha accorciato le giornate. L’intelligenza artificiale, invece, estende la nostra capacità di manipolare il mondo simbolico-digitale: ci permette di intervenire su una realtà fatta di dati, codice, relazioni invisibili.

L’altra differenza fondamentale è che la ruota amplifica una capacità fisica già nostra. Senza camminiamo comunque; con viaggiamo meglio. È un potenziamento lineare. L’IA, invece, amplifica e in parte sostituisce una capacità cognitiva. Non si limita ad accelerare un gesto, ma interviene nel dominio del pensiero: scrive, sintetizza, traduce, analizza, propone soluzioni. Non ci aiuta soltanto a fare prima; talvolta fa al posto nostro.

Per questo, forse, l’analogia più corretta non è con la ruota, ma con la scrittura, che ha esternalizzato la memoria; con la stampa, che ha moltiplicato il pensiero; con il calcolo automatico, che ha liberato la mente da operazioni ripetitive; con quella che potremmo chiamare una macchina a vapore mentale, capace di trasformare l’energia dell’informazione in lavoro cognitivo. L’IA è una protesi cognitiva operativa, un meccanismo che agisce, intervenendo sui simboli, li combina, li trasforma e li restituisce già pronti per essere utilizzati.

In questo senso non è soltanto uno strumento, ma un intermediario attivo tra noi e il digitale. E quando l’intermediario diventa più competente di noi nella manipolazione di quella realtà, la tentazione della delega non è un rischio, piuttosto una conseguenza quasi inevitabile.

Biologia contro scala e velocità: l’intelligenza artificiale nel digitale come mediatore

Il punto forse più interessante, e certamente il più scomodo, riguarda poi la nostra inadeguatezza biologica. Non è un giudizio morale, è una constatazione evolutiva. Siamo organismi progettati dalla selezione naturale per sopravvivere in ambienti fisici limitati, non per navigare ecosistemi digitali sterminati.

Non percepiamo la scala. Davanti a un social network vediamo una pagina, qualche volto, una manciata di commenti. In realtà siamo esposti a platee di milioni, talvolta miliardi di nodi interconnessi. La nostra mente continua a ragionare in termini di villaggio, di piazza, di assemblea.

Non percepiamo la velocità. Un attacco informatico si propaga in millisecondi, una campagna di disinformazione attraversa continenti nel tempo di un caffè. Il nostro sistema nervoso, invece, è calibrato su tempi biologici: il battito, il passo, la reazione a un rumore improvviso nel bosco. Tra la percezione e l’azione, nel digitale, lo scarto è diventato infinitesimale; in noi resta umano, è lento.

Non percepiamo la simultaneità. Migliaia di processi avvengono nello stesso istante: transazioni, autenticazioni, scambi di dati, correlazioni invisibili. La nostra mente è sequenziale, narrativa, lineare, mentre il digitale viaggia in parallelo: noi raccontiamo storie; lui esegue istruzioni.

Soprattutto non percepiamo l’interconnessione sistemica. Un clic in un punto remoto della rete può generare effetti a cascata in settori che non immaginiamo neppure. La nostra intuizione è locale: vediamo il ramo, non l’intera foresta, e comunque una foresta è fatta di alberi reali, non di nodi logici. Il nostro sistema nervoso si è evoluto per le foreste, per i predatori, per piccoli gruppi sociali in cui era possibile conoscere quasi tutti per nome e non per reti globali con miliardi di connessioni, dove ogni interazione può essere archiviata, replicata, analizzata e sfruttata.

È in questa frattura tra biologia e digitale che l’intelligenza artificiale si inserisce come mediatore. Traduce la complessità in qualcosa che possiamo maneggiare: riassume, filtra, classifica, suggerisce, rendendoci “familiare” abitabile un ambiente che, altrimenti, ci sovrasterebbe.

Nel farlo non si limita a tradurre: agisce. Non solo interpreta dati, ma genera contenuti, propone decisioni, scrive codice, costruisce scenari, così la mediazione diventa operazione e l’assistenza si trasforma in delega e come tale, quando riguarda la nostra capacità di comprendere e intervenire, apre uno spazio in cui la responsabilità rischia di diventare evanescente.

Delega e responsabilità: il cortocircuito della macchina intermediaria

La delega è sempre stata rilevante a partire dalla lancia di selce e mette a nudo una distinzione antica quanto l’umanità. Con la lancia l’atto è meccanico: un’estensione del braccio, una forza applicata, un impatto. L’intenzione, però, resta interamente umana. Nessuno ha mai pensato di processare una punta di selce per omicidio.

Con l’intelligenza artificiale il quadro si complica. L’intenzione resta umana, siamo noi a formulare la richiesta, a stabilire l’obiettivo, ma l’atto è delegato a un sistema che introduce una forma di autonomia funzionale. Non si tratta di autonomia morale: l’IA non decide cosa sia giusto o sbagliato, tuttavia possiede autonomia operativa: elabora, combina, sceglie tra alternative, produce un risultato senza che noi ne seguiamo passo per passo il processo.

In questo nasce il cortocircuito psicologico: se la macchina ha prodotto il risultato, la responsabilità sembra diluirsi. “Non l’ho scritto io, l’ha generato il sistema.” “Non ho deciso io il target, l’ha individuato l’algoritmo.” “Non ho scelto io il contenuto, l’ha suggerito il modello.” La delega diventa una zona cuscinetto tra intenzione e conseguenza.

Questo meccanismo non è nuovo. Ogni protesi ha generato una zona grigia etica. L’arco ha aumentato la distanza tra chi colpisce e chi viene colpito; la stampa ha moltiplicato la portata di un’idea oltre la responsabilità immediata dell’autore; l’industria ha frammentato il gesto in catene di montaggio dove nessuno si sente interamente responsabile del prodotto finale.

L’IA compie un passo ulteriore perché interviene nel dominio della decisione operativa. Non si limita ad amplificare la forza o la diffusione: entra nel processo cognitivo. Quando la protesi tocca il pensiero, la tentazione di attribuirle una parte della colpa o del merito diventa quasi irresistibile. È una scorciatoia mentale: se l’azione passa attraverso un sistema complesso che non comprendiamo fino in fondo, allora possiamo convincerci che una parte della responsabilità si sia persa in quella complessità.

Possiamo limitare l’intelligenza artificiale nel digitale: teoria, tecnica, politica

Resta, però, la questione centrale. Possiamo limitare un’invenzione di questo tipo? Si potrebbe obiettare che, a differenza della realtà fisica, quella digitale è una nostra creatura. Non l’abbiamo trovata in natura: l’abbiamo progettata, cablata, programmata e in quanto prodotto umano dovremmo poterla governare, in teoria.

La storia delle tecnologie complesse, invece, racconta un’altra dinamica. Il digitale è creato da noi, vero, ma una volta emerso evolve secondo logiche sistemiche. Interagisce con interessi economici, con equilibri geopolitici, con culture diverse, con incentivi competitivi. Genera effetti non intenzionali e produce ecosistemi auto-organizzati che nessun singolo attore controlla davvero.

Questa creatura ha superato la fase infantile e non è più il laboratorio universitario degli anni Settanta, né la rete ingenua degli anni Novanta. Si tratta di un’infrastruttura globale sulla quale si reggono finanza, comunicazione, sanità, difesa e l’intelligenza artificiale non fa che accelerare questa maturazione, aggiungendo uno strato cognitivo a un sistema già planetario.

Possiamo limitarla? Teoricamente sì: le regole si scrivono, le architetture si progettano, i vincoli si implementano. Tecnicamente forse: ogni limite è aggirabile, ma ogni barriera rallenta. Politicamente molto meno: gli Stati competono, le aziende competono, le comunità competono. Culturalmente quasi per nulla: l’innovazione è percepita come progresso, e il progresso lo consideriamo un bene in sé.

Ogni limite imposto genera incentivi a eluderlo: un Paese rallenta, l’altro accelera; un’azienda si trattiene, mentre un concorrente forza la mano. La tecnica si muove sempre in tensione tra controllo e superamento del controllo e lo abbiamo visto con la stampa, con la polvere da sparo, con l’energia nucleare, con Internet stessa. Per questo la domanda non è soltanto se possiamo limitare l’intelligenza artificiale, ma se siamo disposti a sopportare il costo collettivo del limite. La storia, da millenni, insegna che l’umanità è molto più brava a inventare che a trattenersi.

Controllo locale ed effetti sistemici: perché la mareggiata resta

Il punto di questa tesi è che non si tratta di un discorso contro l’intelligenza artificiale e neppure un atto di accusa alla tecnologia, ma una critica a un’illusione, quella avere il controllo. È una narrativa rassicurante: progettiamo, sviluppiamo, regolamentiamo. Decidiamo noi.

In parte è vero. Controlliamo la progettazione locale: il codice che scriviamo, le architetture che disegniamo, le policy che definiamo. Possiamo rafforzare i modelli, chiudere account malevoli, migliorare i classificatori e intervenire sui dettagli. Quello che non controlliamo sono gli effetti sistemici: l’adozione globale, la competizione tra potenze, l’uso imprevisto, la reinterpretazione culturale, l’emergere di ecosistemi paralleli.

Questo è il risultato della somma delle deleghe individuali che, aggregate, cambiano il rapporto tra l’uomo e la sua creatura. La tecnologia non si limita a eseguire ciò che abbiamo previsto: interagisce, si diffonde, si ibrida, genera conseguenze che nessun progettista aveva in mente. L’intelligenza artificiale, come ogni grande invenzione protesica, aumenta la potenza prima di aumentare la consapevolezza.

Storia antica anche questa: già successo con il fuoco, che ha dato calore e distruzione; con il ferro, che ha arato la terra e sterminato popoli; con la stampa, che ha liberato il pensiero e incendiato guerre religiose; con l’energia atomica, che ha cancellato intere città per poi illuminarle. Ogni volta abbiamo scoperto “dopo” quanto fosse grande ciò che avevamo messo in moto.

Forse la vera questione non è se l’IA verrà usata per il phishing o per scrivere malware più efficaci: un fatto inevitabile come le ombre quando si accende una luce. La questione è se saremo capaci di riconoscere che stiamo costruendo una protesi cognitiva che media e talvolta sostituisce il nostro rapporto con il digitale. Se non sapremo porci questo problema, continueremo a discutere delle singole onde ignorando la mareggiata e questo è un problema molto più grande.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x