Il Google Threat Intelligence Group ha pubblicato ieri un aggiornamento sull’adversarial use dell’intelligenza artificiale, documentando come attori statali e criminali stiano integrando i modelli generativi lungo tutto il ciclo di attacco.
Threat Intelligence Group
L’AI sfruttata da Stati nemici e criminali: perché il report Google preoccupa
Il report del Google Threat Intelligence Group mostra l’uso offensivo avanzato dell’IA: distillation attacks, phishing più credibile, malware assistito e primi test agentici. Ma la questione supera i threat actors: l’IA diventa protesi cognitiva. E come essere umani di carne e ossa siamo del tutto inadeguati difenderci dall’AI
Fondatore di DI.GI Academy, specializzato in Information Security & Cybersecurity – Data Protection

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business

InnovAttori
-

Tracciabilità supply chain, come Erp e cloud spingono la competitività
14 Nov 2025 -

Manifattura elettronica, come salvare il settore con la gestione smart degli impianti
31 Ott 2025 -

Cybersecurity nel manifatturiero, perché puntare sulle persone: il ruolo di policy e formazione
01 Ott 2025 -

AI per il lavoro in condizioni estreme, quali tecnologie scegliere
27 Ago 2025 -

Verso una PA cognitiva: ecco le strategie di innovazione per gli enti
14 Ago 2025















