Il Google Threat Intelligence Group ha pubblicato ieri un aggiornamento sull’adversarial use dell’intelligenza artificiale, documentando come attori statali e criminali stiano integrando i modelli generativi lungo tutto il ciclo di attacco.
Threat Intelligence Group
L’AI sfruttata da Stati nemici e criminali: perché il report Google preoccupa
Il report del Google Threat Intelligence Group mostra l’uso offensivo avanzato dell’IA: distillation attacks, phishing più credibile, malware assistito e primi test agentici. Ma la questione supera i threat actors: l’IA diventa protesi cognitiva. E come essere umani di carne e ossa siamo del tutto inadeguati difenderci dall’AI
Fondatore di DI.GI Academy, specializzato in Information Security & Cybersecurity – Data Protection

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026










