Per la prima volta, analisi tecniche mostrano malware che non si limitano a sfruttare l’IA “a valle”, ma inviano richieste ai Large Language Models (LLM) direttamente in fase di esecuzione per generare script malevoli, offuscare il proprio codice e adattare funzioni “on demand“.
attacchi cyber
Malware adattivi e autonomi grazie all’AI: la nuova minaccia
L’integrazione dell’intelligenza artificiale nei malware segna una svolta: i codici malevoli diventano adattivi e autonomi, capaci di dialogare con i modelli linguistici durante l’esecuzione, come rilevato da Google. Una minaccia “pensante” che impone nuovi paradigmi di rilevazione e difesa comportamentale
Hermes Bay Intelligence Junior Analyst

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026









