Nonostante gli sforzi per implementare misure di sicurezza, come filtri e politiche di utilizzo, i modelli linguistici di grandi dimensioni (LLM) – come GPT-3.5 e GPT-4 di OpenAI, Claude di Anthropic e Llama2 di Meta – rimangono vulnerabili ad abusi. Ad esempio, i modelli possono essere “sbloccati” per generare contenuti dannosi attraverso tecniche come il jailbreak dei prompt.
intelligenza artificiale
Al mercato nero delle IA: la nuova frontiera del crimine informatico
Modelli linguistici avanzati, tra cui Claude e Llama2, rivoluzionano vari settori, ma la loro manipolazione per scopi illeciti richiede urgenti misure di sicurezza. Ecco i “Malla”, il mercato nero delle applicazioni IA malvagie
consulente sicurezza informatica

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business











