Studio anthropic

Dentro la “scatola nera” dell’IA: un primo passo verso la trasparenza



Indirizzo copiato

I ricercatori di Anthropic hanno scoperto il funzionamento interno dei modelli linguistici di grandi dimensioni, migliorando la comprensione e il controllo dell’IA. Utilizzando la tecnica del “dictionary learning”, hanno mappato caratteristiche ricorrenti, riducendo i rischi di uso improprio e bias. Questi progressi rappresentano un passo avanti significativo verso una IA più trasparente e sicura

Pubblicato il 5 giu 2024

Maria Beatrice Versaci

Junior Analyst Hermes Bay S.r.l.



Artificial,Intelligence,Illustration.,Artificial,Intelligence,And,Machine,Learning,Concept.,Digital

I ricercatori della compagnia di intelligenza artificiale Anthropic hanno trovato indizi sul funzionamento interno dei modelli linguistici di grandi dimensioni, il che potrebbe aiutare a prevenire il loro uso improprio e a ridurre i potenziali rischi. Lo studio prende le mosse dal fatto che i codici alla base dei sistemi di intelligenza artificiale non sono scritti linea per linea dai programmatori, ma creati in modo che tali sistemi apprendano autonomamente dai dati forniti. Questo rende difficile capire o correggere gli errori commessi dai modelli.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x