Normalized Transformer

nGPT: così Nvidia cambia tutto nell’apprendimento AI



Indirizzo copiato

NVIDIA presenta nGPT, un’innovativa architettura Transformer che promette di accelerare fino a 20 volte l’apprendimento dei modelli AI attraverso l’ottimizzazione su superficie ipersferica. Nonostante i potenziali vantaggi, l’overhead computazionale dell’80% per contesti lunghi solleva dubbi sulla sua applicabilità pratica su larga scala

Pubblicato il 28 ott 2024

Luca Sambucci

Esperto di AI Security



ipersfera (1)

Un nuovo modello chiamato nGPT, presentato da NVIDIA, introduce una particolare innovazione nell’architettura Transformer, ottimizzando l’apprendimento su una superficie “ipersferica”. Questa architettura promette velocità di apprendimento fino a 20 volte superiori rispetto ai modelli tradizionali, con impatti potenzialmente profondi sulla performance dei modelli di intelligenza artificiale, in base al contesto di utilizzo.

Continua a leggere questo articolo

Articoli correlati