Un nuovo modello chiamato nGPT, presentato da NVIDIA, introduce una particolare innovazione nell’architettura Transformer, ottimizzando l’apprendimento su una superficie “ipersferica”. Questa architettura promette velocità di apprendimento fino a 20 volte superiori rispetto ai modelli tradizionali, con impatti potenzialmente profondi sulla performance dei modelli di intelligenza artificiale, in base al contesto di utilizzo.
Normalized Transformer
nGPT: così Nvidia cambia tutto nell’apprendimento AI
NVIDIA presenta nGPT, un’innovativa architettura Transformer che promette di accelerare fino a 20 volte l’apprendimento dei modelli AI attraverso l’ottimizzazione su superficie ipersferica. Nonostante i potenziali vantaggi, l’overhead computazionale dell’80% per contesti lunghi solleva dubbi sulla sua applicabilità pratica su larga scala
Esperto di AI Security

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026 -

San Raffaele, l’AI entra nella pratica clinica: meno burocrazia, più ascolto
23 Feb 2026










