La compressione ottica del contesto è il tentativo più concreto, finora, di aggirare il “tetto” dei token senza stravolgere l’architettura dei modelli. Per capirla bisogna partire proprio da come un LLM spezzetta il testo in unità minime – i famosi token – e da come DeepSeek prova a spenderli meglio.
intelligenza artificiale
DeepSeek rivoluziona i token? Come funziona la compressione ottica del contesto
DeepSeek introduce la compressione ottica del contesto: converte testo in immagini ad alta risoluzione, riducendo i token necessari di dieci volte. La tecnica mantiene il 96-97% di fedeltà, abbassa i costi e permette di gestire documenti più lunghi senza modificare l’architettura del modello
Senior Cloud Architect Data & AI, Microsoft

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business













