Il clamore suscitato dai modelli di intelligenza artificiale LLM come ChatGPT o Google Bard ha inevitabilmente spinto tutti a prevedere il futuro e soprattutto cercare di capire quanto questi modelli possano essere miniaturizzati all’interno di chip in modo che i dispositivi che usiamo tutti i giorni possano esibire comportamenti autonomi e, auspicabilmente, intelligenti. Si tratta di una questione centrale al funzionamento dell’AI, già oggi vi sono poche entità capaci di addestrare i grandi modelli ed eseguirli, rendendoli accessibili agli utenti attraverso API e un modello di pagamento capace di coprire i costi di servizi energivori che, nel caso di ChatGPT 3.5, si stima costi oltre 700.000 dollari al giorno.
l’analisi
Chip iper-specializzati per l’IA generativa: ecco i trend
Il raggiungimento dei limiti fisici di miniaturizzazione nella produzione di chip non potrà che incoraggiare la specializzazione dei chip per poter utilizzare meglio i transistor che si possono miniaturizzare al loro interno. È quindi lecito attendere annunci di chip sempre più specializzati per i modelli di AI generativa
Università di Pisa

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026










