Non credo vi siano dubbi sul fatto che i grandi modelli come GPT, Gemini, sono qui per restare ed evolversi. Questi mega modelli sono ingegnerizzati per essere eseguiti su grandi infrastrutture di calcolo e con richieste significative sia di capacità computazionale che di energia. Ad ogni rilascio questi modelli vengono addestrati con quantità sempre maggiori di informazioni e il grande numero di parametri consente al modello di trattenere molti dati oltre ad esibire una certa capacità di ragionamento.
Small Language Models
L’AI si rimpicciolisce: perché il futuro è degli small language models
I modelli di intelligenza artificiale stanno diventando più piccoli e accessibili. Gli Small Language Models (SLM) possono essere eseguiti su dispositivi personali, riducendo la necessità di grandi infrastrutture. Sebbene presentino limitazioni rispetto ai Large Language Models (LLM), gli SLM offrono promettenti applicazioni verticali e un’efficienza energetica migliorata
Università di Pisa

Continua a leggere questo articolo
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026








