L’uso (e in parte abuso) di termini come “intelligenza” o “apprendimento” evocano nella coscienza collettiva della società delle idee che non sempre riflettono lo stato della tecnologia e del suo funzionamento. È indubbio che i modelli di intelligenza artificiale generativa come i sistemi large language models (LLM), o anche i sistemi che generano immagini, stiano crescendo rapidamente, ma la loro crescita non segue un andamento lineare: raddoppiando gli sforzi si ottiene meno del doppio del risultato. Vi sono quindi, dato l’attuale stato dell’arte, limiti a quanto questi modelli possono crescere.
IA GENERATIVA
Far “crescere” l’IA generativa costa troppo: i fattori che ne frenano lo sviluppo
Un’analisi Next Platform ha stimato il costo dell’addestramento di vari modelli LLM, evidenziando come il costo per milione di parametri tenda a crescere al crescere del modello. Ma anche disponendo del budget necessario ad addestrare modelli ancora più grandi prima o poi si raggiungerà il limite di capacità energetica e computazionale dei sistemi utilizzati. Il…
Università di Pisa

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

AI agentica nel turismo: come cambia il mercato dei viaggi
09 Apr 2026 -

OpenBIM e interoperabilità: perché gli standard aperti sono decisivi in edilizia
03 Apr 2026 -

Competitività europea e sovranità, cosa manca davvero alle startup Ue
01 Apr 2026 -

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026











