In ambito LLM, una delle discussioni che trovo particolarmente interessante è relativa al fatto che i modelli di intelligenza artificiale (in particolare proprio i grandi modelli linguistici, o large language models, come GPT-4 o le nuove versioni “o1”) abbiano mostrato capacità di reasoning (ragionamento) che non sono state inserite in modo “esplicito” dai ricercatori, non sono state codificate o programmate, ma che invece emergono “naturalmente” dal processo di addestramento.
intelligenza artificiale
L’IA che pensa come noi: le capacità emergenti negli LLM
Gli LLM mostrano abilità di ragionamento non programmate, emergenti dall’addestramento. Grazie a RL e RLHF, sviluppano strategie autonome per risolvere problemi, migliorando progressivamente nella generazione di risposte coerenti e ben argomentate
Senior Cloud Architect Data & AI, Microsoft

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026









