In ambito LLM, una delle discussioni che trovo particolarmente interessante è relativa al fatto che i modelli di intelligenza artificiale (in particolare proprio i grandi modelli linguistici, o large language models, come GPT-4 o le nuove versioni “o1”) abbiano mostrato capacità di reasoning (ragionamento) che non sono state inserite in modo “esplicito” dai ricercatori, non sono state codificate o programmate, ma che invece emergono “naturalmente” dal processo di addestramento.
intelligenza artificiale
L’IA che pensa come noi: le capacità emergenti negli LLM
Gli LLM mostrano abilità di ragionamento non programmate, emergenti dall’addestramento. Grazie a RL e RLHF, sviluppano strategie autonome per risolvere problemi, migliorando progressivamente nella generazione di risposte coerenti e ben argomentate
Senior Cloud Architect Data & AI, Microsoft

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business












