L’intelligenza artificiale sta vivendo una rivoluzione silenziosa ma profonda nel modo in cui “ragiona“. Se fino a pochi anni fa parlavamo di sistemi basati su regole logiche e probabilità, oggi assistiamo all’emergere di modelli che sembrano capaci di pensare in modo sempre più articolato e flessibile.
Questa evoluzione non rappresenta solo un avanzamento tecnologico, ma un ripensamento fondamentale di cosa significhi per una macchina “ragionare” e comprendere il mondo.
In questo articolo esploreremo il percorso che ha portato dall’intelligenza artificiale classica ai moderni sistemi di ragionamento, analizzando le implicazioni di questa trasformazione per il futuro dell’interazione uomo-macchina.
Indice degli argomenti
Le origini: quando le macchine iniziarono a “ragionare”
Nel 1976, un gruppo di ricercatori presso la Stanford University sviluppò MYCIN [1], un sistema esperto per la diagnosi delle infezioni del sangue che segnò l’inizio del ragionamento artificiale. Il sistema utilizzava una catena di regole “se-allora”: se un paziente presentava febbre sopra i 38.5°C, tosse produttiva e dolore toracico, MYCIN deduceva una probabile polmonite batterica e suggeriva specifici antibiotici. Questo approccio, per quanto primitivo ai nostri occhi, rappresentò il primo tentativo di replicare il ragionamento clinico umano in una macchina.
Pochi anni dopo, Digital Equipment Corporation implementò XCON [2], un sistema esperto che rivoluzionò la configurazione dei computer VAX. XCON applicava migliaia di regole per assemblare correttamente i componenti hardware: se un cliente richiedeva una certa capacità di memoria, il sistema non solo selezionava i componenti compatibili ma verificava anche che l’intero sistema fosse correttamente bilanciato. Questo sistema dimostrò che le macchine potevano gestire problemi complessi di configurazione meglio degli esperti umani, almeno in domini molto specifici.
Dall’incertezza alla probabilità: l’era bayesiana
La rigidità dei primi sistemi esperti portò a una rivoluzione nel modo di concepire il ragionamento artificiale. Le reti bayesiane hanno introdotto il concetto di ragionamento probabilistico, permettendo ai sistemi di gestire l’incertezza in modo matematicamente rigoroso. Invece di operare con certezze assolute, questi sistemi potevano aggiornare continuamente le loro “credenze” basandosi su nuove evidenze [3].
Questo approccio si è rivelato particolarmente efficace in campi come la diagnosi medica, dove raramente si ha certezza assoluta e le decisioni devono essere prese considerando molteplici fattori probabilistici. Negli anni ’90, il sistema QMR-DT (Quick Medical Reference Decision-Theoretic) [4] introdusse un approccio radicalmente nuovo basato sulle reti bayesiane. Con una rete di oltre 600 malattie e 4000 sintomi interconnessi, QMR-DT ragionava in termini di probabilità: un mal di testa poteva essere sintomo di stress (probabilità 80%), emicrania (60%) o, in casi più rari, di un tumore cerebrale (2%).
Questo approccio probabilistico si rivelò rivoluzionario. I sistemi di diagnosi come IBM Watson Health, adesso Merative [5] sono diretti discendenti di QMR-DT: quando un paziente si presenta con un insieme di sintomi, il sistema calcola continuamente le probabilità di diverse patologie, aggiornandole in tempo reale man mano che vengono inseriti nuovi dati clinici o risultati di laboratorio.
La rivoluzione fuzzy: quando la verità non è bianca o nera
Gli anni ’90 videro l’emergere della fuzzy logic, un approccio che introdusse il concetto di “verità sfumata” [6]. Un caso emblematico è il sistema di controllo della metropolitana di Sendai in Giappone [7]: invece di utilizzare regole rigide per accelerare o frenare, il sistema valuta continuamente la velocità, la distanza dalla prossima stazione e il comfort dei passeggeri, modulando la guida in modo fluido proprio come farebbe un conducente esperto.
La fuzzy logic si è diffusa rapidamente nell’elettronica di consumo. Le moderne lavatrici, per esempio della ditta Panasonic [8], non hanno più programmi di lavaggio predefiniti: valutano il grado di sporcizia dei capi attraverso sensori di torbidità dell’acqua, il tipo di tessuto tramite sensori di peso e resistenza, e modulano continuamente temperatura, quantità di detersivo e movimento del cestello. È un ragionamento molto più simile a quello di una lavandaia esperta che a quello di una macchina tradizionale.
L’era dei Large Language Models: quando le macchine imparano a pensare
L’avvento dei Large Language Models (LLM) ha inaugurato una nuova era nel ragionamento artificiale. Prendiamo un esempio concreto: quando chiediamo a GPT-3.5 di risolvere un problema matematico complesso, il sistema tende a dare una risposta immediata, come farebbe uno studente frettoloso. I nuovi LLM come GPT o3-mini-high e DeepSeek R1 “ragionano ad alta voce”: decompongono il problema in passaggi, verificano ogni passo e solo alla fine forniscono la risposta, proprio come farebbe un insegnante che spiega alla classe [9].
Questo approccio, chiamato “test-time compute” [10] rappresenta una rivoluzione concettuale. Invece di concentrarsi solo sul miglioramento del modello durante l’addestramento, l’approccio “train-time compute,” questi sistemi dedicano risorse computazionali significative al processo di ragionamento stesso. È come se il sistema si prendesse il tempo di “pensare” prima di rispondere.
Prendiamo ad esempio DeepSeek R1, e proponiamo un semplice problema aritmetico: Ho 10 mele, ne mangio 2, una la regalo. Quante mele mi rimangono? La risposta del sistema è la seguente:

Si può vedere che nella prima parte della risposta (in inglese), il sistema simula il pensiero, cioè analizza il problema, scomponendolo in sottoproblemi e aggiungendo ulteriori informazioni. Nella seconda parte, invece il sistema propone la soluzione. È interessante notare che nella parte di “pensiero,” il sistema autonomamente si chieda se la domanda possa nascondere qualche “trick,” ossia qualche trabocchetto.
Deep Research: il ricercatore artificiale
Un esempio di questa evoluzione è il sistema Deep Research di OpenAI. Ethan Mollick [11], un professore della University of Pennsylvania ha provato in anteprima Deep Research e ne ha scritto un interessante resoconto. Quando Mollick chiede al sistema di generare un articolo scientifico, questo non si limita a raccogliere citazioni: accede a database scientifici, identifica metanalisi recenti, confronta metodologie diverse e sintetizza le scoperte considerando anche le limitazioni degli studi.
Nel caso documentato da Mollick relativo ad una ricerca sul “tempo in cui le startup dovrebbero smettere di esplorare e iniziare a scalare,” un tema molto controverso, il sistema ha prodotto in pochi minuti un articolo scientifico di ottimo livello che ha richiesto l’analisi di numerosi altri articoli, identificando nuove connessioni e citazioni accurate che avrebbero richiesto giorni di lavoro a un ricercatore umano esperto.
Anche in questo caso, è molto interessante vedere i progressi e i “pensieri” mentre il sistema procede. Come riportato da Mollick, il sistema procede come un ricercatore: esplora gli articoli trovati, approfondisce gli argomenti di “interesse” e risolve problemi come ricercare modi alternativi per accedere ad articoli a pagamento.
Alla fine, il sistema ha preparato una bozza di 13 pagine, 3.778 parole, con sei citazioni e riferimenti aggiuntivi, analizzando concetti complessi e contraddittori, trovando collegamenti inediti, citando fonti di alta qualità ed accurate. Mollick conclude dicendo “sarei stato soddisfatto di vedere qualcosa di simile da parte di uno studente di dottorato alle prime armi.”
Abbiamo personalmente provato DeepSeek R1 e ChatGPT o3-mini-high chiedendo di generare un articolo sugli studi sulla coscienza artificiale, ed il risultato in entrambi i casi è stato abbastanza buono, anche se entrambi i sistemi hanno generato qualcosa di più simile ad uno schema di articolo, che un articolo vero e proprio.
Le sfide dell’interpretabilità e dell’affidabilità
Il settore bancario offre un esempio perfetto delle sfide che questi sistemi devono affrontare. Quando una banca utilizza l’AI per valutare richieste di prestito, deve poter spiegare perché una richiesta viene rifiutata. Un vecchio sistema esperto poteva semplicemente indicare “reddito insufficiente secondo la regola 15.3”. I moderni sistemi di apprendimento, invece, considerano centinaia di variabili interconnesse: potrebbero rifiutare un prestito basandosi su schemi complessi nei dati di transazione che suggeriscono un rischio elevato, ma spiegare questo ragionamento in termini comprensibili rimane una sfida aperta [13].
La ricerca tende oggi ad affrontare questo problema sviluppando sistemi in cui convivono tecniche diverse. Un recente articolo di rassegna della letteratura sulla Explainable AI in ambito finanziario [14], ha analizzato 138 articoli dal 2005 al 2022. Lo studio identifica i principali ambiti di applicazione (gestione del credito, previsione dei prezzi azionari e rilevamento frodi) e le tecniche più utilizzate: reti neurali artificiali, alberi decisionali e foreste casuali, un algoritmo che combina i risultati di più alberi decisionali per raggiungere un unico risultato. Anche per rendere questi modelli comprensibili, vengono utilizzati numerosi metodi diversi, incluso i sistemi a regole.
Verso una nuova simbiosi uomo-macchina
L’esempio più recente di questa evoluzione viene dal mondo della ricerca scientifica. I ricercatori stanno sviluppando sistemi che combinano il ragionamento deduttivo dei sistemi esperti, l’approccio probabilistico delle reti bayesiane e le capacità di riconoscimento di schemi dei moderni LLM. Questi sistemi non sostituiscono i ricercatori umani ma amplificano le loro capacità: possono analizzare enormi quantità di dati, suggerire ipotesi basate su pattern nascosti e aiutare a progettare esperimenti, mentre gli scienziati mantengono il controllo sul processo creativo e interpretativo [15].
Il futuro del ragionamento artificiale
Siamo all’inizio di una nuova era nel ragionamento artificiale. I sistemi attuali, per quanto impressionanti, sono ancora lontani dalla flessibilità cognitiva umana. Tuttavia, la direzione è chiara: stiamo passando da sistemi che elaborano informazioni a sistemi che in qualche modo “ragionano” su di esse.
La vera sfida per il futuro non sarà solo tecnologica ma anche sociale e filosofica: come integreremo questi sistemi nelle nostre attività cognitive? Come li useremo per potenziare, invece che sostituire, il ragionamento umano? Come garantiremo che il loro sviluppo rimanga allineato con i valori e i bisogni della società?
La risposta a queste domande richiederà un dialogo continuo tra sviluppatori, ricercatori, decisori politici e società civile. Solo attraverso questo dialogo potremo garantire che l’evoluzione del ragionamento artificiale contribuisca positivamente al progresso umano, rispettando al contempo i principi etici fondamentali e la centralità dell’esperienza umana.
Bibliografia
1 Buchanan, B. G., & Shortliffe, E. H. (1984). “Rule-based expert systems: The MYCIN experiments of the Stanford Heuristic Programming Project”. Addison-Wesley.
2 McDermott, J. (1982). “R1: A Rule-Based Configurer of Computer Systems”. Artificial Intelligence, 19(1), 39-88.
3 Pearl, J. (1988). “Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference”. Morgan Kaufmann.
4 Shwe M, Middleton B, Heckerman D, Henrion M, Horvitz E, Lehmann H, Cooper G. A Probabilistic Reformulation of the Quick Medical Reference System. Proc Annu Symp Comput Appl Med Care. 1990 Nov 7:790–4.
6 Zadeh, L. A. (1965). “Fuzzy sets”. Information and Control, 8(3), 338-353.
7 https://en.wikipedia.org/wiki/Sendai_Subway_1000_series
9 Wei, J., et al. (2022). “Chain of Thought Prompting Elicits Reasoning in Large Language Models”. arXiv:2201.11903.
10 Grootendorst, M. (2025). “A Visual Guide to Reasoning LLMs”. https://newsletter.maartengrootendorst.com/p/a-visual-guide-to-reasoning-llms
11 Mollick, E. (2025). “The End of Search, The Beginning of Research” https://www.oneusefulthing.org/p/the-end-of-search-the-beginning-of
12 https://openai.com/index/introducing-deep-research/
13 Doshi-Velez, F., & Kim, B. (2017). “Towards A Rigorous Science of Interpretable Machine Learning”. arXiv:1702.08608, https://arxiv.org/abs/1702.08608
14 Černevičienė, J., Kabašinskas, A. Explainable artificial intelligence (XAI) in finance: a systematic literature review. Artif Intell Rev 57, 216 (2024). https://doi.org/10.1007/s10462-024-10854-8
15 Wang, H., Fu, T., Du, Y. et al. Scientific discovery in the age of artificial intelligence. Nature 620, 47–60 (2023). https://doi.org/10.1038/s41586-023-06221-2