formazione

L’AI può aiutare a studiare, ma solo se insegna a ragionare



Indirizzo copiato

L’intelligenza artificiale entra sempre più nella formazione, ma i chatbot generici rischiano di indebolire il ragionamento degli studenti. Le evidenze OCSE indicano la necessità di sistemi educativi progettati con finalità pedagogiche, risposte ancorate a fonti verificate e percorsi realmente adattivi

Pubblicato il 6 mag 2026

Michele Rosica

Co-Founder e Head of Technology di TeachCorner



scuola digitale (1); stablecoin Cbdc differenze ai nell'educazione intelligenza aumentata nella didattica ia e formazione AI e comprensione del testo
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

L’intelligenza artificiale sta ridisegnando i confini della formazione. Il mercato globale dell’AI applicata all’istruzione è stimato intorno ai 7 miliardi di dollari nel 2025 e potrebbe superare i 30 miliardi entro il 2030, con un tasso di crescita annuo superiore al 30%.[1] Chatbot, tutor virtuali, piattaforme adattive: gli strumenti si moltiplicano e l’adozione accelera.

L’indagine TALIS dell’OCSE rileva che nel 2024 il 37% degli insegnanti della scuola secondaria inferiore utilizzava già strumenti di AI nel proprio lavoro.[2] La domanda più importante, però, non è quanta intelligenza artificiale usiamo, ma quale e con quale finalità pedagogica.

Il paradosso della pigrizia metacognitiva

A porre la questione in modo netto è l’OCSE, nel Digital Education Outlook 2026 pubblicato a gennaio.[2] Il rapporto sintetizza le evidenze empiriche più recenti e fotografa un paradosso: quando gli studenti utilizzano strumenti di AI generica, i chatbot basati su Large Language Models, la qualità dei loro elaborati migliora, ma i benefici svaniscono o si invertono quando l’accesso all’AI viene rimosso, ad esempio durante un esame. L’OCSE parla di pigrizia metacognitiva: lo studente delega il ragionamento alla macchina e non sviluppa le competenze che dovrebbe acquisire. La raccomandazione è chiara: occorre superare i chatbot generici e investire su sistemi di AI educativa costruiti con finalità pedagogiche specifiche, capaci di potenziare il ragionamento anziché sostituirlo.

Il problema è didattico e tecnico insieme. I modelli linguistici di grandi dimensioni presentano criticità strutturali che diventano particolarmente insidiose in ambito formativo. La più nota è il fenomeno delle “allucinazioni”: il modello genera risposte plausibili ma fattualmente errate. Secondo il Vectara Hallucination Leaderboard, il benchmark di riferimento per la misurazione delle allucinazioni nei LLM pubblicato su Hugging Face, anche i sistemi più performanti presentano tassi di errore significativi quando operano su compiti complessi o su domande a risposta aperta.[3] Un’analisi indipendente di Scott M. Graffius, che incrocia i dati del Vectara Leaderboard con quelli dei benchmark SimpleQA e PersonQA, conferma che il tasso medio di allucinazione per domande di conoscenza generale si attesta intorno al 9%, mentre su compiti di ragionamento complesso le percentuali superano il 30%.[4]

A questo si aggiunge il cosiddetto overconfidence bias: il sistema presenta le proprie risposte con un elevato grado di sicurezza formale anche quando i dati sono incerti o incompleti, e genera un falso senso di affidabilità. Una ricerca del MIT pubblicata a gennaio 2025 ha documentato che i modelli utilizzano un linguaggio più assertivo proprio quando producono informazioni errate: la probabilità di ricorrere a espressioni come “certamente” o “senza dubbio” aumenta del 34% nelle risposte sbagliate rispetto a quelle corrette.[5]

Nei dialoghi prolungati, inoltre, i modelli tendono a perdere coerenza rispetto al contesto iniziale, un fenomeno noto come context drift. In un contesto educativo, dove l’accuratezza dell’informazione è il presupposto di qualsiasi apprendimento, queste criticità non sono marginali: un tutor virtuale che fornisce una spiegazione errata di un concetto giuridico o di una procedura concorsuale non sta sbagliando soltanto, sta consolidando un errore nella mente dello studente.

AI nella formazione e risposte ancorate ai fatti

La ricerca offre una risposta concreta attraverso l’architettura RAG (Retrieval-Augmented Generation). A differenza dei modelli che generano risposte attingendo alla sola memoria interna, un sistema RAG lega ogni risposta a documenti verificati e aggiornati, consultati in tempo reale. Uno studio pubblicato su Frontiers in Public Health dimostra che il framework MEGA-RAG riduce il tasso di allucinazioni di oltre il 40% rispetto ai modelli standard, inclusi i sistemi RAG convenzionali.[6]

Una survey sistematica pubblicata su ScienceDirect conferma che l’integrazione della RAG nei contesti educativi migliora l’accuratezza fattuale e consente di aggiornare la base documentale in tempo reale, senza dover riaddestrare il modello.[7] Un vantaggio decisivo in ambiti come la preparazione a concorsi pubblici e test d’ingresso, dove bandi e normative di riferimento cambiano con frequenza.

Apprendimento adattivo e personalizzazione del percorso

Il terzo elemento chiave è la personalizzazione. Ogni studente ha un percorso diverso, tempi diversi, lacune diverse. I sistemi tradizionali tendono a offrire contenuti uguali per tutti, al massimo segmentati per livello. L’AI consente un salto qualitativo: ambienti adattivi capaci di analizzare le interazioni, identificare le aree di debolezza e calibrare in modo progressivo difficoltà e tipo di spiegazione. Un esperimento randomizzato controllato condotto alla Harvard University su 194 studenti di fisica e pubblicato nel 2025 su Scientific Reports ha documentato che gli studenti seguiti da un tutor basato su AI ottengono risultati superiori in meno tempo rispetto a quelli che frequentano lezioni in aula con didattica attiva, e si dichiarano più coinvolti e più motivati.[8] Lo stesso rapporto OCSE sottolinea che l’AI può scalare il supporto personalizzato attraverso sistemi di tutoring intelligente, a condizione che siano guidati da principi pedagogici chiari e non si limitino a fornire risposte dirette.[2]

Insegnare un metodo, non fornire solo risposte

È su questi tre pilastri (finalità pedagogica, precisione informativa e adattività) che bisogna costruire un nuovo approccio.

La scelta architetturale fondamentale deve essere quella di operare all’interno di un perimetro informativo controllato: una knowledge base dedicata che comprende bandi ufficiali, materiali didattici strutturati e database di test.

L’agente AI non deve pescare risposte dal web aperto, ma ancorarle a fonti certificate. Occorre poi investire sulla memoria di sessione: il sistema deve poter riconoscere le difficoltà incontrate nelle sessioni precedenti e adattare tono e complessità delle spiegazioni.

Ancor più importante: l’AI non deve fornire solo la soluzione, ma guidare lo studente attraverso il ragionamento necessario per arrivarci. Se un candidato sbaglia un esercizio, il tutor spiega la logica, propone scorciatoie, genera esercizi mirati sullo stesso schema. L’obiettivo non deve limitarsi a consegnare la risposta esatta – come una qualunque intelligenza artificiale – ma insegnare con metodo e incentivare la formazione, non consegnare la risposta.

La direzione indicata dall’OCSE e dalla ricerca è chiara: l’AI nella formazione funziona quando è progettata per insegnare, non per rispondere. Servono sistemi che rendano lo studente più autonomo, che lavorino sull’accuratezza prima che sulla velocità, e che sappiano riconoscere la persona dietro ogni sessione di studio. È una sfida tecnologica e culturale dei nostri giorni, che riguarda chi progetta questi strumenti e chi decide come integrarli nei percorsi formativi.

Bibliografia

[1] Grand View Research, AI in Education Market Size & Share | Industry Report, 2030. Mercato stimato a 8,30 miliardi USD nel 2025, proiezione a 32,27 miliardi USD al 2030, CAGR 31,2%. grandviewresearch.com/industry-analysis/artificial-intelligence-ai-education-market-report

[2] OECD, OECD Digital Education Outlook 2026, OECD Publishing, Parigi, 19 gennaio 2026. doi: 10.1787/062a7394-en. Dato TALIS 2024 (37% insegnanti) riportato nel medesimo rapporto.

[3] Vectara, Hughes Hallucination Evaluation Model (HHEM) Leaderboard, pubblicato su Hugging Face, aggiornamento continuo. Modello di valutazione: HHEM-2.3. huggingface.co/spaces/vectara/leaderboard — Repository: github.com/vectara/hallucination-leaderboard

[4] Graffius S. M., “Are AI Hallucinations Getting Better or Worse? We Analyzed the Data”, scottgraffius.com, 7 gennaio 2026. Analisi incrociata dei dati Vectara Leaderboard, SimpleQA e PersonQA. Tasso medio di allucinazione per domande di conoscenza generale: circa 9%; su compiti di ragionamento complesso: oltre 30%.

[5] Dato riportato da Suprmind, AI Hallucination Statistics: Research Report 2026, suprmind.ai. Ricerca MIT, gennaio 2025: i modelli risultano il 34% più propensi a utilizzare linguaggio assertivo nelle risposte errate.

[6] Xu S., Yan Z., Dai C. e Wu F., “MEGA-RAG: A Retrieval-Augmented Generation Framework with Multi-Evidence Guided Answer Refinement for Mitigating Hallucinations of LLMs in Public Health”, Frontiers in Public Health, vol. 13, 2025. doi: 10.3389/fpubh.2025.1635381

[7] “Retrieval-Augmented Generation for Educational Application: A Systematic Survey”, Computers and Education: Artificial Intelligence, vol. 9, 2025. doi: 10.1016/j.caeai.2025.100578

[8] Kestin G., Miller K., Klales A., Milbourne T. e Ponti G., “AI Tutoring Outperforms In-Class Active Learning: An RCT Introducing a Novel Research-Based Design in an Authentic Educational Setting”, Scientific Reports, 15, 17458, 3 giugno 2025. doi: 10.1038/s41598-025-97652-6

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x