Guida pratica

Usare gli LLM bene: checklist, fonti e controllo umano



Indirizzo copiato

Checklist, fonti verificabili e controllo umano: tre pilastri per usare gli LLM senza scambiare scorrevolezza per verità. L’output va trattato come bozza: chiedere documenti precisi, testare alternative, inserire checkpoint di verifica e definire chi valida e risponde

Pubblicato il 16 feb 2026

Mario Pireddu

Università Roma Tre



gpt early adopter llm

Da diverso tempo il dibattito sulle tecnologie della conoscenza, che tocca per ovvi motivi anche l’ambito educativo, si muove a onde regolari. Alla comparsa di una novità scatta un copione familiare: denunce di perdita di attenzione, perdita di competenze, perdita di profondità, perdita di autonomia, perdita di capacità di pensiero e giudizio.

Persone di ambiti diversi, anche accademici, ricordano da tempo e con regolarità che “il cellulare distrugge le capacità dei giovani”, i quali “non leggono più e regrediscono allo stadio infantile”. Con l’IA generativa e i modelli linguistici di grandi dimensioni (LLM) questo copione si è regolarmente aggiornato: oggi in molti (ri)parlano di crisi epistemica, insistendo sull’idea che la plausibilità dei testi prodotti dalle macchine abbia sostituito ogni verifica, con conseguenze disastrose per la società e il futuro dell’umanità.

I rischi certamente esistono, ma la diagnosi — così come circola spesso tra giornali, social e talk — è non di rado poco esplicativa: funziona infatti spesso come uno slogan ben confezionato (plausibile), capace di spiegare tutto e quindi, alla fine, di non spiegare nulla.

Se vogliamo capire cosa sta succedendo davvero, dobbiamo invece spostare il fuoco dalla paura generica alla domanda operativa: quali condizioni sociali, formative e organizzative rendono probabile che la “plausibilità” diventi scorciatoia al posto della prova? E in quali contesti, con quali costi, per chi?

Perché il concetto di crisi epistemica è scivoloso

Siamo “in crisi” da quando esistono sistemi per la registrazione del sapere. Sin dall’antichità in ogni epoca si trovano denunce di disfatta culturale e catastrofe, spesso addossata alle giovani generazioni che non sarebbero interessate ai fasti del passato.

Quando oggi si aggiorna la retorica della crisi affermando che l’uso degli LLM mette in crisi la conoscenza, spesso si mescolano senza troppa attenzione tre piani diversi:

  • Epistemologico: che cosa consideriamo conoscenza e quali criteri di giustificazione contano.
  • Socio-tecnico: le modalità con cui piattaforme, workflow e infrastrutture cambiano produzione e circolazione dei testi.
  • Psicologico: bias ed euristiche (per esempio la tendenza a fidarsi di ciò che “suona bene” ed è scorrevole).

Sono piani utili per l’analisi, ma vanno separati, altrimenti parole come “crisi strutturale” diventano passepartout per discorsi generalizzati ma poco concreti.

Serve invece chiedersi: ciò a cui si fa riferimento riguarda il mercato dell’informazione? La formazione dell’opinione pubblica? Le architetture delle piattaforme? Le pratiche scolastiche? La ricerca scientifica? Senza definire il perimetro, l’affermazione resta suggestiva ma imprecisa e sotto-determinata.

C’è poi un equivoco di fondo: l’equazione tra discorso fluido e sapere non nasce con l’automazione del linguaggio e gli LLM, e neanche con i social media o la televisione. È una tensione antica tra retorica, autorità e validazione.

Per secoli miti, tradizioni e religioni hanno rivendicato verità fattuali e hanno orientato pratiche materiali (medicina, diritto, agricoltura), e non di rado continuano a farlo. La modernità scientifica non ha “cancellato” queste dinamiche: ha cercato di contenerle costruendo istituzioni costose (esperimenti, protocolli, revisione tra pari, replicabilità).

Quando queste istituzioni si indeboliscono o vengono aggirate e ignorate (è il caso di non poca politica), dominano forme più economiche di giustificazione: autorevolezza percepita, coerenza narrativa, appartenenza identitaria. Gli LLM si inseriscono in questa dinamica di lungo corso come acceleratori: non la inventano, ma ne abbassano ulteriormente i costi.

La verifica razionale non è mai stata pratica diffusa (e non lo è nemmeno oggi)

Molte analisi sugli LLM partono da un confronto implicito: prima verificavamo, ora ci accontentiamo di testi plausibili. Quel “prima”, però, a ben guardare è spesso un’idealizzazione utile a giustificare il discorso.

Nella vita ordinaria delle persone la verifica diretta, sistematica, razionale e individuale non è mai stata la norma. Le società funzionano da sempre con conoscenza per procura e bias di vario tipo: fiducia in esperti e opinion leader, istituzioni, reputazioni, protocolli, strumenti, mediazioni.

Questo non significa che “vale tutto”. Significa che la questione reale non è la scomparsa della verifica, ma ancora una volta la sua trasformazione: quindi dove si sposta, chi la paga, come viene resa visibile, con quale responsabilità, ecc.

In alcuni ambiti, paradossalmente, la verifica aumenta: audit, tracciabilità, logging, controlli automatici, procedure di qualità, controlli incrociati. Se davvero la verifica fosse scomparsa, crollerebbero sistemi che invece continuano a reggersi su controlli severi e su gestione “costosa” dell’errore: ricerca in ambito medico, ingegneria, aerospazio, progettazione di materiali, ricerca e sviluppo industriale, riscossione tributaria, inchieste e processi, e così via.

Dove può risiedere allora il problema? In contesti ad alta velocità e basso rischio percepito (o bassa accountability), la scorciatoia è sicuramente conveniente. Generare testo è economico; verificare è costoso.

Gli LLM non inventano questa asimmetria, la rendono più scalabile: più output, in meno tempo, a costo marginale ridotto. È qui che la “plausibilità” può diventare un sostituto pratico della verifica, soprattutto quando il costo dell’errore è diluito o scaricato su altri.

Continuità storiche: non è la prima volta che temiamo un declino cognitivo

Ogni tecnologia della conoscenza ha prodotto allarmi simili. La scrittura fu criticata sin dalla sua prima diffusione come fonte di sola “apparenza di sapere”: memoria esterna, citazione, doxa.

Le calcolatrici, pur consentendo di ottenere risultati “esatti” e non meramente plausibili, furono dipinte come anticamera della perdita totale di competenze aritmetiche. In entrambi i casi, l’allarme aveva un nucleo reale: esternalizzare funzioni cognitive redistribuisce competenze e dipendenze.

Ma nelle letture facili la redistribuzione viene spesso trasformata in diagnosi di collasso generalizzato delle facoltà di pensiero.

Con gli LLM accade qualcosa di analogo. La novità non è che esista la retorica che sostituisce la prova (o che la ancora a studi su campioni ristrettissimi); la novità è la scala: velocità, accessibilità e normalizzazione della produzione testuale.

È qui che ha senso parlare di discontinuità: non in una presunta “rottura ontologica” del conoscere umano, ma in una trasformazione dei costi, dei tempi e dei flussi del testo.

“Comprensione”, “giudizio”, “allucinazioni”: le parole contano

Nel dibattito si proiettano facilmente sulle macchine categorie umane — comprensione, giudizio, pensiero — spesso senza chiarire cosa si intenda con queste parole.

Gli output degli LLM sono però simulazioni linguistiche: risposte costruite per continuità statistica e coerenza locale, non per accesso diretto a un mondo di fatti. Anche il tema delle cosiddette “allucinazioni” va letto così: non è un incidente raro, ma un comportamento compatibile con sistemi che ottimizzano la produzione di sequenze linguistiche plausibili.

Il punto, quindi, non è chiedersi se “capiscono” come noi, ma progettare contesti d’uso in cui l’output venga trattato per ciò che è: una proposta, una bozza, una sintesi, una mappa di alternative.

A seconda dei casi può essere utile o fuorviante, e la differenza non la fa la performance del modello: la fanno vincoli, controlli e responsabilità. Un report clinico richiede procedure diverse da un post social, così come un atto amministrativo con valore di legge è diverso da una mail interna.

Il rischio cresce se e quando tutto viene trattato con lo stesso livello di confidenza, senza formazione e competenze adeguate.

Qui emerge un passaggio decisivo: il “giudizio” eventualmente contenuto in un testo non risiede mai nel modello o nei suoi output, ma nella relazione socio-tecnica che le diverse persone instaurano con essi: modello + prompt + contesto + interpretazione + decisione + responsabilità.

Se trattiamo l’output — sequenza di token e parole ricombinata dal sistema — come verdetto o valutazione in sé, stiamo delegando impropriamente. Se invece lo utilizziamo come strumento maieutico — per generare controargomentazioni, checklist, criteri di valutazione, piani di test, ipotesi concorrenti — possiamo aumentare la qualità del lavoro, a patto di mantenere in piedi pratiche regolari di verifica e controllo.

Non esiste un “umano medio”

Un altro punto spesso trascurato è che non esiste un “umano medio” uniforme. Gli LLM, per come sono costruiti, tendono a essere molto simili tra loro; le persone no.

Cambiano motivazioni, background socio-economico, competenze, alfabetizzazione informativa, cultura organizzativa, bias individuali o di gruppo, esposizione al rischio.

La questione cruciale è: se di bias si tratta, quali contesti e quali soggetti sono più vulnerabili? E quali pratiche mitigano l’effetto?

Chi ha ricevuto una educazione specifica può ragionare in modo diverso rispetto a chi non l’ha ricevuta; chi lavora in ambito scientifico tende di norma a ragionare diversamente da una persona che fa parte di una setta religiosa; un artista può ragionare diversamente rispetto a chi lavora in altri ambiti.

Chi cede facilmente a propaganda politica di basso livello o estremista sta facendo appello a bisogni di appartenenza specifici che non sono necessariamente generalizzati.

In assenza di specifiche sui moderatori (background socio-economico, competenza, motivazione, rischio, cultura organizzativa, alfabetizzazione informativa, accountability, ecc.), si costruisce un “umano medio” uniforme e privo di differenze.

Ed è proprio l’uniformità antropologica a rivelare i discorsi sulla presunta “crisi epistemica” come diagnosi catastrofista non falsificabile: se accade sempre e ovunque — e a prescindere dalle differenze tra persone e gruppi — non può essere testata seriamente.

Confondere queste differenze significa trasformare un problema situato (in specifici contesti) in una condanna universale (per tutti) e, soprattutto, perdere la possibilità di progettare interventi mirati.

Se vogliamo parlare di struttura, guardiamo a incentivi e formazione

Se si vuole usare la parola “strutturale” con maggior sensatezza, anziché gridare alla crisi conviene spostare l’attenzione dall’ontologia del medium alla qualità delle infrastrutture che educano e regolano l’uso.

Due fattori contano più di tutti:

  1. Incentivi. Tempi stretti, metriche di performance, precarietà, overload informativo, reputazione, assenza di sanzioni per l’errore. Se un’organizzazione premia la velocità e non la qualità, la scorciatoia diventa razionale. In questo scenario gli LLM non “creano” la crisi: accelerano dinamiche preesistenti.
  2. Formazione. La vulnerabilità cresce quando gli strumenti e il loro funzionamento restano opachi o poco comprensibili. È successo a lungo con l’audiovisivo: non erano cinema o TV in sé a determinare “automaticamente” manipolazione, ma l’assenza di un’educazione alla grammatica dei media (montaggio, inquadrature, pathos, formati informativi, retoriche dell’autorevolezza percepita).

Oggi il parallelo è evidente: laddove non vi è alfabetizzazione all’IA (AI Literacy), molte persone possono confondere scorrevolezza con affidabilità.

E non basta insegnare “come si usa” tecnicamente un tool: serve educare a distinguere tra produzione di testo e giustificazione, tra fluidità e affidabilità, tra assistenza e delega.

Che cosa significa “misurare” la crisi, invece di nominarla

Se il tema è serio, va reso osservabile. Parlare di crisi epistemica generalizzata in astratto porta a polarizzare (utile strategia retorica) e ridurre la comprensione del fenomeno; parlare di scenari concreti permette di intervenire.

Per esempio: aumento di errori in contesti ad alto impatto (sanità, giustizia, policy)? Inflazione testuale e saturazione attentiva (troppi contenuti, troppo simili, troppo veloci)? Erosione della fiducia documentale (chi ha scritto cosa, con quali fonti, con quale responsabilità)? Degrado di pratiche educative (esternalizzazione del ragionamento, valutazioni ridotte a compilazione)? Uso strategico della generazione automatica per propaganda e “verità di comodo”?

Sono problemi diversi, con rimedi diversi. In alcuni casi servono procedure e auditing; in altri servono educazione e formazione; in altri ancora servono norme e trasparenza sulle filiere dei contenuti e sulle integrazioni tra LLM, motori di ricerca e piattaforme.

Una bussola pratica per un pubblico ampio

Per un ecosistema informativo più robusto non serve demonizzare l’uso dell’IA generativa, ma rendere praticabili abitudini semplici e ripetibili.

  • Chiedere fonti verificabili: non “dove l’hai letto?”, ma “quali documenti precisi lo supportano?”.
  • Forzare alternative: ipotesi concorrenti, controargomentazioni, limiti e incertezze.
  • Separare bozza e decisione: usare il modello per esplorare, non per chiudere.
  • Inserire checkpoint di verifica: checklist, controllo incrociato, revisione umana in base al rischio.
  • Rendere visibile la responsabilità: chi firma, chi valida, chi risponde in caso di errore.

Questa è la dimensione specifica dell’apprendimento in ambienti datificati (datafied): la continua negoziazione tra evidenza, sicurezza e revisione.

Il significato educativo di queste pratiche dipende dalla capacità di insegnanti e studenti di saper lavorare in modo riflessivo sulle logiche inferenziali, trasformate da opache routine di ottimizzazione in oggetti di indagine, critica e deliberazione pedagogica.

In termini epistemologici: a quali condizioni i diversi soggetti possono continuare a essere responsabili di ciò che ritengono credibile, delle inferenze che sostengono e delle decisioni che legittimano?

Sono queste le basi per affrontare il tema dei requisiti normativi e educativi, con focus sulle competenze necessarie per interpretare, negoziare e, quando necessario, contestare le simulazioni mediate algoritmicamente.

Il corollario didattico di questo quadro non è la promessa di eliminare l’indeterminatezza — questo, come si è detto, negli ambiti non strettamente legati alla ricerca è “strutturale” da sempre —, ma la coltivazione di pratiche riflessive che sostengano giudizio, revisione e responsabilità per il presente e per i prossimi futuri educativi datificati.

Conclusione: meno panico morale, più politica della conoscenza

Se il presente è caratterizzato anche dall’uso di modelli probabilistici, raccomandazioni e aggiustamenti automatizzati, qui la questione critica non è se la simulazione debba essere contrastata in quanto tale, ma come viene istituita: come un regime di ottimizzazione e governance che restringe le possibilità educative, o come una risorsa epistemica di cui ci si può riappropriare pedagogicamente per coltivare l’azione riflessiva.

Gli LLM accelerano la produzione di testi plausibili. Questo può amplificare vecchi problemi: propaganda, infotainment, economia del click, performatività dell’autorevolezza percepita. Ma proprio perché molti problemi sono preesistenti, la risposta non può essere un nuovo panico morale né un nuovo determinismo riduzionista.

Se i sistemi predittivi possono accelerare alcuni processi decisionali, sin dalla scuola si deve lavorare sia su quel versante sia sul preservare e coltivare la capacità di rallentare, sospendere e giustificare adeguatamente quando serve.

A ciò si legano tre implicazioni:

  • In primo luogo, per non ripetere gli errori fatti in passato in ambito educativo, l’AI Literacy deve essere ampliata in un’alfabetizzazione epistemica: gli studenti devono essere in grado di interrogarsi su come vengono prodotte le simulazioni e le previsioni, quali prove presuppongono, quali incertezze nascondono e come presentano output a cui alcune persone possono attribuire credibilità e valore.
  • In secondo luogo, la formazione degli insegnanti deve rafforzare forme di giudizio professionale che resistano alla riduzione della pedagogia a conformità automatizzata, continuando a lasciar liberi gli educatori di trattare i suggerimenti algoritmici come ipotesi da valutare piuttosto che come direttive da eseguire.
  • In terzo luogo, la progettazione curriculare dovrebbe includere attività che esercitino esplicitamente pratiche di revisione delle ipotesi, calibrazione della fiducia e deliberazione collettiva su interpretazioni concorrenti, in modo che simulazioni e previsioni diventino occasione di indagine piuttosto che una scorciatoia che la aggira.

Serve, insomma, una seria politica della conoscenza: chiarire i contesti in cui l’errore è costoso, costruire incentivi reali per la verifica, investire in alfabetizzazioni contemporanee, pretendere trasparenza e accountability quando questi strumenti entrano nei workflow di scuola, media, imprese e pubbliche amministrazioni.

La domanda decisiva, in fondo, resta la stessa: non cosa una tecnologia “ci toglie”, ma quali condizioni rendono praticabile un uso che espande capacità, accesso e qualità della conoscenza.

Riferimenti

Colombo E., Costantini F., “Incoscienza artificiale: il rischio di delegare la mente all’IA generativa”, Agenda Digitale, 9/01/2026.
https://www.agendadigitale.eu/cultura-digitale/incoscienza-artificiale-il-rischio-di-delegare-la-mente-allia-generativa/

El Moussaoui, M. (2025), “Future Illiteracies – Architectural Epistemology and Artificial Intelligence”, in Architecture, 5(3), 53. https://doi.org/10.3390/architecture5030053

Floridi L., Morley J., Novelli C., Watson, D., “What Kind of Reasoning (if any) is an LLM actually doing? On the Stochastic Nature and Abductive Appearance of Large Language Models” (revised) (December 10, 2025). Available at http://dx.doi.org/10.2139/ssrn.5901962

Gerlich M. (2025), “AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking”, Societies, 15(1), 6. https://doi.org/10.3390/soc15010006

Gristina G.R., Orsi L. (2023), “L’IA: sostituzione o sostegno del medico?”, in Intelligenza Artificiale: Distingue Frequenter. Uno sguardo interdisciplinare, (a cura di C. Caporale e L. Palazzani, Consulta Scientifica del Cortile dei Gentili), Edizioni CNR.

Hossain, S., Khanam, S., Haniya, S., & Nasr, N. R. (2025), “AI Literacy and LLM Engagement in Higher Education: A Cross-National Quantitative Study”, arXiv preprint arXiv:2507.03020 .

Kosmyna N., Hauptmann E., Tong Yuan Y., Situ J., Liao X., Beresnitzky A.V., Braunstein I., Maes P. (2025), “Your brain on chatgpt: Accumulation of cognitive debt when using an ai assistant for essay writing task”.
https://www.media.mit.edu/publications/your-brain-on-chatgpt/

Loru E., Nudo J., Di Marco N., Santirocchi A., Atzeni R., Cinelli M., Cestari V., Rossi-Arnaud C., Quattrociocchi W., “The simulation of judgment in LLMs”, Proc. Natl. Acad. Sci. U.S.A. 122 (42) e2518443122, https://doi.org/10.1073/pnas.2518443122 (2025).

Mollick E. (2025), L’intelligenza condivisa: Vivere e lavorare insieme all’AI, Luiss University Press, Roma.

Reinhart A., Markey B., Laudenbach M., Pantusen K., Yurko R., Weinberg G., Brown D.W., “Do LLMs write like humans? Variation in grammatical and rhetorical styles”, Proc. Natl. Acad. Sci. U.S.A. 122 (8) e2422455122, https://doi.org/10.1073/pnas.2422455122 (2025).

Romano L., “Cervello e Chat-GPT: rischio di un “debito cognitivo”?”, Quotidiano Sanità, 24/06/2025.
https://www.quotidianosanita.it/lettere-al-direttore/cervello-e-chat-gpt-rischio-di-un-debito-cognitivo/

Soluri G., “LLM inaffidabili: perché la verifica umana è indispensabile”, Agenda Digitale, 18/08/2026.
https://www.agendadigitale.eu/cultura-digitale/llm-inaffidabili-perche-la-verifica-umana-e-indispensabile/

Vajjala, S., Alhafni, B., Bannò, S., Maurya, K. K., & Kochmar, E. (2025). “Opportunities and Challenges of LLMs in Education: An NLP Perspective”. arXiv preprint arXiv:2507.22753

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x