Il dibattito italiano sulla formazione all’IA nelle scuole si concentra sul secondo ciclo, ma è nella fascia 3-10 che si costruiscono le precondizioni cognitive e civiche senza le quali, più tardi, nessun corso di prompt engineering arriva in tempo. Un caso presentato a Didacta 2026 lo mostra con chiarezza.
Nessuno, in Italia, si sognerebbe di aspettare i quindici anni per insegnare a leggere a un bambino. Ci sembrerebbe assurdo, persino crudele: arriverebbe tardi, disorientato, in ritardo strutturale su tutto il resto. Eppure è esattamente ciò che stiamo facendo con l’alfabetizzazione all’intelligenza artificiale.
Indice degli argomenti
L’alfabetizzazione all’IA resta fuori dalla scuola primaria
Quando si parla di AI literacy nelle scuole italiane, un intero segmento di pubblico tende a scomparire dal discorso. Non per esclusione formale: il recente DM 219/2025 che ha finanziato gli snodi formativi sull’IA parla genericamente di “personale scolastico”, senza distinzioni di ciclo. L’esclusione è culturale ed è più subdola. I progetti modello che circolano, i workshop pilotati, i fornitori accreditati, persino le discussioni su testate specializzate sono quasi tutti tarati su licei e istituti tecnici. La scuola dell’infanzia e la primaria restano, nella pratica, un punto cieco del dibattito italiano.
In compenso, l’OCSE, l’UNESCO e il consorzio americano AI4K12 trattano da anni l’alfabetizzazione precoce all’IA come il vero punto di leva dei sistemi educativi seri. Il ragionamento è lineare: un adolescente che incontra ChatGPT senza aver mai esercitato il dubbio, la verifica, il dialogo socratico non si alfabetizza in un corso di ottanta ore. Si limita a usare lo strumento meglio, che è cosa diversa, e spesso peggio.
Cadere prima di sciare
Cosa vuol dire, in concreto, alfabetizzare un bambino di cinque anni? Prima di tutto, non significa metterlo davanti a un’interfaccia. I termini d’uso dei principali modelli generativi fissano l’età minima a tredici anni, e per ottime ragioni. L’alfabetizzazione all’IA nella prima infanzia non riguarda l’IA come oggetto: riguarda le tre competenze precursori senza le quali, più tardi, non si può reggere il confronto con una macchina che genera risposte.
Funzionano come imparare a cadere prima di imparare a sciare. Chi ha insegnato a sciare a un bambino sa che la prima lezione non si fa sulla pista: si fa sul piano, facendogli provare a cadere e rialzarsi, a fidarsi degli sci, a sentire il peso. Sembra tempo perso. In realtà è l’unico investimento che conta: senza quelle cadute controllate, la prima volta che il bambino prende velocità si fa male sul serio. Con l’intelligenza artificiale funziona allo stesso modo. Le tre competenze precursori non sono “propedeutiche” all’IA nel senso debole del termine. Sono le cadute controllate: preparano il bambino a incontrare, fra qualche anno, una macchina che va molto più veloce di lui.
Il pensiero sequenziale
La prima è il pensiero sequenziale: capire che un’azione è fatta di passi, che i passi si possono nominare, ricombinare, modificare. È l’eredità di Seymour Papert e della tartaruga Logo degli anni Settanta. Insegnare a programmare significa insegnare a pensare sul proprio pensiero, e si comincia prima di saper scrivere.
L’asimmetria conoscitiva con gli oggetti
La seconda è la consapevolezza dell’asimmetria conoscitiva con gli oggetti. Un bambino di cinque anni non sa ancora che gli oggetti elettronici che lo circondano “sanno” cose che lui non sa. Ma il giorno in cui un assistente vocale gli risponderà in cucina, quell’asimmetria diventerà la sua prima esperienza di autorità non umana. Arrivarci senza strumenti di lettura significa subirla.
La distinzione tra sapere e rispondere
La terza è la distinzione tra sapere e rispondere. Sono due cose che nei bambini piccoli tendono a coincidere: chi risponde, sa. È un’equazione innocente ma pericolosa, perché è esattamente quella su cui i modelli generativi di oggi fanno leva. Un sistema di IA non sa: produce la continuazione statisticamente più probabile di una sequenza di parole. Spesso è corretta. A volte è sbagliata con sicurezza assoluta ed è proprio lì che diventa pericolosa, perché non ha il minimo segnale di esitazione. Un adulto che sa, invece, a volte esita. Dice aspetta, dice mi sembra, dice non ne sono sicuro. Il dubbio è la firma del sapere umano. Un bambino deve poter riconoscere questa firma prima di averla teorizzata, altrimenti da grande, davanti a una macchina che non esita mai, non avrà termini di paragone.
Una bambina che si chiama Sofia
A Didacta 2026, a Firenze, è stato presentato un percorso didattico italiano che affronta esattamente questo problema. Si chiama Sofia ed è articolato in tre volumi, uno per ciascuna fase cognitiva della fascia 3-12, con una piattaforma digitale di applicativi interattivi che ne estende la narrazione in classe. Vale la pena guardarlo da vicino, perché mostra in concreto cosa può significare alfabetizzare all’IA alla primaria senza mettere un bambino davanti a un chatbot.
Nel primo volume (3-5 anni), Sofia osserva una tartaruga che sa fare tutto perfetto: torri dritte, gatti precisi, collane ordinate. Prova a fare anche lei una collana. Una perlina le viene storta. Decide di tenerla. La mamma, alla fine, sceglie proprio quella. Il libro non nomina mai l’intelligenza artificiale. Ne prepara la grammatica emotiva: il valore di una cosa non sta nella sua perfezione, ma nel fatto che le mie mani l’abbiano fatta. A cinque anni, una lezione così è una fondazione: è la prima volta che un bambino capisce, senza saperlo dire, perché la propria goffaggine non è un difetto. Dieci anni dopo, quando si troverà a scegliere se far scrivere un tema da una macchina, avrà già dentro una risposta.
Nel secondo volume (6-8 anni), la tartaruga evolve: ora risponde a tutto. E Sofia, pagina dopo pagina, smette di pensare, perché qualcuno sta pensando per lei. È il fenomeno che la ricerca cognitiva chiama cognitive offloading, ma per un bambino di sei anni funziona come un’immagine semplice: se per due anni vai sempre in ascensore, poi le scale diventano faticose. Il muscolo del pensiero, se non lo usi, si addormenta. A sei anni questa intuizione può essere narrata. A sedici, va disintossicata con corsi di cittadinanza digitale che arrivano tardi.
Nel terzo volume (8-12 anni), Sofia incontra ALMA, una macchina che sa tutto ma non capisce niente se non impara dagli esseri umani. Il percorso approda al nucleo filosofico dell’AI literacy adulta: la differenza tra sapere e comprendere, tra dato e senso, tra risposta e pensiero. Gli applicativi digitali collegati ai tre libri trasformano la lettura in laboratorio: i bambini interagiscono con giochi che mettono in scena errori algoritmici, bias, sequenze da riordinare, risposte da verificare. L’IA non viene usata dai bambini: viene mostrata, in un ambiente controllato, alla giusta distanza pedagogica. Come guardare il fuoco da dietro il vetro di un camino: si vede come si muove, se ne riconoscono i colori, si impara cosa brucia e cosa no. Ma nessuno si ustiona.
Ciò che colpisce, guardando il sistema nel suo insieme, è che rispetta esattamente le tre competenze precursori di cui si parlava all’inizio. Pensiero sequenziale, asimmetria con gli oggetti, distinzione tra sapere e rispondere. Non è un caso. È progettazione pedagogica fatta a monte, non a valle del prodotto.
Tre conclusioni operative
Primo: la primaria non è un sottoinsieme della secondaria. Alfabetizzare un bambino di cinque anni all’IA non significa fare una versione semplificata di un corso per docenti di liceo. Richiede metodi, mediatori e tempi pedagogicamente autonomi, esattamente come la lettura precoce non è un “pre-italiano” ma una disciplina con dignità propria. Gli strumenti per farlo, peraltro, esistono già: il percorso di cui si è parlato, come altri, è accreditato sulle piattaforme di acquisto della pubblica amministrazione e dunque a disposizione di qualunque istituto voglia attivarlo. Se la primaria resta indietro, non è per mancanza di materiali.
Secondo: non si alfabetizza all’IA con l’IA. La narrazione, il gioco, la manipolazione concreta, la discussione guidata sono gli strumenti giusti per la fascia 3-10. Mettere un bambino di otto anni davanti a un chatbot per insegnargli l’IA è come insegnare la cittadinanza facendogli votare: confonde il mezzo col fine.
Terzo: quello che non si fa ora, a dieci anni non si recupera. Le competenze di base si costruiscono quando il sistema cognitivo è plastico. Aspettare il biennio del secondo ciclo significa avere, fra sei anni, una generazione di adolescenti alfabetizzati all’IA dopo averla usata per metà della loro vita scolastica. In ordine inverso rispetto a ogni logica educativa.
Pasolini, parlando di televisione, scriveva che la scuola è la sola istituzione che può contrastare la pedagogia sommaria dei media. Per l’intelligenza artificiale vale lo stesso principio, aggravato da un fatto: questa volta i media sono in tasca a bambini di cinque anni. E la scuola, se vuole restare la sola istituzione che li educa, deve cominciare quando cominciano loro. Con una perlina storta, se serve.













