Le scuole italiane assomigliano sempre più al re nudo della fiaba: circondate da sistemi che incorporano intelligenza artificiale, continuano a ripetere che “l’AI a scuola non c’è”. È una narrazione rassicurante, ma profondamente falsa. L’AI non solo c’è, ma opera quotidianamente nelle aule, nei registri, nelle piattaforme cloud, nelle reti e persino negli strumenti di accessibilità. La sua presenza è silenziosa, incorporata, normalizzata. Proprio per questo è più difficile da riconoscere e, soprattutto, da governare.
Negli ultimi anni, grazie ai fondi del PNRR e in particolare al DM 66/2023 dedicato alla transizione digitale, migliaia di scuole hanno organizzato corsi di formazione sull’“introduzione dell’AI” in classe. In moltissimi casi questi percorsi si sono concentrati su applicazioni come Canva, Quizizz, PanQuiz, MagicSchool, Conker o strumenti analoghi, presentati come la porta d’ingresso dell’intelligenza artificiale nella didattica. Ma mentre si spiegava come “portare l’AI a scuola”, l’AI era già lì, accesa e funzionante, incorporata nei sistemi di uso quotidiano.
Indice degli argomenti
AI invisibile a scuola: il paradosso della presenza che non si nomina
La scena è diventata quasi rituale: un formatore mostra come creare quiz o verifiche automatiche proiettando lo schermo su una digital board basata su Android, dotata di funzioni di riconoscimento dei contenuti, suggerimenti intelligenti e sottotitoli automatici. I docenti prendono appunti su Google Docs, che suggerisce correzioni, completamenti e riscritture. La lezione viene registrata su piattaforme come Teams, con possibilità di trascrizione automatica.
Tutto avviene sotto l’egida di sistemi che integrano modelli predittivi e funzioni di machine learning, ma senza che nessuno li chiami mai per nome.
Quando l’AI diventa infrastruttura: dalle lavagne ai registri elettronici
Questo paradosso è il cuore del problema. L’AI nella scuola italiana non è assente: è invisibile per scelta. È come il fuoco nella caverna di Platone: ciò che vediamo sono le ombre — suggerimenti, riepiloghi, analisi automatiche — mentre il meccanismo che le genera resta sullo sfondo, non discusso, non esplicitato.
Le lavagne interattive sono computer a tutti gli effetti; le suite cloud educative integrano moduli di AI generativa; i registri elettronici producono indicatori sintetici, pattern di andamento, segnalazioni di rischio; le reti scolastiche utilizzano sistemi di analytics per ottimizzare traffico e sicurezza. Tutto questo accade prima ancora di aprire un chatbot.
Norme e responsabilità: perché negare l’AI non riduce i rischi
Nel frattempo, a partire dal 2024, l’ambiente normativo si è fatto più stringente. L’AI Act europeo ha introdotto una classificazione dei sistemi basata sul rischio, con particolare attenzione all’uso in ambito educativo. Le linee guida nazionali e la legge 132/2025 rafforzano obblighi di trasparenza, responsabilità, valutazione d’impatto e tutela dei dati.
Di fronte a questo quadro, molte scuole hanno reagito con una strategia difensiva: negare formalmente l’esistenza dell’AI. Nei PTOF, nei regolamenti o nei patti educativi compaiono formule rassicuranti come “nel nostro istituto l’AI non si usa” o “è vietato l’uso di strumenti di intelligenza artificiale”.
Queste affermazioni convivono però con l’uso quotidiano di Google Workspace con suggerimenti intelligenti, di Microsoft 365 con Copilot Chat abilitato, di piattaforme didattiche che generano automaticamente contenuti e di registri elettronici che producono analisi predittive. È una forma di ipocrisia regolamentare: si vieta l’AI visibile per non dover affrontare l’AI invisibile. Si preferisce non nominare ciò che già struttura l’infrastruttura scolastica, perché riconoscerlo significherebbe assumersi la responsabilità di governarlo.
AI invisibile a scuola e falsa AI literacy: l’effetto sugli studenti
Il rischio più profondo di questa rimozione dell’AI non è tecnologico, ma educativo. Quando una scuola afferma che “l’intelligenza artificiale non viene utilizzata” mentre ne fa uso quotidiano in forma incorporata, trasmette agli studenti un messaggio implicito ma potentissimo: le tecnologie contano solo quando sono visibili. Tutto ciò che è infrastruttura, architettura, sistema decisionale automatizzato può essere ignorato, perché non richiede consapevolezza critica. È l’opposto di ciò che l’educazione dovrebbe fare in un’epoca algoritmica.
Si costruisce così una falsa AI literacy, centrata sull’uso occasionale di strumenti espliciti e non sulla comprensione dei meccanismi che governano l’esperienza digitale quotidiana. Gli studenti imparano a “non usare ChatGPT”, ma continuano a scrivere testi suggeriti da sistemi predittivi; vengono ammoniti sul plagio, ma lavorano in ambienti che riscrivono, sintetizzano e correggono automaticamente; ascoltano lezioni sulla responsabilità dell’AI mentre i loro dati vengono analizzati da piattaforme che producono indicatori e suggerimenti senza alcuna esplicitazione.
L’educazione all’intelligenza artificiale viene ridotta a una questione di strumenti, anziché di potere cognitivo e decisionale.
Cosa chiede l’Europa: mappare, capire, governare
Questa contraddizione diventa ancora più evidente se osservata alla luce delle policy europee. L’AI Act non chiede alle istituzioni educative di “usare” o “non usare” l’AI, ma di sapere dove si trova, come opera, quali rischi introduce e chi ne è responsabile. I sistemi educativi rientrano esplicitamente tra quelli sensibili, proprio perché incidono su valutazione, orientamento, inclusione, accesso alle opportunità.
Negare formalmente l’uso dell’AI non riduce il rischio: lo sposta semplicemente fuori dal campo della consapevolezza e della governance.
La pedagogia della negazione: quando la complessità viene rimossa
C’è poi una questione culturale più profonda. La scuola che finge di non vedere l’AI insegna implicitamente che la complessità può essere rimossa anziché affrontata. È una pedagogia della semplificazione difensiva, che preferisce il divieto alla comprensione, la negazione alla responsabilità.
In questo modo, l’istituzione educativa rinuncia al suo ruolo storico: rendere visibile ciò che struttura il mondo. Se l’AI resta invisibile a scuola, diventerà opaca nella società, lasciando cittadini impreparati a interrogare sistemi che prendono decisioni sempre più rilevanti.
Una scuola consapevole: rendere visibile l’AI e insegnare a leggerla
L’alternativa non è una scuola entusiasta o tecnofila, ma una scuola onestamente consapevole. Una scuola che dichiara dove l’AI è già presente, anche quando non è chiamata così. Che spiega agli studenti che i suggerimenti di scrittura, le sintesi automatiche, le analisi di andamento, i sistemi di sicurezza di rete e le piattaforme cloud funzionano grazie a modelli predittivi.
Che distingue tra uso didattico esplicito e uso infrastrutturale implicito. Che introduce il tema dell’AI non come “novità”, ma come condizione ambientale.
In questa prospettiva, l’educazione all’intelligenza artificiale cambia radicalmente forma. Non è una lezione aggiuntiva, ma una postura cognitiva. Non riguarda solo informatica o tecnologia, ma cittadinanza, etica, diritto, epistemologia. Significa insegnare a riconoscere quando una decisione è mediata da un sistema automatizzato, a chiedersi quali dati usa, quali criteri incorpora, quali effetti produce.
Significa restituire agli studenti il diritto di sapere dove finisce l’umano e dove inizia la macchina, e soprattutto dove i due si intrecciano.
Il vero scandalo non è che l’AI sia entrata nella scuola. Il vero scandalo sarebbe continuare a far finta che non ci sia. Come nella fiaba, non serve un esperto per dirlo: basta qualcuno che abbia il coraggio di nominare ciò che tutti vedono ma nessuno dichiara.
L’educazione digitale del futuro non passerà da nuovi strumenti, ma da una scelta di verità. Dire che il re è nudo non per umiliarlo, ma per restituire alla scuola il suo ruolo più autentico: aiutare a vedere ciò che conta davvero.




















