L’intelligenza artificiale sta entrando in classe con il fascino delle grandi innovazioni che promettono di cambiare il modo in cui insegniamo e apprendiamo. È facile lasciarsi trascinare dall’entusiasmo: immaginare un tutor virtuale sempre disponibile, strumenti capaci di adattarsi al ritmo di ogni studente, compiti corretti in tempi rapidissimi.
Genitori e insegnanti vedono in queste possibilità una speranza concreta per alleggerire il carico e offrire nuove opportunità, mentre i ragazzi – nativi digitali – accolgono con naturalezza ciò che per loro è semplicemente parte del presente.
Indice degli argomenti
Sguardo critico e cornice del problema
Eppure, insieme alla fiducia verso il progresso, emerge anche un sano bisogno di cautela. La domanda che ci accompagna è: possiamo davvero credere che queste tecnologie siano pensate solo per il bene dei nostri figli, senza logiche economiche e interessi delle grandi multinazionali del settore? L’IA porta con sé potenzialità straordinarie, ma anche rischi non trascurabili. Per questo è fondamentale guardare a queste innovazioni con uno sguardo lucido: aperto e fiducioso, ma anche critico e vigile.
È giusto accogliere il nuovo con ottimismo, ma senza spegnere il senso critico. In effetti, una recente indagine del Movimento Etico Digitale (Social Warning) ha mostrato uno scenario a luci e ombre: da un lato i giovani sono ottimisti sulle potenzialità tecnologiche, dall’altro presentano lacune formative importanti che dobbiamo colmare per permettere loro di affrontare consapevolmente le sfide future. Insomma, l’IA a scuola va accolta né con paure luddiste né con ingenua euforia. Soprattutto quando in gioco ci sono gli studenti più fragili – quelli con bisogni educativi speciali, disturbi specifici dell’apprendimento o provenienti da contesti svantaggiati – dobbiamo chiederci: l’IA sarà una risorsa inclusiva per loro, o rischia di diventare una trappola che li esclude ancora di più?
Rischi per gli studenti fragili: dipendenze, divari, algoritmi rigidi
Parliamoci chiaro: ogni innovazione comporta rischi, e l’IA non fa eccezione. Per gli studenti con fragilità, certe insidie dell’IA potrebbero persino amplificarsi. Eccone alcune da tenere d’occhio, in un’analisi onesta e bilanciata.
- Dipendenza e perdita di abilità – Se i ragazzi iniziano ad appoggiarsi troppo a strumenti IA per ogni risposta o esercizio, il rischio è di atrofizzare certe competenze. Pensiero critico, risoluzione di problemi in autonomia, creatività: sono abilità che vanno “allenate” con la pratica, non delegate interamente a un algoritmo. Affidarsi sempre alla risposta facile fornita dall’IA potrebbe far perdere ai più fragili l’occasione di esercitarsi in queste competenze fondamentali. E non dimentichiamo il fattore umano: un uso eccessivo di IA può ridurre l’interazione umana, quel dialogo ricco di empatia con l’insegnante e i compagni che è cruciale soprattutto per chi ha bisogni educativi speciali. Un docente relegato a “sorvegliante di macchine” invece che mentore attivo finirebbe per impoverire l’esperienza formativa.
- Divario digitale ed equità – L’IA a scuola rischia di allargare la forbice tra chi ha di più e chi ha di meno. Scuole ben fornite e famiglie abbienti possono permettersi dispositivi, connessioni veloci, abbonamenti a piattaforme evolute; altre realtà, invece, arrancano. Immaginiamo uno studente con basso reddito o di zona rurale: se la didattica fa affidamento su strumenti IA costosi o online, quel ragazzo potrebbe “restare indietro” per motivi che nulla hanno a che fare con l’impegno o il talento. L’equità nell’accesso alle tecnologie è dunque un punto critico: introdurre l’IA senza un piano per garantire pari opportunità significa accentuare le disuguaglianze esistenti, con gli studenti fragili – già in difficoltà – lasciati ulteriormente ai margini. Questo aspetto richiama il digital divide, sempre in agguato dietro ogni innovazione male distribuita.
- IA “ottusa” verso le differenze – Un paradosso: presentiamo l’IA come strumento per personalizzare l’apprendimento, ma se applicata in modo rigido e standardizzato può ottenere l’effetto opposto. Un algoritmo tarato sullo “studente medio” potrebbe non cogliere le sfumature e le necessità particolari di chi apprende in modo diverso. Pensiamo a uno studente con DSA (disturbo specifico dell’apprendimento): se il software educativo non è progettato anche sulle sue esigenze – ad esempio offrendo lettura facilitata, font ad alta leggibilità, più tempo per le risposte – quell’IA rischia di penalizzarlo, trattandolo come un numero fuori standard. L’intelligenza artificiale, insomma, non è automaticamente sensibile e inclusiva: va formata e tarata con attenzione, altrimenti i ragazzi con bisogni speciali potrebbero trovarsi incastrati in percorsi poco adatti a loro. E un’IA che esclude chi avrebbe più bisogno di inclusione è davvero una trappola subdola.
- Mancanza di guida e supervisione – Un rischio più generale, ma che pesa soprattutto sugli studenti fragili, è lasciarli soli davanti alla tecnologia. I dati di Social Warning sono allarmanti: il 92% degli adolescenti italiani naviga online senza il controllo dei genitori, oltre il 50% non ha alcuna regola familiare sull’uso di Internet. Se questa “giungla digitale” senza adulti di riferimento si estende anche all’utilizzo scolastico dell’IA, i ragazzi più vulnerabili (per età, maturità o difficoltà personali) rischiano di incappare in un uso scorretto o dannoso dello strumento. Ad esempio, uno studente con scarsa autostima potrebbe abusare di ChatGPT per svolgere ogni compito, illudendosi di andare bene a scuola ma in realtà privandosi di apprendere davvero – una dipendenza cognitiva che alla lunga lo impoverisce. Senza un adulto accanto che dia delle regole, che monitori e soprattutto educi all’uso consapevole, l’IA può diventare una scorciatoia ingannevole. In casi estremi, lo studente fragile rischia di isolarsi ancora di più: chi fatica a socializzare potrebbe rifugiarsi nel dialogo con l’assistente virtuale invece di confrontarsi coi pari o chiedere aiuto al prof, aggravando così la propria esclusione.
Certo, questi scenari non sono un destino inevitabile. Ma evidenziano l’importanza di non banalizzare i pericoli. L’IA a scuola va introdotta con cautela, altrimenti le buone intenzioni (aiutare tutti gli studenti) potrebbero sfociare in effetti collaterali indesiderati. Come dice il proverbio: “la tecnologia è un ottimo servitore, ma un pessimo padrone”. Sta a noi adulti fare in modo che gli studenti – soprattutto i più fragili – restino padroni e non vittime degli strumenti digitali.
Potenzialità inclusive: personalizzazione, accessibilità, tutoraggio
Dopo aver elencato i rischi, potremmo sentirci un po’ pessimisti e preoccupati per l’avvento di questa tecnologia. Ma non perdiamo di vista l’altro lato della medaglia: l’IA offre anche straordinarie opportunità di inclusione e personalizzazione, se usata con intelligenza (umana!). Sarebbe ingiusto dipingere solo scenari foschi, perché molti studenti fragili possono fiorire proprio grazie a queste nuove tecnologie. Vediamo alcune potenzialità concrete.
- Apprendimento personalizzato per ogni ritmo – Uno dei superpoteri dell’IA è adattarsi ai bisogni del singolo studente. Piattaforme avanzate come MagicSchool, BriskTeaching o la stessa Khan Academy già utilizzano algoritmi per calibrare il livello delle attività sul ritmo individuale. Ciò significa che un alunno con difficoltà, ad esempio in matematica, può esercitarsi su problemi tarati sul suo livello, ricevendo feedback immediato e spiegazioni aggiuntive se sbaglia. Allo stesso tempo, un ragazzo molto dotato può avanzare più velocemente senza annoiarsi. L’IA eccelle nell’apprendimento adattivo, offrendo a ciascuno una sorta di tutor personale che rinforza gli aspetti deboli e valorizza quelli forti. In questo modo si realizza davvero quella didattica personalizzata che gli insegnanti umani, da soli, faticano a garantire in classi numerose e diversificate. Maurizio Maglioni, docente e autore di “Usare ChatGPT per insegnare”, immagina proprio “una scuola del futuro più personalizzata, flessibile e collaborativa, in cui gli studenti apprendono al proprio ritmo e secondo i propri interessi, con insegnanti nel ruolo di facilitatori e mentori”. Per molti studenti con BES o DSA, poter imparare seguendo il proprio ritmo – senza la pressione di stare al passo della classe – è un sollievo che li aiuta a non perdere motivazione.
- Strumenti compensativi innovativi – L’IA mette a disposizione nuovi strumenti compensativi che possono abbattere barriere antiche. Ad esempio, per studenti con dislessia o altre difficoltà di lettura, esistono software di text-to-speech (come ReadAloud) che leggono ad alta voce qualsiasi testo scritto. Pensiamo all’utilizzo di questi strumenti per alunni DSA, ma anche per alunni non madrelingua italiana o chiunque abbia bisogno di potenziare le proprie competenze linguistiche. Viceversa, strumenti di speech-to-text convertono la voce in testo scritto: utilissimi per chi ha disgrafia o disortografia, ma anche per studenti che pensano più velocemente di quanto scrivono e rischiano di perdere idee per strada. Persino applicazioni ormai “banali” come i traduttori automatici o i sottotitoli generati in tempo reale possono aiutare un ragazzo arrivato da poco in Italia a seguire le lezioni senza sentirsi escluso. In sintesi, l’IA può rimuovere tante barriere di accessibilità: dai sottotitoli per il non udente alla descrizione vocale per il non vedente, fino agli organizzatori digitali (vedi Trello, citato spesso dagli insegnanti) che aiutano gli studenti con ADHD a pianificare i compiti. Tutto questo trasforma l’idea di “sostegno” in qualcosa di moderno e non stigmatizzante: usare un tablet con sintesi vocale in classe non ti fa più sentire “diverso”, perché magari lo usano in tanti. L’IA può ridurre lo stigma legato ai disturbi dell’apprendimento, percependo quelle tecnologie come risorse innovative e non come “stampelle” speciali. In un colpo solo, l’ambiente diventa più inclusivo e motivante per tutti.
- Tutor virtuali e autonomia – Un’altra potenzialità è offrire tutoraggi individualizzati anche dove le risorse umane mancano. Non tutte le famiglie possono permettersi lezioni private per un figlio con difficoltà. Ma un assistente virtuale ben addestrato può affiancare lo studente nei ripassi e nei compiti, un po’ come farebbe un tutor in carne ed ossa. Ad esempio, uno studente con disabilità motoria che non può restare a scuola per il doposcuola potrebbe fare esercizi a casa col supporto di un’IA che gli propone attività su misura e lo motiva con feedback positivi. Questi “tutor artificiali” non si stancano, sono sempre disponibili e – se progettati bene – possono persino adattare il loro stile comunicativo in base allo studente (più paziente, più stringato, ecc.). Aumentare l’autonomia e l’autostima è fondamentale per ogni ragazzo, ma ancor più per chi ha fragilità: riuscire a svolgere un compito “da solo” grazie all’IA può dargli la carica giusta e fargli capire che sì, ce la può fare. Naturalmente il tutor virtuale non sostituisce l’insegnante umano (né l’educatore di sostegno, dove previsto), però può alleggerire il carico e garantire un’assistenza continua anche fuori dall’orario scolastico.
- Didattica coinvolgente e motivante – Non meno importante è il fatto che l’IA offre occasioni per rendere la scuola più coinvolgente. Per studenti demotivati o annoiati – spesso quelli a rischio abbandono – l’uso di tecnologie avanzate può riaccendere la curiosità. Pensiamo alla gamification con l’IA: quiz adattivi, sfide personalizzate, mondi virtuali dove applicare le conoscenze. Uno studente con background svantaggiato che magari a casa non ha molti stimoli culturali potrebbe trovare in queste attività digitali un motivo in più per appassionarsi. Le piattaforme IA ben congegnate danno feedback immediato: ogni piccola conquista viene segnalata e premiata, rinforzando l’impegno. Questo, in pedagogia, è una possibilità preziosissima per tenere agganciati gli allievi più “deboli”. Inoltre l’IA può suggerire percorsi alternativi se uno studente è bloccato su un concetto, evitando quell’esperienza frustrante del “non capire niente e restare indietro”. Insomma, se usata sapientemente, l’IA può trasformare la lezione in un’esperienza più interattiva e su misura, dove ogni studente fragile si senta visto e sostenuto nei propri bisogni.
Tutte queste potenzialità non sono fantascienza futuristica: sono realtà già in sperimentazione in diverse scuole. La chiave, come sottolinea Maglioni, è l’approccio: “Con un approccio responsabile e ben pianificato, l’IA potrebbe diventare un alleato potente per creare un sistema educativo più inclusivo, efficace e innovativo”. Dobbiamo dunque lavorare perché questo scenario positivo prevalga su quello negativo. Come sempre, la differenza la farà l’uso che ne sapremo fare. Il coltello taglia il pane o ferisce a seconda di chi lo impugna; allo stesso modo l’IA può essere un’ancora di salvezza inclusiva o una zavorra che affossa, a seconda di come viene implementata.
Strategie operative per docenti e genitori
A questo punto, la domanda cruciale è: come possiamo massimizzare i benefici dell’IA a scuola minimizzandone i rischi, soprattutto per gli studenti fragili? Non esiste la bacchetta magica, ma ci sono strategie concrete che insegnanti e genitori possono adottare da subito. Ecco alcune linee guida, frutto del buon senso pedagogico e supportate dagli esperti, per un uso consapevole, equo e pedagogicamente valido dell’IA in classe:
- Non demonizzare, ma accompagnare – La prima regola è evitare gli estremi: né tecnofobia né tecnofilia acritica. Come scrive Pier Cesare Rivoltella (insieme a Vittorio Gallese) nel recente “Oltre la tecnofobia”, il vero conflitto non è tra uomo e macchina, ma tra diverse visioni educative. Vietare a priori l’IA sarebbe miope (i ragazzi la userebbero di nascosto, magari peggio), però nemmeno possiamo gettarla ai nostri figli senza guida. “Controllare non è educare” ammoniscono gli autori: limitarsi a proibire o sorvegliare dall’alto non insegna nulla. Meglio allora accompagnare: sedersi accanto a un figlio o a una classe mentre si sperimenta un tool di IA, mostrando interesse e ponendo domande. Ad esempio, un genitore può provare ChatGPT insieme al ragazzo, facendosi spiegare cosa ci trova, e cogliere l’occasione per discuterne i limiti (tipo: “vedi che a volte inventa le risposte?”) e le possibilità (“proviamo a chiedergli di spiegarci questa poesia…”). L’adulto diventa così una guida esplorativa, non un guardiano ostile. Del resto, come ricorda lo psicoterapeuta Alberto Rossetti, “un minore può avere ottime competenze tecniche, ma è l’adulto che con la sua esperienza di vita può aiutarlo a orientarsi in un mondo così vasto e complesso… il genitore dovrebbe affiancare il ragazzo per aiutarlo a usare in maniera consapevole e critica queste piattaforme”. In pratica: niente paura di sedersi accanto ai nostri figli per farsi spiegare TikTok o l’ultimo chatbot, e da lì iniziare un dialogo sulle regole d’uso.
- Educazione digitale e pensiero critico – Una strategia chiave è puntare forte sull’educazione alla cittadinanza digitale. Da un paio d’anni l’educazione civica a scuola include proprio questo: dare agli studenti strumenti per utilizzare in modo consapevole e responsabile i nuovi media e gli strumenti digitali, sviluppando il pensiero critico e la consapevolezza dei rischi (come cyberbullismo, fake news, hate speech). In pratica, ogni volta che introduciamo un elemento di IA in classe dovremmo abbinarvi un momento di riflessione con gli studenti: chi ha programmato questo algoritmo? Come guadagna l’azienda che lo fornisce? Quali dati sto cedendo usando l’app? Cosa fare se ottengo una risposta palesemente errata o di parte? Trasformare l’uso dell’IA in un’occasione per allenare la coscienza critica è probabilmente il più grande favore che possiamo fare ai nostri ragazzi. Ad esempio, invece di vietare Wikipedia (che ormai è “preistoria”, figurarsi ChatGPT!), insegniamo a verificarne le informazioni su più fonti. Allo stesso modo, se uno studente porta un tema “sospettamente” ben scritto grazie a un AI generator, il docente può cogliere la palla al balzo: discuterne apertamente in classe, magari mostrando come l’IA a volte suona convincente pur dicendo inesattezze, oppure facendo notare lo stile piatto. Si passa così dalla logica del punire (l’uso scorretto) a quella dell’educare sul corretto uso. Gli studenti fragili, in particolare, beneficiano di questo approccio perché invece di sentirsi sempre “sbagliati” (perché copiano, perché usano strumenti compensativi), imparano come usare gli strumenti in modo etico e proficuo. Cresce la loro autonomia e autostima di pari passo con la competenza digitale.
- Formazione per i docenti (e i genitori!) – Non possiamo pretendere che l’IA sia inclusiva se chi dovrebbe guidarne l’uso la conosce a malapena. Servono adulti formati e aggiornati. “È prioritario che gli insegnanti siano adeguatamente formati per utilizzare queste tecnologie e integrare i suggerimenti dell’IA nei loro metodi didattici”, sottolinea Maurizio Maglioni. Oggi più che mai la formazione dei docenti su questi temi dev’essere continua (anche se in Italia, nota amaramente Maglioni, manca l’obbligo di un minimo di ore di aggiornamento annuale). Fortunatamente stanno nascendo iniziative in tal senso: citiamo ad esempio il questionario nazionale lanciato da Indire e Tecnica della Scuola nel 2025 proprio per capire l’uso che i docenti fanno dell’IA e quali ostacoli incontrano. L’obiettivo è predisporre percorsi formativi mirati. Un docente formato saprà, ad esempio, quali piattaforme di IA rispettano la privacy e quali no, quali strumenti sono utili per l’inclusione di uno studente DSA e quali sono fuffa marketing. La conoscenza tecnica deve andare a braccetto con la sensibilità pedagogica: ogni consiglio agli insegnanti dovrebbe essere pratico e tarato sul contesto. Anche i genitori però hanno bisogno di formazione: non per diventare esperti di machine learning, ma per comprendere il mondo digitale dei figli. Partecipare a un incontro sulla cittadinanza digitale, leggere un buon libro divulgativo (tipo “Umanesimo Digitale” di Jacopo Franchi, che invita a connettere competenze informatiche e consapevolezza etica) o seguire le campagne di sensibilizzazione del Movimento Etico Digitale può aprire occhi e mente. In fondo, l’educazione è uno sforzo condiviso: scuola e famiglia devono remare nella stessa direzione. Se un docente spiega in classe come usare un chatbot in modo costruttivo, ma poi a casa il genitore urla “Spegni quel coso che rincitrullisce!”, il messaggio per lo studente sarà confuso. Meglio informarsi, confrontarsi tra adulti e presentare ai ragazzi un fronte comune: l’IA è qui per restare, impariamo insieme a sfruttarla al meglio senza esserne sfruttati.
- Le “3 A” di un approccio equilibrato – Gli esperti di media education consigliano di ricordare tre parole chiave: Alternanza, Autoregolazione, Accompagnamento. Sono le cosiddette “3 A di Tisseron” (dal nome dello psichiatra Serge Tisseron) e offrono un’ottima bussola pratica. Alternanza significa insegnare ai ragazzi a bilanciare tempi online e offline, studio digitale e studio analogico. Ad esempio: dopo un’ora di esercizi al computer, perché non fare 20 minuti di lettura su carta o di gioco all’aria aperta? Alternare stimoli diversi aiuta il cervello a non sovraccaricarsi e a sviluppare diverse abilità. Autoregolazione è la capacità di darsi delle regole da soli: inizialmente l’adulto aiuta (es: “prima fai i compiti senza AI, poi controlli con l’AI dove pensi di aver sbagliato”), ma gradualmente il ragazzo impara a gestire in autonomia l’uso dello strumento. Un traguardo di autoregolazione potrebbe essere quando uno studente decide spontaneamente di non usare Google Translate per un compito di inglese perché vuole mettersi alla prova da solo. Accompagnamento, infine, l’abbiamo già sottolineato: presenza reale dell’adulto, capacità di ascoltare e dialogare. Non è un controllo asfissiante, ma un esserci, un mostrare interesse costante. Le 3 A richiedono “un diverso modo di essere degli adulti”, come notano Rivoltella e colleghi. Significa rivedere il nostro ruolo: meno poliziotti del digitale, più compagni di viaggio delle nuove generazioni nell’esplorazione tecnologica. Questa strategia è particolarmente benefica per gli studenti fragili, che più degli altri hanno bisogno di un filtro umano tra sé e la marea digitale. Alternanza evita che si ipnotizzino davanti allo schermo, autoregolazione li rende partecipi attivi e non passivi, accompagnamento li fa sentire protetti ma liberi allo stesso tempo.
- Collaborazione scuola-famiglia e politiche inclusive – Ultimo, ma non per importanza: affrontiamo queste sfide insieme e chiediamo ai livelli alti di fare la propria parte. Insegnanti e genitori dovrebbero dialogare apertamente sull’uso delle tecnologie: condividere osservazioni, casi critici, buone pratiche. Ad esempio, il consiglio di classe può organizzare un incontro con le famiglie sul tema “IA e compiti a casa”, per concordare un approccio comune (magari permettere certi strumenti ma con moderazione). Nel frattempo, è fondamentale che le istituzioni supportino con investimenti e linee guida. Servono infrastrutture nelle scuole meno attrezzate (per colmare il digital divide), linee guida etiche chiare per l’uso di IA nell’educazione, verifiche sulle piattaforme offerte dalle big tech (per evitare che la scuola diventi terreno di conquista commerciale). E ovviamente va garantita la protezione dei dati degli studenti, con rigorose cautele sulla privacy – altro aspetto di cui genitori e docenti dovrebbero essere consapevoli quando adottano una nuova app. La “rete” da tessere è dunque ampia: dal Ministero dell’Istruzione fino al singolo genitore, tutti dovrebbero contribuire a creare un ecosistema dove l’IA sia un mezzo di inclusione e non motivo di ulteriore esclusione.
Il ruolo guida degli adulti nell’era dell’IA
In conclusione, l’intelligenza artificiale a scuola può essere sia risorsa inclusiva sia trappola, e la differenza la farà – ancora una volta – l’educazione. Vinceremo la sfida se sapremo mettere al centro l’essere umano, non la tecnologia fine a sé stessa. Come suggerisce il filosofo Luciano Floridi, dobbiamo puntare a un umanesimo digitale dove la tecnologia è al servizio dell’uomo e non viceversa. I nostri studenti, soprattutto i più vulnerabili, non vanno lasciati soli in balia delle correnti del progresso: hanno bisogno di piloti esperti che li aiutino a navigare.
E qui il ruolo di noi adulti – genitori, docenti, educatori – diventa decisivo. Siamo chiamati a essere quelle bussole etiche e affettive che orientano i ragazzi nel mare dell’IA. Questo ruolo non è affatto superato, anzi! Più le tecnologie avanzano, più c’è bisogno di guide sagge che insegnino ai giovani come mantenere la rotta dei valori, della curiosità, dell’autenticità. Un insegnante appassionato, un genitore attento e amorevole: queste figure restano insostituibili, oggi più di ieri. L’IA in classe non toglie importanza all’adulto, semmai la amplifica – perché solo un adulto consapevole può mediare fra il freddo algoritmo e il cuore pulsante di un adolescente.
Vogliamo che l’IA sia inclusiva? Allora diamole noi questa direzione inclusiva, con scelte pedagogiche mirate e tanto dialogo. Vogliamo evitare le trappole? Allora teniamo gli occhi aperti noi per primi, formando una generazione di utenti critici e creativi piuttosto che consumatori passivi. Dobbiamo essere, in altre parole, modelli credibili: mostrare nei fatti come si può abbracciare l’innovazione senza perdere l’umanità. I ragazzi ci osservano – sempre, anche quando smanettano sul tablet – e impareranno soprattutto dall’esempio.
Un domani non lontano vedremo classi in cui umani e intelligenze artificiali collaborano armoniosamente. Ma per arrivarci in modo equo e consapevole, c’è bisogno di quella marcia in più che solo la sensibilità umana può dare. Mentre la tecnologia fa passi da gigante, ricordiamoci di farne anche noi sul piano educativo. Come adulti, possiamo essere il ponte tra gli strumenti del futuro e i valori di sempre. Forse l’IA non ha (ancora) un cuore, ma noi sì: usiamolo come bussola e saremo in grado di guidare i nostri figli in qualunque rivoluzione digitale, presente e futura, con fiducia e saggezza.
Fonti e riferimenti
· Gregorio Ceccone – “Oltre la lavagna: l’intelligenza artificiale come strumento didattico e pedagogico” – https://gregorioceccone.com/2023/08/02/oltre-la-lavagna-lintelligenza-artificiale-come-strumento-didattico-e-pedagogico/
· Maurizio Maglioni – “Chat GPT per insegnare” (Intervista a Maurizio Maglioni) – DiCultHer 2023 https://www.diculther.it/rivista/chat-gpt-per-insegnare-intervista-a-maurizio-maglioni/ (umanesimodigitale.com)
· Jacopo Franchi – Umanesimo Digitale (blog, 2025) https://umanesimodigitale.com/jacopo-franchi/ (umanesimodigitale.com)
· Pier Cesare Rivoltella, Vittorio Gallese – Oltre la tecnofobia. Il digitale dalle neuroscienze all’educazione (2025) https://www.raffaellocortina.it/scheda-libro/vittorio-gallese-stefano-moriggi-pier-cesare-rivoltella/oltre-la-tecnofobia-9788832857511-4470.html (www.raffaellocortina.it)
· Movimento Etico Digitale – Social Warning (studi 2019-2023) https://socialwarning.it/ (Social Warning, Movimento Etico Digitale)
· Bruno Chiozzi – Intelligenza Artificiale ed inclusione scolastica (Tecnica della Scuola, 2025) https://www.tecnicadellascuola.it/intelligenza-artificiale-ed-inclusione-scolastica-come-la-usano-i-docenti-il-questionario-della-tecnica-della-scuola-e-indire-partecipa (Tecnica della Scuola)
· Agenda Digitale – Cittadinanza digitale ed educazione civica (linee guida MIUR) https://www.mim.gov.it/documents/20182/0/Linee%2Bguida%2BEducazione%2Bcivica.pdf/9ffd1e06-db57-1596-c742-216b3f42b995?t=1725710190643 (mim.gov.it)
· PrivacyControl – Rischi dell’IA a scuola: sfide etiche https://privacycontrol.it/rischi-ia-scuole-opportunita-sfide-etiche/ (privacycontrol.it)
- Perché serve un’educazione civica all’uso di internet | Wired Italia
- Intelligenza Artificiale ed inclusione scolastica, cosa ne pensano i docenti? Il questionario della Tecnica della Scuola e Indire – PARTECIPA – Notizie Scuola
- “Chat GPT per insegnare” Intervista a Maurizio Maglioni – CULTURE DIGITALI
- Oltre la tecnofobia. Il digitale dalle neuroscienze all’educazione – Casco Magazine












