tecnologie in classe

Educazione digitale a scuola: oltre i divieti, come farla funzionare



Indirizzo copiato

L’innovazione corre più delle norme e la scuola risponde spesso con divieti. Un approccio fondato su autonomia, educazione digitale e partecipazione può trasformare i rischi in opportunità concrete per studenti, docenti, famiglie e territorio

Pubblicato il 20 nov 2025

Franco Torcellan

Associazione RED – Laboratorio di Ricerca Educativa e Didattica “Formare Trasformare Innovare”



scuola game-based learning orientamento ai in classe educazione digitale

L’evoluzione della tecnologia negli ultimi anni ha fatto emergere innovazioni e problematiche estremamente complesse che stanno rivoluzionando la nostra vita, potenziando fortemente le nostre capacità di incidere nella realtà, ma anche esponendo a rischi i cittadini, in particolare quelli più giovani.

La scuola sta reagendo con divieti e con un’attenzione maggiore verso i pericoli, piuttosto che verso le opportunità. Un approccio positivo è quello di non imporre restrizioni dal livello centrale, ma di far in modo che le istituzioni scolastiche autonome condividano regolamenti, progettualità ed azioni specifiche per i loro contesti sociali.

Da Platone a Virilio: la paura ancestrale dell’innovazione

Le innovazioni tecnologiche hanno sempre scatenato, da un lato entusiasmi e voglia di sfruttare opportunità, dall’altro rifiuto e paura di conseguenze catastrofiche.
Già Platone, nel Fedro, a fronte della diffusione della scrittura (intesa come tecnologia della comunicazione) paventava la perdita della memoria (Platone – L’invenzione della scrittura, s.d.). Paul Virilio, negli anni ’90, pur non essendo contrario al progresso tecnologico, teorizzava che le tecnologie racchiudono l’incidente. “Vivere questo nostro presente en vitesse, significa privilegiare l’incidente anche nel senso di ce qui arrive, ciò che accade. L’accelerazione portata dal progresso ha come conseguenza una perdita del controllo.” E ancora: “Inventare le navi significa inventare il naufragio. Se nessun aereo fosse mai caduto, non ci sarebbe l’aereo stesso. Se non morissimo, non saremmo neanche esseri viventi. Quindi, l’incidente non è un fatto estetico ma una constatazione fenomenologica. Il disastro naturale rivela l’essenza del mondo: l’inondazione l’acqua, il terremoto la terra; quello tecnologico, l’industria e l’intelligenza.” (Di Genova, 2018).

Connettività, realtà aumentata e intelligenza artificiale: i tre fattori di perdita del controllo

La perdita del controllo è dunque l’elemento di crisi determinato oggi da almeno tre fattori.

Il primo è il livello sempre più elevato di connettività dovuto alla diffusione dei dispositivi personali e mobile, la partecipazione alle piattaforme e ai social, la disponibilità degli oggetti IOT (Internet Of Things). Sono evidenti le grandi opportunità per le attività produttive, la creatività e la discussione delle idee e, al contempo, la difficoltà di controllare i fenomeni che si sviluppano in rete e di stabilire norme realmente applicabili a contesti internazionali.

Il secondo è l’intrecciarsi di un mondo virtuale/digitale con quello reale/fisico a creare un’unica realtà che genera potenziamenti delle capacità umane, ma che può creare anche stati di alterazione psichica e comportamentale.

Il terzo fattore di possibile perdita del controllo è la delega delle decisioni all’Intelligenza Artificiale che può fornire risposte ai problemi in tempi rapidissimi e scelte attraverso l’analisi di una grandissima quantità di variabili, ma che al contempo può agire in difformità dai principi etici e in modi contrari alle norme giuridiche.

L’accelerazione portata dal progresso tecnologico è ancor più aumentata negli ultimi anni e amplifica l’impatto dei tre fattori qui elencati, rendendo sempre più necessaria la delega alle macchine che riescono a produrre in pochi minuti quello che un umano impiega più ore o più giorni a fare. La diffusione delle tecnologie digitali e dell’Intelligenza Artificiale investe poi non solo la sfera della produzione, ma anche l’intero corpo sociale e determina nuovi comportamenti e forme di relazione. Conseguentemente, è necessario stabilire norme specifiche coerenti con i principi democratici di uguaglianza e libertà e stabilire le condizioni di legalità sulle quali a lungo non si è riflettuto, alla luce del fatto che l’accesso alle tecnologie è aperto a tutti, anche ai bambini e alle persone fragili.

Il paradosso normativo: quando le leggi inseguono la tecnologia

La difficoltà di normare questi nuovi mondi è veramente elevata, non solo dal punto di vista tecnico e della molteplicità di soggetti, situazioni e luoghi virtuali collocati in una dimensione internazionale, ma anche per la contraddittorietà tra i principi in gioco. La necessaria tutela della privacy si può trasformare in anonimato che contrasta il principio di responsabilità. La condivisione dei contenuti può spingersi a ledere il diritto d’autore. Lo spirito imprenditoriale può sconfinare nel porre in essere comportamenti lesivi dei diritti delle persone come l’accaparramento e l’uso di dati personali senza consenso, la mancata tutela dei minori, azioni in contrasto con il principio di libera concorrenza e la creazione di contenuti diffamatori o volti ad indurre in inganno. Insomma, per dirla con Virilio, è difficile individuare l’“incidente” e porvi rimedio senza compromettere al contempo le potenzialità di innovazione e progresso degli strumenti e degli ambienti digitali.

L’Unione Europea sta compiendo un encomiabile sforzo normativo, ma si scontra con la complessità ora descritta e con la velocità con cui le innovazioni fioriscono e si diffondono a livello di massa. Ad esempio l’AI Act (Regolamento del Parlamento Europeo sull’Intelligenza Artificiale, 2024) ha richiesto 3 anni per essere approvato e l’attuazione completa è prevista per il 2030.

ChatGPT ha raggiunto 1 milione di utenti registrati in soli 5 giorni dal lancio al pubblico. Entro 2 mesi dal suo lancio, nel gennaio 2023, il medesimo chatbot aveva già raggiunto i 100 milioni di utenti mensili attivi. Si finisce per applicare le norme quando il contesto per cui sono pensate è già cambiato, sono comparsi nuovi fenomeni e i soggetti proprietari hanno assunto potere e possibilità di ricatto con cui difendere con ogni mezzo i propri interessi, opponendosi di fatto alla tutela dei cittadini e della cosa pubblica. Lo scontro tra imprenditoria spregiudicata guidata da un’ideologia iperliberista e una quota consistente di opinione pubblica animata da paura che cerca di porre un freno ai colossi delle tecnologie è ben evidente nei rapporti tra Stati Uniti ed Unione Europea.

Italia e smartphone a scuola: divieti basati su ricerche scientifiche limitate

Un gran numero di Paesi, tra cui l’Italia, si è distinto per l’emanazione di norme fortemente restrittive per gli istituti scolastici sulla scorta di alcuni studi che mettono in evidenza una correlazione tra utilizzo delle tecnologie e la qualità delle prestazioni cognitive con le conseguenti ricadute sul benessere scolastico. L’attenzione è stata rivolta soprattutto agli smartphone ritenuti i principali responsabili della frammentazione dell’attenzione e quindi della perdita di memoria, della diminuzione delle capacità dialettiche e del mancato sviluppo del pensiero critico (Disposizioni in merito all’uso degli smartphone e del registro elettronico nel primo ciclo di istruzione – A.S. 2024-2025, 2024) (Disposizioni in merito all’uso degli smartphone nel secondo ciclo di istruzione., 2025). Gli studi scientifici in materia però non sono molti e sono limitati nella popolazione indagata e nel numero di fattori che incidono sul problema: la sua complessità dovrebbe far prendere in considerazione, non solo della disponibilità o meno degli smartphone a scuola, ma anche le caratteristiche del contesto interno ed esterno alla stessa, nonché il tipo di didattica che viene attuato. Insomma, servirebbero analisi più accurate delle pratiche di utilizzo delle risorse digitali da parte dei bambini e degli adolescenti nella scuola, in famiglia e nel contesto sociale, tenendo anche conto delle diversità culturali sia rispetto ai diversi Paesi che rispetto alle specifiche comunità nelle società multietniche (Maurizio, 2025). Alcuni studi non hanno poi evidenziato una particolare correlazione tra l’uso complessivo degli smartphone e dei social a scuola e le prestazioni degli studenti. Insomma, gli studi scientifici sono ancora limitati e non possono legittimare interventi legislativi fortemente restrittivi. Tra l’altro non vengono nemmeno analizzati contestualmente gli effetti positivi che i dispositivi e le risorse digitali utilizzati nelle attività didattiche possono portare agli studenti in termini di consapevolezza del proprio apprendimento, delle proprie carenze e dei propri punti di forza.

Il modello estone: intelligenza artificiale per tutti gli studenti

Certo è che i divieti sono azioni decise e facili, che non impegnano risorse e trovano facile consenso in una opinione pubblica impaurita dalla novità e dalla complessità dei contesti e dei problemi; esse, però, non risolvono tali problemi e nemmeno li analizzano in profondità. D’altro canto, in Estonia, il Paese più digitale dei paesi dell’Unione Europea con il 71% del PIL determinato dal digitale (Gava, 2021) e che primeggia anche per qualità dell’apprendimento, gli smartphone non sono vietati, anzi sono largamente impiegati nella didattica e ogni studente di scuola superiore, grazie ad accordi con partner tecnologici quali OpenAI e Anthropic, progressivamente a partire da quest’anno, avrà a disposizione un account di una piattaforma di intelligenza artificiale (AI Leap, 2025). Inoltre, in Croazia, Germania, Polonia e Portogallo le scuole hanno potuto decidere autonomamente quali politiche adottare. La scelta è stata in genere orientata al divieto, ma l’esercizio dell’autonomia è probabilmente la strada giusta.

Le linee guida ministeriali sull’intelligenza artificiale: tra burocrazia e progettualità

Alle istituzioni scolastiche italiane viene lasciata una maggiore libertà nelle Linee guida per l’introduzione dell’Intelligenza Artificiale nelle istituzioni scolastiche emanate dal Ministero per l’Istruzione e il Merito (Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche Versione 1.0 – Anno 2025, 2025). Qui viene concessa discrezionalità negli interventi, libertà nella scelta delle metodologie e viene messa a disposizione una piattaforma ministeriale per la documentazione delle esperienze. Nelle conclusioni del documento si dichiara poi necessario “un approccio graduale che tiene conto delle specificità di ciascuna Istituzione scolastica per integrare l’IA in modo tale che possa effettivamente supportare l’inclusione, migliorare l’efficienza e accrescere la qualità dell’offerta formativa”.

Non si può che essere d’accordo, ma è stato rilevato come in queste linee guida si usi un linguaggio burocratico e regolativo (Di Donato, 2025), probabilmente dovuto all’orientamento marcato verso il settore amministrativo, dove si nutrono le maggiori preoccupazioni per i rischi che si possono correre. Alla didattica, infatti, è dedicato uno solo dei capitoli del documento che si rivolge comunque a tutte le componenti: docenti, dirigenti, personale amministrativo, studenti, famiglie e stakeholder. Non traspare però con chiarezza la necessità di un’azione progettuale che attivi la comunità nel suo complesso: studenti e famiglie devono essere informate per la condivisione dei progetti, ma non sono ipotizzate vere e proprie forme di coinvolgimento nelle attività di progettazione, di ricerca e sperimentazione.

Flessibilità, responsabilità e reti: i tre pilastri dell’autonomia scolastica

La scelta di utilizzare o di limitare l’uso delle tecnologie deve essere una scelta delle specifiche comunità educanti e deve condurre alla progettazione e realizzazione di azioni di educazione alla cittadinanza attiva rivolte a tutte le componenti citate in precedenza nella loro interazione, perché tutte necessitano di formazione per lo sviluppo di competenze di cittadinanza digitale. Le scuole, dunque, devono poter esercitare la loro autonomia e non essere sottoposte a provvedimenti di limitazione che non prendono in esame le specifiche situazioni rispetto ai bisogni formativi di tutta la comunità, alla vision e alla mission che orienta la progettazione, alle opportunità di creazione di sinergie territoriali.

Le condizioni dell’autonomia: dalla flessibilità alla valutazione dei cambiamenti culturali

Alle scuole, in ultima analisi, deve essere garantito l’esercizio delle tre condizioni su cui l’autonomia scolastica si fonda:

  • la flessibilità, che consente di rispondere agli specifici bisogni educativi del contesto stabilendo obiettivi, metodi, azioni nell’elaborazione del Piano dell’offerta Formativa e del Piano Triennale dell’Offerta Formativa;
  • la responsabilità, che va assunta nella progettazione dell’offerta formativa con precise forme di valutazione dei risultati e dei cambiamenti: non vanno infatti valutati solo i risultati specifici del progetto in base agli obiettivi posti, ma anche i cambiamenti culturali che avvengono col tempo nel corpo sociale della comunità scolastica e locale e che sono indicatori della transizione digitale (Michilli, 2025);

Patti territoriali e ricerca-azione: la scuola come motore di cambiamento sociale

  • lo sviluppo di reti di collaborazione con soggetti territoriali e nel web per creare sinergie e costruire un sistema formativo che coordini l’azione di sistema: la documentazione delle esperienze e le loro narrazioni sono strumenti fondamentali per unire ed ampliare la comunità educante.

Le scuole autonome sono soggetti plurimi e complessi che possono quindi predisporre, nel dibattito tra le varie componenti (insegnanti, genitori, lavoratori, anziani, imprenditoria, associazioni, servizi istituzionali, …), patti territoriali e piani di azione rivolti a tutta la comunità che producano una crescita di consapevolezza sui fenomeni prodotti dal digitale e codici di comportamento informati da un’etica condivisa e dalla volontà di mettere a frutto le opportunità create dalla tecnologia. Nel regime di Autonomia le scuole possono non solo progettare azioni di formazione per tutte le loro componenti, ma anche svolgere Formazione Azione e Ricerca Azione per stabilire una corretta gestione delle tecnologie, potenziare gli apprendimenti e promuovere relazioni positive tra tutti i membri della comunità educante. Particolarmente utili per affrontare i rischi e le opportunità delle tecnologie all’interno del tessuto sociale possono essere quei progetti che connettono direttamente la scuola alla realtà territoriale, quali i progetti di Service Learning e quelli di orientamento al mondo del lavoro (Formazione Scuola-Lavoro, Laboratori per l’Occupabilità, …) Le scuole sono quindi in grado di autoregolarsi, codificando comportamenti virtuosi, che sfruttino opportunità di apprendimento e che creino condizioni di sicurezza, governando fenomeni e situazioni sui quali le istituzioni intervengono elaborando norme con troppa lentezza, come abbiamo evidenziato in precedenza.

Dai divieti all’educazione: il metodo delle 3 A di Serge Tisseron

La scuola non può pensare di risolvere i problemi rimuovendoli dal contesto scolastico. Il suo scopo è proprio l’educazione e deve quindi affrontare le modalità reali in cui la vita dei cittadini si svolge. L’utilizzo sano e produttivo delle tecnologie è un elemento fondamentale per l’apprendimento delle discipline e per una efficace educazione alla cittadinanza. Va affrontata come comunità scolastica nella dimensione integrata di rete con famiglie e territorio e di rapporti intergenerazionali: da tempo vengono sviluppati progetti che sfruttano le abilità dei ragazzi per sviluppare competenze digitali negli anziani, ma si tratta di allargare il complessivo dialogo tra ragazzi e adulti, ricordando che il bisogno formativo e di educazione riguarda anche quest’ultimi che spesso sono i primi ad utilizzare le tecnologie e i social network in modo scorretto, non sicuro e con scarso senso civico. Per darsi delle regole sul digitale, le scuole nella propria azione dovrebbero limitare i divieti aprioristici, alla luce del fatto che le ricerche scientifiche attualmente sono circoscritte e non giungono a risultati univoci; le limitazioni dovrebbero essere graduate rispetto alla crescita del pensiero critico degli studenti e della consapevolezza del positivo funzionamento della comunità educante attraverso le regole e i comportamenti che avrà definito nel dialogo tra le sue componenti, rispondendo rapidamente all’emergere di nuovi fenomeni e al delinearsi di nuove situazioni.

Per guidare questa azione costante delle comunità educanti potrebbe essere utile riferirsi al metodo delle 3 A elaborato da Serge Tisseron (Tisseron, 2016) per l’educazione dei bambini dai 3 ai 12 anni all’uso degli schermi; esso può essere interpretato come strumento di complessiva educazione alle tecnologie della comunicazione ed adattato anche agli adulti. Le 3 A individuano i seguenti principi:

Accompagnamento attivo contro il solipsismo tecnologico

  • Accompagnamento, l’adulto accompagna lo studente nell’uso delle tecnologie con una presenza attiva, rispondendo a dubbi e sollevando dubbi, insomma problematizzando; per gli studenti di una fascia d’età maggiore e per gli adulti l’accompagnamento può tradursi nell’attivazione di condizioni di dibattito e di attività cooperative che stimolano la partecipazione attiva, il confronto tra punti di vista differenti e l’“interdipendenza sociale positiva” (Matini 2020). Ciò evidentemente evita il manifestarsi della tendenza al solipsismo tecnologico, una condizione dove le esperienze, le relazioni e perfino la conoscenza sono mediate quasi esclusivamente da strumenti informatici e social network ed insorgono forme di vera e propria dipendenza dalla tecnologia.

Alternanza dei media e fact-checking nell’era dell’intelligenza artificiale

Alternanza nell’utilizzo di diversi media (computer e dispositivi digitali, libri, musei, televisione, videogiochi, disegno, giochi di ruolo, fumetti, …) per sfruttare la molteplicità delle risorse, connettere informazioni, esplorare punti di vista, comprendere le varie opportunità che i loro linguaggi offrono, risolvere problemi, interpretare fenomeni e progettare elaborati ed azioni; il problema della “monomedialità” non riguarda solo i bambini, ma anche molti adulti e si estende più ampiamente a considerare buona ed esaustiva la prima fonte che capita nell’uso dei motori di ricerca o alla prima risposta ad un prompt consegnato ad un chatbot di Intelligenza Artificiale, soprattuto se gli elementi informativi e le opinioni confermano quelli già posseduti: alternanza vuol dire anche effettuare il fact checking, esplorare più fonti, approfondire e mettere a confronto.

Le sintesi create oggi dai motori di ricerca utilizzando l’intelligenza Artificiale (ad esempio, AI Overview di Google) sono estremamente comode, ma stanno riducendo a sé stesse gli esiti della ricerca stessa: non sono un inizio di esplorazione, ma la fine della stessa. Gli studi recenti del Pew Research Center (luglio 2025) mostrano che quando è presente un riepilogo AI Overview, la percentuale di clic su link (compresi quelli inclusi nel box AI) si dimezza rispetto ai risultati organici classici, passando dal 15% (SERP “classica”, la pagina dei risultati restituita dal motori) all’8% (Chapekis & Lieb, 2025). Alternanza vuol dire anche sviluppare la ricerca, accedendo e approfondendo i materiali proposti.

Autoregolazione, cioè la costruzione della capacità di gestire individualmente o a livello di gruppo l’uso proficuo dei media. Autoregolazione significa imparare a gestire da soli il tempo e i modi di utilizzo di media e delle piattaforme, spegnendo i dispositivi o scegliendo i contenuti in modo autonomo e consapevole. Questo comporta la capacità di interrompere l’uso di un dispositivo o di un medium quando si raggiunge il limite adeguato, passando ad altre attività senza imposizione esterna. Soprattutto nella fruizione individuale delle tecnologie è presente una componente di serendipità: un agire senza un preciso scopo che può portare a scoperte di contenuti e strumenti che nell’attività strutturata e finalizzata non sarebbero mai emersi. Bisogna però che questa azione “selvaggia” non diventi una deriva cognitiva permanente che, data la piacevolezza, finisca per creare una dipendenza. Autoregolazione significa anche saper trovare di volta in volta un proprio equilibrio tra l’utilizzo serendipico delle tecnologie e l’utilizzo mirato, guidato da scopi, progetto e pianificazione dell’azione.

Dalle paure alla cittadinanza

Il metodo delle 3 A quindi non impone divieti a priori, lascia libere le comunità di decidere e di agire a seconda delle specificità dei contesti puntando sull’educazione, facendo leva sulla competenza chiave dell’“imparare ad imparare” del quadro di riferimento dell’Unione Europea che rimanda all’apprendimento permanente e che coinvolge quindi tutti i cittadini.
Le paure che determinano l’attuale propensione al divieto e un’attenzione maggiore ai rischi piuttosto che alle opportunità che le tecnologie mettono a disposizione, possono essere superate dunque attraverso l’introduzione delle stesse come strumenti ed ambienti di collettività che perseguono programmaticamente l’educazione alla cittadinanza.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati