Il dibattito pubblico sull’intelligenza artificiale continua a oscillare tra entusiasmo e paura, accelerazione e divieto. In entrambi i casi si elude la domanda decisiva: non come usare gli strumenti, ma come orientarsi in un ecosistema digitale complesso, attraversato da opportunità e rischi. Senza consapevolezza e responsabilità, l’innovazione rischia di trasformarsi in nuova fragilità.
Educare oggi significa soprattutto aiutare le persone a conoscere e a prendere decisioni informate in contesti ad alta complessità. L’intelligenza artificiale rende evidente l’esigenza di sviluppare discernimento digitale. È una responsabilità che riguarda la scuola, la formazione continua e l’intero ecosistema educativo.
Indice degli argomenti
Partecipazione civica tra rete e cittadinanza
Una contro-narrazione utile arriva dai dati. L’indagine promossa da Fondazione Terzjus, in collaborazione con Italia non profit, restituisce un quadro più articolato dell’uso del digitale nella partecipazione civica.
Il web non è soltanto il luogo delle fake news o dell’attivismo di facciata: è anche uno spazio in cui si esprimono nuove forme di impegno, relazione e cittadinanza. Più di 1.100 persone, di età e territori diversi, descrivono un fenomeno composito: si partecipa online per informare, contrastare ingiustizie, sostenere persone in difficoltà, sentirsi parte di una comunità di valori. Le differenze generazionali non si riducono a un semplice “più giovani uguale più attivi”, ma rivelano modalità diverse di coinvolgimento: più reattive nelle fasce giovani, più strutturate e progettuali in quelle centrali.
Non si osserva una sostituzione tra online e offline, ma una crescente integrazione: l’attivismo digitale diventa efficace quando incontra organizzazioni, contesti e responsabilità condivise. La rete genera energia potenziale; spetta all’educazione e alle istituzioni trasformarla in impegno consapevole e duraturo.
I rischi della partecipazione a bassa soglia
L’indagine evidenzia anche i rischi: forme di partecipazione “a bassa soglia”, emotive e intermittenti, esposte alla disinformazione e talvolta all’isolamento. È proprio questa ambivalenza a riportarci al nodo centrale: il problema non è il digitale in sé, ma la qualità delle competenze con cui lo si abita. Il discernimento digitale non nasce automaticamente dall’uso intensivo delle tecnologie. Richiede contesti educativi intenzionali, spazi di riflessione e adulti capaci di accompagnare la lettura critica dei fenomeni. Senza questo presidio, l’accessibilità tecnologica può trasformarsi in nuova fragilità.
Competenze e discernimento digitale nel terzo settore
Terzo settore e competenze: dalla tecnica alla governance
Anche nel Terzo settore la questione non è più solo l’alfabetizzazione di base. Le esperienze sostenute dal Fondo per la Repubblica Digitale mostrano come le competenze digitali diventino realmente trasformative quando si intrecciano con governance, sicurezza dei dati, integrazione dei processi, uso consapevole dell’intelligenza artificiale.
Cloud, piattaforme collaborative, policy sulla protezione dei dati, strumenti di IA generativa: tutto questo non può essere ridotto a un insieme di abilità operative. Serve una visione sistemica, capace di collegare tecnologia, missione sociale e responsabilità organizzativa. Anche qui, la parola chiave è discernimento.
La scuola nello stallo: frammentazione o regia di sistema?
Il bisogno di chiarezza emerge con particolare forza nella scuola, dove le recenti linee guida sull’intelligenza artificiale hanno prodotto, in molti casi, più incertezza che orientamento.
Il nodo tra uso individuale e uso didattico
Il nodo principale, a mio avviso, è la mancata distinzione strutturale tra uso individuale e uso didattico dell’IA. Ma al di sotto di questa ambiguità si colloca una questione ancora più delicata: la gestione del rischio e la distribuzione delle responsabilità.
In Italia, la tutela dei minori e il trattamento dei dati sono stati di fatto demandati alle singole istituzioni scolastiche, chiamate a orientarsi tra GDPR, valutazioni d’impatto, pseudoanonimizzazioni, token, credenziali e contratti con fornitori globali. Il risultato è una frammentazione implicita del rischio, che produce disomogeneità territoriale, rallentamenti operativi e una crescente esitazione nell’innovare.
La strada della pseudoanonimizzazione dei dati dei minori, soprattutto in ambienti pensati per un uso individuale e personalizzato, non appare strutturalmente risolutiva: non elimina il problema, lo redistribuisce. Aumenta gli adempimenti senza sciogliere la domanda di fondo: chi governa il rischio sistemico?
Discernimento digitale e governance: il confronto con l’Estonia
Altri Paesi hanno scelto di affrontare questa domanda in modo esplicito. L’Estonia, con il programma nazionale AI Leap, ha optato per una centralizzazione del rischio invece che per la sua distribuzione. Il Ministero dell’Educazione e della Ricerca ha negoziato direttamente con i provider condizioni vincolanti: nessun utilizzo dei dati degli studenti per l’addestramento dei modelli, piena conformità al GDPR, storage europeo, controlli enterprise e linee guida integrate nel quadro normativo scolastico. L’accesso a ChatGPT Edu per circa 20.000 studenti e 3.000 docenti è stato gestito centralmente, accompagnato da formazione obbligatoria per gli insegnanti e da un’infrastruttura contrattuale definita a livello nazionale.
Perché il confronto con l’Italia va contestualizzato
Naturalmente, il confronto va letto con cautela. L’Estonia conta poco più di un milione di abitanti e un sistema scolastico di dimensioni contenute, mentre l’Italia gestisce uno dei sistemi educativi più ampi d’Europa per numero di studenti, docenti e istituzioni. Gli ordini di grandezza sono profondamente diversi e rendono più complesso qualsiasi coordinamento nazionale. Proprio per questo, però, il tema della regia e della chiarezza delle condizioni comuni diventa ancora più rilevante.
Dai vincoli amministrativi a una scelta politica
La differenza decisiva, infatti, non è tecnica ma istituzionale: in un caso la responsabilità resta diffusa e frammentata, nell’altro viene assunta a livello di sistema. È qui che si misura la distanza tra un approccio prevalentemente amministrativo, che tende a moltiplicare le prescrizioni, e uno politico, capace di definire un quadro coerente entro cui le scuole possano operare.
Il discernimento digitale davanti ai wicked problems educativi
In questo contesto è opportuno riconoscere che l’introduzione dell’intelligenza artificiale nella scuola rientra tra i cosiddetti wicked problems: questioni complesse, prive di soluzioni lineari, in cui dimensioni tecnologiche, giuridiche, pedagogiche ed etiche si intrecciano in modo dinamico. Non esistono scorciatoie regolative né soluzioni esclusivamente tecniche. Servono visione, coordinamento e capacità di apprendere progressivamente dall’esperienza. Come sottolinea l’Oecd nel Digital Education Outlook 2026, la sfida non è vietare o liberalizzare indiscriminatamente, ma costruire cornici di governance capaci di mettere al centro giudizio umano, supervisione e progettazione educativa.
Adolescenti, uso quotidiano e delega cognitiva
C’è inoltre un elemento che non possiamo ignorare. Mentre il sistema scolastico discute regole e responsabilità, l’uso dell’intelligenza artificiale da parte degli adolescenti è già una realtà quotidiana. Molti studenti sperimentano strumenti generativi a casa, spesso in modo autonomo e non guidato. In alcuni casi, i più competenti o tecnologicamente più disinvolti producono elaborati che poi circolano tra compagni di classe, alimentando dinamiche di delega che rischiano di sostituire l’apprendimento con la mera consegna del compito. Il risultato paradossale è che, pur usando l’IA, una parte significativa degli studenti non sta realmente imparando a comprenderne il funzionamento, i limiti e le implicazioni cognitive ed etiche. Si ottiene il risultato, ma non si costruisce competenza e non si sviluppa il giudizio.
Non si tratta solo di un’impressione empirica. L’Oecd evidenzia come l’uso di strumenti generativi che forniscono risposte dirette possa migliorare la performance nel breve periodo senza produrre reali guadagni di apprendimento, e talvolta persino indebolire l’impegno metacognitivo degli studenti. Il rischio non è che gli studenti “copino”, ma che delegando lo sforzo cognitivo smettano di esercitare il giudizio.
Nuove disuguaglianze e discernimento digitale a scuola
Si apre così una nuova forma di disuguaglianza, meno visibile ma non meno rilevante: chi dispone di maggiore capitale digitale, di contesti familiari più attrezzati o di competenze informali già sviluppate parte avvantaggiato; gli altri restano fruitori passivi o beneficiari indiretti del lavoro altrui. Senza un presidio educativo intenzionale, l’IA rischia di amplificare differenze preesistenti invece di ridurle.
Quando la scuola resta fuori dallo spazio reale dell’IA
Se la scuola non entra in questo spazio con una proposta didattica strutturata, il rischio non è solo l’uso improprio dell’IA, ma la perdita di una sfida educativa decisiva.
Una soluzione sostenibile per il discernimento digitale a scuola
In assenza di una regia nazionale pienamente definita, diventa necessario ripensare l’uso didattico dell’IA non come accesso individuale a strumenti nati per il mercato consumer, ma come ambiente di apprendimento condiviso. Per l’uso didattico in classe, i provider che intendono operare nel sistema scolastico dovrebbero mettere a disposizione piattaforme e account multiutente (di classe o di gruppo), progettati specificamente per l’ambiente educativo. La stessa Oecd sottolinea la differenza tra strumenti generici, nati per il mercato consumer, e sistemi generativi progettati con finalità educative, integrati in modelli pedagogici espliciti e con supervisione umana. Non è una questione tecnologica, ma di design istituzionale e intenzionalità didattica.
Le soluzioni provvisorie adottate dalle scuole
Tuttavia, nella fase attuale, molte scuole si trovano di fronte a un’esigenza operativa immediata. In alcuni casi si ricorre a soluzioni “di passaggio”, come l’uso di account di classe provvisori o condivisi, gestiti dal docente e non intestati ai singoli studenti. Si tratta di una scorciatoia organizzativa che può ridurre la creazione di profili individuali e limitare la raccolta di dati personali, ma che non può essere considerata una soluzione definitiva né sostitutiva di un quadro regolatorio più chiaro.
Un modello collaborativo per l’uso educativo dell’IA
La direzione auspicabile resta quella di strumenti pensati per il contesto educativo: non assistenti personali, ma ambienti didattici collettivi. Un po’ come accade in azienda con i cobot, i robot collaborativi che affiancano una squadra di lavoro senza sostituirla né operare in autonomia: strumenti a disposizione del gruppo, non “protesi” individuali. In questo modello:
Le condizioni del modello collettivo
- l’IA non è un tutor individuale permanente, ma uno strumento condiviso;
- l’interazione è collettiva, osservabile e integrata nel processo di insegnamento-apprendimento;
- non si generano profili individuali né memorie persistenti riferibili ai singoli studenti;
- l’uso è limitato a finalità educative esplicitamente definite;
- il docente mantiene la regia pedagogica e discute criticamente gli output.
Questa impostazione riduce significativamente i rischi per i minori, evita complesse pseudoanonimizzazioni e alleggerisce il carico amministrativo sulle scuole. Soprattutto, riporta l’intelligenza artificiale entro una cornice educativa intenzionale, trasparente e verificabile.
Il ruolo del ministero e dell’ecosistema educativo
Il Ministero dell’Istruzione e del Merito potrebbe svolgere un ruolo di regia, favorendo la definizione di requisiti comuni per i provider, promuovendo condizioni condivise per l’uso didattico dell’IA e contribuendo a chiarire la distribuzione delle responsabilità. Un coordinamento di sistema aiuterebbe le scuole a muoversi con maggiore serenità e coerenza.
Una riflessione analoga vale per tutti i contesti educativi extra scolastici che coinvolgono minori o persone adulte in condizione di fragilità. Nei centri di aggregazione, nelle organizzazioni del Terzo settore, nei percorsi di formazione civica o digitale rivolti a comunità vulnerabili, l’uso dell’intelligenza artificiale non può essere lasciato alla sommatoria di iniziative individuali o all’adozione di strumenti consumer pensati per il mercato generalista. È necessario privilegiare soluzioni collettive, supervisionate e coerenti con finalità educative esplicite, evitando la creazione di profili individuali persistenti e garantendo tutela, trasparenza e proporzionalità nel trattamento dei dati.
La protezione dei minori e delle persone fragili è un principio trasversale che deve orientare l’intero ecosistema educativo, formale e informale. Se l’obiettivo è promuovere autonomia e discernimento, le condizioni di sicurezza e di responsabilità devono essere progettate a monte, non demandate alla capacità individuale di ciascun operatore o organizzazione. Scuola e terzo settore sono parti di un’unica infrastruttura educativa della società, chiamata a governare l’innovazione con criteri comuni di tutela, equità e responsabilità. È su questa infrastruttura educativa diffusa che si gioca la qualità della nostra transizione digitale.
Un nuovo umanesimo tecnologico fondato sul discernimento digitale
Parlare di discernimento digitale significa riconoscere che la tecnologia non è mai neutra, ma neppure autonoma: è uno spazio di possibilità che prende forma attraverso le scelte umane, individuali e collettive. Per questo richiede giudizio, responsabilità, intenzionalità. Nel tempo dell’intelligenza artificiale, il valore aggiunto della scuola, della formazione continua e del Terzo settore non consiste nell’adozione precoce degli strumenti più avanzati, ma nella capacità di formare persone in grado di scegliere, di interrogare criticamente le tecnologie, di partecipare in modo consapevole e di abitare la complessità senza ridurla a scorciatoia.
Benessere digitale, autonomia e giudizio umano
Le evidenze europee sul benessere digitale mostrano che non è l’intensità d’uso a fare la differenza, ma la qualità dell’esperienza: autonomia, senso di competenza, autoregolazione e consapevolezza sono determinanti per costruire un rapporto sano e generativo con la tecnologia [JRC, Promoting Well-being in Digital Education, 2025]. Occorre sviluppare la capacità di governarne l’impiego.
Orientare l’innovazione senza rinunciare alla responsabilità
Un nuovo umanesimo tecnologico non chiede di rallentare l’innovazione, ma di orientarla. Saper usare strumenti potenti è ormai alla portata di molti; saper decidere quando usarli, quando fermarsi, quando assumersi la responsabilità dello sforzo cognitivo è la competenza che farà la differenza. È qui che si misura la maturità di una società digitale: nell’innovare senza rinunciare al giudizio umano.











