intelligenza artificiale

AI Literacy: vivere con l’intelligenza artificiale senza subirla



Indirizzo copiato

Negli Stati Uniti l’AI Literacy entra nelle politiche educative con un ordine esecutivo e investimenti miliardari di Big Tech. In Italia ci sono le linee guida MIM. Ma la posta in gioco va oltre l’uso dei chatbot: servono definizioni robuste, attenzione al digital divide, valutazioni indipendenti e una dimensione civica

Pubblicato il 24 feb 2026

Alessandro Longo
Alessandro Longo

Direttore agendadigitale.eu



ai literacy

Negli Stati Uniti l’“AI literacy” è diventata parola chiave delle politiche educative.

In Italia come siamo messi? Siamo pionieri sulla teoria, ma questa è una partita che si gioca molto sull’attuazione concreta. Scuola per scuola, insegnanti e studenti inclusi.

Stati Uniti, avanti su AI Literacy

Un ordine esecutivo della Casa Bianca del 2025, “Advancing Artificial Intelligence Education for American Youth”, fissa come obiettivo nazionale quello di diffondere competenze di intelligenza artificiale dalla scuola dell’infanzia alle superiori, parlando esplicitamente di “AI literacy e critical thinking skills” per tutti gli studenti.
Colossi come Google e Microsoft non hanno perso tempo.

Stanno investendo miliardi in tecnologie e corsi per le scuole: Google promette accesso gratuito a Gemini for Education per ogni high school americana e un programma da un miliardo di dollari per formazione e ricerca; Microsoft annuncia 4 miliardi in strumenti e training per scuole e non profit, con l’obiettivo di certificare decine di milioni di persone sulle competenze AI.

AI literacy nelle politiche USA: scuola, fondi e linee guida

Un recente articolo del “New York Times” racconta lezioni in cui gli studenti imparano a interrogare chatbot, a leggere i loro errori e a discutere i rischi sociali dell’AI, mentre linee guida federali arrivano a elencare tra le “foundational skills” la capacità di scrivere prompt efficaci e verificare le risposte.

Attenzione, non è solo alfabetizzazione tecnica: si prova a preparare i ragazzi a un mercato del lavoro e a una cittadinanza dove sistemi di AI avranno un ruolo in ogni settore, dalle assunzioni ai servizi pubblici.

L’Italia e il primo quadro MIM: domande su cosa intendiamo per literacy

In questo quadro, l’Italia ha iniziato a muoversi. Nel 2025 il ministero dell’Istruzione e del Merito ha pubblicato le Linee guida per l’introduzione dell’intelligenza artificiale nelle istituzioni scolastiche (DM 166/2025), con principi etici, indicazioni di governance e formazione docenti. È il momento giusto per chiedersi che cosa intendiamo davvero per AI literacy: un nuovo pacchetto di abilità tecniche, o qualcosa di più ampio che riguarda il modo in cui viviamo e lavoriamo con sistemi intelligenti?

Dall’alfabetizzazione digitale all’AI literacy: lezioni dal digitale

Non è la prima volta che la scuola si trova al centro di un’ondata di “literacy” sponsorizzata dall’industria tecnologica. Negli anni Duemila si è parlato di internet literacy, poi di social media literacy, più di recente di competenze sulla realtà virtuale. Ogni passaggio è stato accompagnato da promesse di migliori apprendimenti e opportunità di lavoro; non sempre, però, gli effetti hanno corrisposto alle attese.

Per non parlare del mancato aumento della produttività sul lavoro, problema in Italia più che in altri Paesi.

Stavolta l’AI, tecnologia più trasversale delle tante digitali precedenti, ci chiede un approccio olistico per fare la differenza nelle competenze.

Quando la literacy aumenta le conoscenze ma non cambia i comportamenti

Un esempio per capire meglio viene dai programmi di cittadinanza digitale. Il curriculum “Be Internet Awesome” di Google, diffuso in tutto il mondo, è stato sottoposto a una valutazione sperimentale su oltre mille studenti tra quarta e sesta elementare. Lo studio, pubblicato su “Contemporary School Psychology”, mostra che i ragazzi che seguono il percorso migliorano nella conoscenza di concetti come il catfishing e nell’autoefficacia nel gestire situazioni problematiche online, ma non si registrano cambiamenti significativi nei comportamenti: non diminuiscono in modo misurabile il cyberbullismo o il mancato rispetto della privacy.

Lavorare solo sulla “literacy” individuale, senza intervenire sulle logiche delle piattaforme e sui contesti, rischia di spostare tutta la responsabilità sui singoli senza ridurre davvero i rischi. L’AI literacy nasce con lo stesso rischio di fondo, amplificato dal fatto che stavolta parliamo di sistemi che possono decidere accessi a servizi, prestiti, percorsi di studio.

Definizioni e framework: cosa include davvero una competenza sull’AI

Definire bene è un primo passo per inquadrare un problema e individuare un orizzonte di soluzioni possibili (framing).

Negli ultimi anni sono arrivati tentativi più strutturati di definire che cosa sia l’AI literacy. Un lavoro citato spesso è il framework di K. Mills e colleghi, che la descrive come l’insieme di conoscenze e abilità che permettono alle persone di comprendere, valutare e usare criticamente sistemi di AI per partecipare in modo sicuro ed efficace a una società sempre più digitale.

Anche l’UNESCO, con i suoi AI Competency Framework per studenti e docenti, insiste su questa dimensione ampia. Per gli studenti, il documento descrive dodici competenze distribuite su quattro aree: mindset centrato sull’essere umano, etica dell’AI, tecniche e applicazioni, progettazione di sistemi di AI. L’obiettivo non è solo formare “utenti esperti”, ma anche cittadini capaci di contribuire allo sviluppo di sistemi più inclusivi e sostenibili. Per gli insegnanti, il framework parallelo mette al centro i diritti umani, la responsabilità umana sulle decisioni automatizzate e la capacità di integrare l’AI nella didattica senza trasformare la scuola in un’estensione del reparto marketing dei grandi fornitori.

Un altro filone di ricerca guarda ai fattori che influenzano la diffusione stessa dell’AI literacy. Uno studio del 2023, che modella i determinanti dell’AI literacy tra gli studenti, mostra che il digital divide resta un elemento decisivo: competenze e familiarità con il digitale spingono verso una maggiore comprensione dell’AI, mentre la distanza dalle tecnologie frena l’accesso a questi saperi. È un richiamo forte per paesi come l’Italia, dove differenze territoriali, socioeconomiche e di genere nella competenza digitale sono ancora significative.

In tutti questi casi emerge un tratto comune: l’AI literacy non è riducibile alla capacità di usare un’interfaccia. Porta con sé valori – autonomia, equità, sostenibilità – e richiede una comprensione di come gli algoritmi definiscono priorità (engagement contro accuratezza, velocità contro inclusione) e come queste scelte influenzano le vite delle persone.

AI literacy come competenza civica: piattaforme, lavoro e diritti

Le Linee guida MIM sull’AI a scuola collocano l’Italia nel gruppo dei Paesi che hanno riconosciuto ufficialmente il tema. Il documento insiste sulla necessità di un uso “consapevole, etico e responsabile” dell’intelligenza artificiale, definisce ambiti di applicazione didattica e gestionale, richiede ai fornitori standard elevati di sicurezza, privacy e trasparenza, e prevede percorsi di formazione per i docenti.

Il quadro è coerente anche con i riferimenti europei, come il DigComp 2.2 e le stesse cornici UNESCO, che invitano a integrare l’AI nei curricoli in modo trasversale, non confinandola a poche ore di informatica. Tuttavia le prime letture critiche del testo ministeriale segnalano alcuni rischi: una visione molto centrata su efficienza, personalizzazione e monitoraggio degli apprendimenti, e meno sulla partecipazione delle comunità scolastiche alle scelte su quali sistemi usare e come usarli.

Se guardiamo alle esperienze internazionali, un nodo delicato riguarda il rapporto con le grandi piattaforme. Negli Stati Uniti la spinta sull’AI literacy arriva anche da programmi aziendali che offrono gratuitamente strumenti avanzati alle scuole. Il confine tra investimento filantropico e strategia commerciale è labile: c’è il rischio che l’alfabetizzazione si trasformi in familiarizzazione con uno specifico ecosistema tecnologico, a scapito della capacità di confrontare alternative, leggere le condizioni d’uso, comprendere chi controlla i dati.

Per l’Italia, dove la capacità regolatoria dell’Unione europea su AI e dati è relativamente forte, la questione è come tradurre nei contesti scolastici lo stesso approccio di tutela dell’interesse pubblico, evitando che l’adozione di strumenti AI in classe sia guidata solo dall’offerta gratuita del momento.

AI literacy come competenza civica, non solo tecnica

Un altro insegnamento arriva dagli studi sulla cittadinanza digitale: concentrare tutto sul comportamento individuale degli studenti – “non fare il bullo”, “non condividere la password”, “non fidarti degli sconosciuti” – migliora le conoscenze, ma ha effetti limitati sui problemi strutturali. Lo stesso potrebbe accadere con l’AI, se per literacy intendiamo solo la capacità di chiedere a un chatbot di scrivere un tema senza farsi scoprire.

Tre dimensioni per lavorare con sistemi intelligenti

Una definizione più robusta di AI literacy dovrebbe includere almeno tre dimensioni.

  • La prima è la comprensione di base di come funzionano i sistemi: che cos’è un modello addestrato su grandi quantità di dati, perché può “allucinare” contenuti plausibili ma falsi, da dove derivano bias e distorsioni e come si collegano alle disuguaglianze del mondo reale.
  • La seconda è la capacità di valutare impatti e rischi: cosa significa quando un algoritmo viene usato per distribuire risorse educative, valutare compiti, assegnare punteggi di rischio; quali domande porre su trasparenza, possibilità di ricorso, responsabilità umana.
  • La terza riguarda il lavoro con l’AI. L’AI literacy non prepara solo “programmatori”: riguarda insegnanti che usano assistenti automatici per differenziare i compiti, infermieri che si confrontano con sistemi di triage, funzionari pubblici che si trovano davanti suggerimenti di classificazione delle pratiche. In tutti questi casi serve una competenza di collaborazione critica: saper delegare alcune operazioni alla macchina, ma mantenere il controllo sulle decisioni, conoscere dove l’AI è forte (analisi di grandi moli di dati, generazione di varianti) e dove è fragile (comprensione del contesto, empatia, giudizio valoriale).

Le grandi analisi sui rischi dei sistemi “general purpose”, come lInternational AI Safety Report 2026 uscito a inizio mese, ricordano che una parte significativa della mitigazione passa proprio dalla capacità diffusa di capire cosa l’AI può e non può fare, e di opporsi all’uso improprio in settori sensibili/critici.

Cosa può fare l’Italia in più sull’AI Literacy

L’Italia ha scelto di dotarsi di un quadro di riferimento per l’AI a scuola relativamente presto. Perché questa scelta si traduca in reale AI literacy, il passo successivo è costruire percorsi verticali, dalla primaria all’università, che non si limitino alle abilità strumentali ma intreccino conoscenze tecniche, riflessione etica e analisi degli impatti sociali.

Serve anche una valutazione indipendente delle iniziative: il caso “Be Internet Awesome” mostra che senza ricerca rigorosa è facile sovrastimare l’efficacia dei programmi proposti da attori privati. Allo stesso modo, progetti pilota sull’AI in classe dovrebbero prevedere sin dall’inizio la raccolta di dati su cosa cambia davvero negli apprendimenti, nei comportamenti e nelle disuguaglianze.

Infine, c’è un tema di partecipazione. Le scuole italiane possono diventare luoghi dove studenti, docenti e famiglie discutono non solo “come usare l’AI”, ma se e a quali condizioni usarla in certi contesti: per la valutazione, per la sorveglianza, per il supporto personalizzato.

Il futuro sarà forte un mix tra “lavoro con l’AI” e “l’AI lavora con/per noi in modo anche autonomo/agentico”. Allora l’AI literacy è anche la capacità collettiva di mettere regole, di dire no a certi usi, di progettare alternative.

Se questa dimensione civica resta fuori dall’equazione, il rischio è che l’AI literacy si riduca a una nuova forma di alfabetizzazione strumentale, utile a rendere i cittadini più produttivi ma non necessariamente più liberi e, a loro volta, “agentici”, cioè dotati di agency: padronanza e consapevolezza su tutte le dimensioni rilevanti della loro vita.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x