L’AI literacy non rappresenta semplicemente una competenza tecnica aggiuntiva, ma costituisce la nuova infrastruttura del potere decisionale contemporaneo. Mentre, infatti, l’intelligenza artificiale ridefinisce i confini tra automazione e cognizione umana, la capacità di comprendere, valutare e governare questi sistemi diventa prerequisito fondamentale per mantenere autonomia strategica e democratica.
Indice degli argomenti
Dalla trasformazione digitale all’accelerazione cognitiva
C’è una differenza evidente, semantica e strategica, tra evoluzione e discontinuità. La trasformazione digitale, quella che ci accompagna quotidianamente da oltre tre decenni, si configura come un processo evolutivo, lento, metabolizzabile, in qualche modo addomesticabile.
È entrata nei gangli strutturali e nel processi delle organizzazioni e delle vite personali con una logica chiara, basata su caratteristiche e concetti inediti, come il ruolo dell’interfaccia, la smaterializzazione come efficientamento, l’evoluzione tecnologica come modellazione strategica. Tuttavia, inutile negarlo, l’intelligenza artificiale non si innesta su questo solco, né per la velocità di evoluzione, né per le modalità di introduzione nelle organizzazioni.
L’AI, soprattutto nelle sue manifestazioni generative e predittive, non può più essere concepito semplicemente come un’estensione della tecnica, ma come una vera e propria linea di frattura epistemica.
In questo nuovo scenario in evoluzione, non dobbiamo più semplicemente chiederci se siamo connessi, ma come vogliamo ridefinire il ruolo del pensiero umano all’interno di un ecosistema computazionale che produce sapere, interpreta realtà e definisce possibilità. La posta in gioco non è quindi solamente l’accesso alla tecnologia, ma la possibilità stessa di comprendere e deliberare.
L’AI non è uno strumento neutro, ma un agente epistemico, capace di redistribuire il potere cognitivo, di conquistare (a volte di sottrarre) attenzione e di attribuire senso. Di fronte a questa accelerazione, il concetto stesso di literacy, di alfabetizzazione, cambia radicalmente. Non basta più semplicemente saper leggere e scrivere nel linguaggio della macchina. È sempre più necessario sviluppare una consapevolezza radicale sul funzionamento di dispositivi che sempre più costituiscono il nostro sguardo sul mondo. L’AI literacy, così come delineata dall’AI Act europeo, non deve essere concepita come una competenza tecnica, ma come una forma di vigilanza cognitiva, una postura critica, un atto di rivendicazione del diritto alla lucidità, in un tempo in cui il pensiero rischia di diventare un effetto collaterale dell’automazione.
Dalla competizione tecnologica alla competizione cognitiva
In un tempo in cui ogni attore geoeconomico cerca di conquistare la leadership – totale o settoriale – nel settore dell’AI, restare indietro non significa soltanto perdere terreno nella competizione industriale: significa, soprattutto, perdere la capacità autonoma di immaginare il proprio futuro. Le grandi strategie nazionali – dalla Cina agli Stati Uniti, dall’Unione Europea al Canada, dall’Unione Africana alla Nuova Zelanda – lo dimostrano: non basta definire una strategia per “adottare” l’AI, per essere competitivi. Non basta semplicemente “allinearsi” agli standard internazionali, per risultare credibili. Serve, invece, trasformare radicalmente i propri modelli cognitivi, educativi, organizzativi, strategici. La vera innovazione non è basata semplicemente su un piano tecnico, ma su un orizzonte ampio di capacità trasformativa. E ciò che, oggi, ha la possibilità di trasformare non è solo la tecnologia, ma il modo in cui la società sceglie di interrogarla, di discuterne l’utilizzo, di determinarne la governance, di indirizzarne il futuro. Proprio per questo, mai come oggi l’AI literacy rappresenta la condizione necessaria per potersi riservare una posizione nella competizione globale con una postura attiva, critica, strategica.
Le economie più dinamiche e capaci di adattarsi a scenari internazionali instabili non sono quelle che producono più codice, ma quelle che sviluppano e alimentano una condizione strutturale di consapevolezza diffusa.
A livello europeo, il legislatore ha colto questo passaggio con sorprendente lucidità. L’AI Act, nell’articolo 3, definisce l’AI literacy come una combinazione di “conoscenze, competenze e comprensione” capaci di supportare decisioni informate sull’uso dell’AI. Non è solo un principio etico – è bene precisarlo – ma una vera e propria condizione di competitività. Un Paese che non investe in AI literacy non correrà soltanto il rischio di essere più vulnerabile agli abusi algoritmici, ma sarà anche meno capace di produrre innovazione rilevante, meno autorevole nei consessi internazionali, meno libero di scegliere il proprio destino tecnologico. Per provare a riassumere in una frase: il futuro non sarà di chi sa costruire l’AI più potente, ma di chi saprà immaginare con lucidità – e indirizzare con prontezza – le sue conseguenze.
La Finlandia e il senso pubblico dell’alfabetizzazione all’IA
Se l’AI è il linguaggio strutturale del nostro tempo, allora l’alfabetizzazione non può più essere considerata semplicemente come un dovere formativo: deve essere percepito, e implementato, come un progetto di civiltà. La Finlandia è stato il primo Paese al mondo ad agire con questa consapevolezza. Nel 2018, quando la retorica globale sull’AI era ancora dominata dalla polarizzazione tra tecnofilia e tecnofobia, Helsinki ha lanciato un corso aperto, gratuito, dal titolo tanto lineare quanto radicale: Elements of AI. L’obiettivo, certamente audace, era quello di offrire, potenzialmente a tutti i cittadini, indipendentemente dal background, le basi per comprendere cosa fosse davvero l’intelligenza artificiale, come funzionasse, dove potesse intervenire, e perché fosse cruciale sapere davvero come orientarsi. Il progetto ha superato ogni aspettativa: a oggi, più di un milione di persone in tutto il mondo ha seguito il corso, da oltre 170 Paesi.
A prescindere dal numero, ciò che è importante comprendere è la visione alla base dell’iniziativa. Il Governo finlandese non ha semplicemente promosso un contenuto didattico, ma ha scelto di trattare la AI literacy come un bene comune, una condizione di sviluppo sociale, una nuova infrastruttura democratica. Ha costruito, attorno al progetto, un rinnovato, potenziale immaginario civico: comprendere l’AI non è competenza riservata ai tecnici, ma deve essere considerata come una condizione di cittadinanza piena. Lo ha compreso ben prima che l’AI Act europeo scegliesse di codificare questi obblighi, forse in qualche modo stabilendo un benchmark di riferimento, ma certamente rivestendo il ruolo, centrale ma delicato, del trendsetter. In questo senso la Finlandia ha incarnato – con largo anticipo – ciò che oggi si cerca di disciplinare: un approccio sistemico ad una vera e propria “cultura dell’AI”, in cui la competenza non è concepita come verticale ma strutturale, non elitaria ma trasversale, non opzionale ma essenziale.
Altri Paesi, con modalità e visioni diverse, hanno iniziato a seguire la medesima traccia, adattando Elements of AI ai contesti specifici o ripensandone la struttura, ma ciò che resta unico, nel caso finlandese, è l’intuizione culturale originaria: la volontà di rendere l’AI literacy un’esperienza pubblica, anziché una responsabilità individuale. Ecco quindi il cambio di paradigma prendere forma, in una visione senza precedenti: l’AI non si “insegna” semplicemente come un linguaggio tecnico, ma si socializza, si abilita per lo sviluppo del tessuto comunitario, come una nuova forma di coscienza collettiva. In un’epoca in cui l’asimmetria informativa sta sempre più assumendo i tratti di una condizione di disuguaglianza e vulnerabilità democratica, questa scelta, a maggior ragione con il senno di poi, ha rappresentato forse il più alto gesto di lungimiranza politica.
La socializzazione dell’IA: Spagna, Singapore, Canada
Se la visione della Finlandia ha dimostrato che l’AI literacy può essere concepita in maniera sistemica come un bene comune, altri Paesi hanno scelto di muoversi nella stessa direzione, travalicando i limiti disciplinari della formazione tecnica tout court, per trasformarla in un processo di socializzazione democratica dell’AI. In Spagna, il piano governativo “España Digital 2026” ha riconosciuto formalmente l’alfabetizzazione all’AI come uno degli assi strategici della trasformazione del Paese. La Fundación Española para la Ciencia y la Tecnología (FECYT), ha promosso una serie di iniziative per valorizzare una visione partecipativa dell’AI, tra cui la ricerca Las representaciones sociales de la Inteligencia Artificial en España (2024), per analizzare gli immaginari diffusi e favorire una strategia di narrazione concertata dal Governo. Analogamente, ha lavorato per integrare la consapevolezza sul ruolo dell’AI nella formazione dei docenti, nei programmi educativi scolastici e nella cultura scientifica di base, tra cui, ad esempio, il progetto Aula IA, implementato con la Universidad de Alicante per la scuola primaria.
Singapore ha scelto una strada strutturalmente diversa, ma con una logica affine. Il programma AI for Everyone, promosso da SGInnovate, mira ad andare oltre la logica della formazione tecnica promossa dai grandi vendor come strategia di dipendenza tecnologica, con l’obiettivo dichiarato di educare la cittadinanza, rendendo comprensibili e trasparenti i concetti alla base dell’AI. In questo caso la sfida appare ancora più lineare: limitare i rischi di dipendenza strategica, ma soprattutto ridurre la distanza tra innovazione e accesso, evitando che l’AI venga percepita come una tecnologia elitaria. Il programma, sviluppato con un format ibrido, presenziale e online, prevede anche attività per target specifici, come i migranti digitali e gli anziani. È un tentativo esplicito e ambizioso di “democratizzazione cognitiva”, in un Paese che ha compreso – con una lucidità straordinaria – che la fiducia sociale nell’innovazione non può che dipendere dalla capacità collettiva di comprenderla.
Anche il Canada ha scelto di inserire, nella Pan-Canadian Artificial Intelligence Strategy, l’alfabetizzazione tra i temi strategici. Molte iniziative di socializzazione dell’AI, promosse dal CIFAR (Canadian Institute for Advanced Research), hanno progressivamente permesso di garantire la partecipazione attiva della società nella riflessione nazionale sull’AI, integrando così un tessuto scientifico e di ricerca particolarmente avanzato in un tessuto collettivo particolarmente ricettivo. Dall’iniziativa Open Dialogue: Artificial Intelligence in Canada,, lanciata nel 2021 per analizzare la percezione collettiva della tecnologia, all’iniziativa AI Insights for Policymakers,presentata nell’aprile 2025, la strategia di socializzazione dell’AI passa anche per un chiaro riconoscimento delle asimmetrie strutturali e di chi le potrebbe determinare: chi ha accesso alle informazioni, chi ha voce nei processi decisionali, chi viene rappresentato nei dati, chi ha competenza sufficiente a indirizzare le scelte politiche. Il Canada ha scelto di non limitarsi a formare, tentando, strutturalmente, di redistribuire il potere cognitivo.
Questi casi, apparentemente così distanti, eppure così vicini, non devono essere considerati come esempi marginali o eccezionali. Sono da rilevare, invece, come indicatori di una trasformazione in corso: la AI literacy sta uscendo dagli spazi puramente tecnici o professionali, per entrare, in maniera sempre più pervasiva, in quelli pubblici, civici, collettivi. L’Europa, con l’AI Act, ha certamente colto questa traiettoria, che cerca ora di normare, ma è la capacità dei singoli Paesi di tradurre un principio teorico in pratiche sociali vive che determinerà l’efficacia culturale – e quindi la sostenibilità strutturale – di questa sfida. Non si tratta di “insegnare l’AI”, ma di interrogarsi e di decidere chi ha il diritto di comprenderla. E questo, come appare evidente, è un tema eminentemente politico.
L’AI Act e il ritorno educativo del diritto
Il tentativo di normare il tema dell’AI literacy da parte dell’Unione Europea è un evento che, per profondità simbolica, supera certamente la dimensione puramente tecnica. Nell’articolo 3(56) dell’AI Act, la literacy è definita come l’insieme di “competenze, conoscenze e comprensione” che permettono a sviluppatori, utilizzatori e persone coinvolte di prendere decisioni informate sull’uso dei sistemi di IA, riconoscerne rischi e potenziali danni, e comprenderne le opportunità. Ma è l’articolo 4, ancora più rilevante, a fare della literacy un obbligo operativo e strategico: i fornitori e utilizzatori devono “assicurare un livello sufficiente di alfabetizzazione all’AI” per tutto il personale coinvolto, considerando formazione, esperienza, ruolo e diversità dei contesti d’uso.
Si tratta di un passaggio radicale, dal punto di vista della cultura tecnologica. Per la prima volta, il diritto europeo impone non solo regole di condotta, di sviluppo o di utilizzo, ma veri e propri standard minimi di comprensione. Come già accaduto, pur con modalità diverse, con il GDPR sul versante della privacy, in questo caso l’Europa afferma che non si può gestire ciò che non si comprende. Afferma, più o meno implicitamente, che la governance algoritmica non è una questione per soli tecnici, ma un processo che inizia – che deve iniziare! – con la comprensione diffusa. L’articolo 4 non riguarda dunque un semplice adempimento formale, ma rappresenta il tentativo di introdurre, se così possiamo definirlo, un diritto formativo, che non si limita a regolare ex post, ma vuole agire ex ante. Ha l’ambizione, cioè, di creare le condizioni cognitive per una gestione responsabile, etica e sostenibile della tecnologia.
La logica è dichiaratamente contestuale e necessariamente proporzionale. Il livello richiesto di AI literacy deve essere commisurato e adeguato ai rischi del sistema in uso, al ruolo ricoperto dall’organizzazione (fornitore o utilizzatore), al settore di attività e alla natura delle interazioni umane coinvolte. Non esiste, evidentemente, un unico formato obbligatorio di formazione: la Commissione incoraggia approcci flessibili, differenziati, integrabili, legati alle competenze pregresse e al contesto di impiego. Per quanto sia lasciato spazio ai possibili scenari di implementazione, il messaggio alla base è inequivocabile: l’incomprensione non può più essere considerata un’opzione legittima.
In questo senso, l’AI Act agisce non solo come un regolamento, ma come un esperimento di pedagogia normativa. Recupera la funzione educativa del diritto in un’epoca in cui la tecnologia evolve più rapidamente delle strutture politiche e cognitive che dovrebbero governarla. In questo contesto, rilancia un’idea di cittadinanza tecnologica fondata sulla capacità di giudizio. Non basta più sapere come funziona un algoritmo, ma occorre saperne valutare l’uso, il senso, l’impatto. Occorre, insomma, formarsi per poter decidere. In questo spazio opaco, tra l’uso e la comprensione, si giocherà la credibilità dell’intera strategia europea sull’intelligenza artificiale.
Un ecosistema cognitivo per l’Europa: la visione del Piano 2025–2027
Nell’aprile 2025, con la Comunicazione COM(2025)165, la Commissione Europea ha rilanciato la propria strategia per l’AI con un documento cruciale: The AI Continent Action Plan. Non si tratta di un semplice aggiornamento tecnico. Il Piano – elaborato congiuntamente agli Stati membri e ai principali stakeholder – sancisce una svolta culturale nella governance dell’intelligenza artificiale. La sfida non è più solamente quella di regolare i rischi o accelerare lo sviluppo industriale. È quella di costruire un’infrastruttura cognitiva europea, capace di sostenere nel tempo la legittimità, la comprensibilità e la desiderabilità dell’innovazione. In questo senso, l’AI literacy smette di essere un’esigenza periferica e diventa architrave strategica.
Tra gli obiettivi strategici del Piano, al 4.2 (p. 20), si evidenzia come la Commissione consideri prioritario sia promuovere iniziative di medio e lungo termine sull’AI literacy, sia favorire un dialogo sul concetto di AI for all, evidenziando con chiarezza la volontà di sviluppare, parallelamente a un ecosistema di competenze tecniche, una società dotata di capacità critica distribuita. Il documento introduce la necessità di azioni multilivello: moduli obbligatori per i professionisti della pubblica amministrazione, percorsi ibridi tra università e impresa, ma anche campagne pubbliche per accrescere la fiducia sociale. Il principio guida è chiaro: una società che non comprende l’AI non può governarla, né in modo etico, né in modo competitivo.
Questa visione rafforza e completa quanto stabilito dall’AI Act: se il regolamento impone obblighi minimi di formazione per chi progetta o utilizza IA ad alto rischio, il Piano Strategico propone di dare forma a una cultura pubblica dell’IA, fondata sulla comprensione condivisa. In questo spazio si colloca anche l’impegno della Commissione a promuovere un AI Literacy Framework, sviluppato con l’OECD, per identificare e condividere standard di riferimento, flessibili ma rigorosi, per valutare l’efficacia dei percorsi in età scolare in tutta l’Unione.
Saper agire, saper pensare: pratiche virtuose e modelli emergenti
In un panorama sempre più spesso dominato da ambiguità semantica e imprecisione strategica, esistono tuttavia molte realtà che hanno scelto di muoversi in direzione opposta, senza strumentalizzare l’aumento della domanda, ma cercando di qualificare la risposta; senza comprimere o appiattire la complessità, ma cercando di abitarla consapevolmente. Sono progetti educativi, centri di produzione culturale, hub sperimentali, aziende che stanno dimostrando come il tema della AI literacy, per essere affrontato in maniera davvero efficace, debba necessariamente articolarsi su più livelli, dal sapere tecnico al pensiero critico, dalla progettazione operativa all’interpretazione dei contesti. È qui che emerge una distinzione oggi più che mai cruciale: formare a fare non è sufficiente, se non si forma anche a capirne il perché. Alcuni soggetti italiani stanno cercando di affrontare con lucidità questa doppia traiettoria.
Develhope è una coding school fondata a Palermo, che si rivolge a tutte le persone desiderose di conoscere da vicino le prospettive tecniche dell’economia digitale e di costruirsi un futuro nel mondo della tecnologia. L’approccio unisce formazione tecnica di qualità e attenzione all’impatto sociale, offrendo percorsi professionalizzanti a chiunque voglia acquisire nuove competenze digitali, con particolare attenzione a chi proviene da contesti complessi o a chi, per contesto o per storia personale, ha incontrato ostacoli nel proprio percorso. Il cuore del progetto è certamente il lavoro, ma non si tratta soltanto di upskilling tecnico, bensì di valorizzazione delle competenze come motore di trasformazione esistenziale. Nel 2022 il progetto è stato scelto da UNHCR, per la formazione e l’inclusione sociale dei migranti . È un modello che sceglie di interpretare l’AI literacy come leva di emancipazione individuale e collettiva, anziché semplicemente come training specialistico.
Di natura diversa, ma certamente significativa, è l’esperienza di Sineglossa, organizzazione culturale che si muove ai confini tra arte, tecnologia e cittadinanza, che opera come soggetto di abilitazione nell’adoption di una AI culturalmente rilevante e strategicamente situata in molti progetti, da percorsi formativi come Generativa a Rigenerativa, a produzioni artistiche come The Models e AI Manifesta. Una visione che non vuole educare soltanto all’uso di una tecnologia, ma alla ridefinizione del pensiero che ne dovrebbe guidare l’uso. Il progetto fAIr MEDIA, ad esempio, agisce sulla media literacy – oggi dimensione inseparabile dalla AI literacy – e lavora con scuole, musei e istituzioni per sviluppare negli studenti la capacità di analizzare criticamente l’informazione automatizzata, le fonti, i bias sistemici, le strategie di manipolazione. È una formazione che non “addestra”, ma rieduca l’attenzione, risveglia lo sguardo, ridefinisce le prospettive. E dimostra che non si può comprendere l’intelligenza artificiale senza ripensare anche l’ecosistema cognitivo in cui essa si inscrive.
Immanence, invece, propone un approccio peculiare, lavorando sul confine tra conoscenza, etica e strategia, offrendo a enti pubblici e aziende servizi di consulenza per l’assessment dei rischi etici e sistemici connessi all’adozione dell’AI. A differenza di altri approcci puramente formali, il loro lavoro integra nei percorsi di analisi una prospettiva culturale profonda: valutare l’impatto dell’AI non significa solo poter gestire rischi e implicazioni di carattere tecnico, ma saper interrogare il senso epistemico e l’impatto politico (in senso lato) delle scelte automatizzate. Ogni loro intervento parte dalla convinzione che l’AI literacy non possa esaurirsi nella comprensione funzionale dei sistemi, ma debba includere la capacità di riconoscere le implicazioni operative, decisionali, relazionali dei processi algoritmici. La caratteristica forse più originale del loro approccio sta nel considerare la literacy come un atto critico e progettuale insieme. In un tempo e in un contesto in cui le metriche corrono costantemente il rischio di diventare alibi, Immanence vuole lavorare per restituire valore al giudizio umano, affermando che l’etica non è una condizione accessoria dell’innovazione tecnologica, ma la sua pre-condizione strutturale.
Un quarto approccio, orientato a chi deve progettare, guidare o regolare l’uso dell’AI in contesti organizzativi e strategici, è quello proposto da Symboolic, realtà italiana che, forte di un’esperienza consolidata nel settore dell’AI e dell’AI generativa, ha l’ambizione di lavorare sulla frontiera della formazione trasformativa. La loro metodologia parte da una constatazione tanto semplice quanto spesso trascurata: la formazione non è neutra, e la tecnologia non è un insieme di strumenti, ma un vettore culturale. Per questo Symboolic ha sviluppato una metodologia che distingue con rigore tra abilità operative e capacità decisionale strategica. Non basta saper utilizzare uno strumento: serve comprendere il contesto in cui lo si usa, decifrare le logiche che lo sottendono, interpretare e governare gli impatti che produce, spesso in modo non lineare. Symboolic lavora su quella soglia intermedia tra l’infrastruttura tecnica e l’accuratezza decisionale: a partire da un approccio modulare e fondato su due prospettive – “Pensare” e “Agire” – vuole formare le persone non solo a usare l’AI per acquisire efficienza, ma per liberare profondità strategica. In questo senso, la loro proposta si avvicina più a una pedagogia del potere cognitivo che a un modello formativo tradizionale. Mettono al centro la distinzione necessaria tra “sapere come fare” e “sapere perché fare”, tra usabilità e giustificabilità. È una visione che vuole restituire profondità all’idea stessa di AI literacy, trattandola non come una competenza da acquisire, ma come una forma di intelligenza ecologica: capace di leggere i sistemi, negoziare le responsabilità e generare significato oltre la prestazione.
Questi progetti, pur nella loro diversità, convergono su un punto: la AI literacy non si esaurisce nell’alfabetizzazione tecnica. Deve essere una competenza situata, relazionale, riflessiva. E deve poter diventare una politica culturale di lungo periodo, capace di ridurre le disuguaglianze, ampliare le possibilità, e restituire alle persone la facoltà di scegliere come usare l’AI in modo informato, consapevole, responsabile. Solo in questo modo è possibile costruire la vera resilienza democratica in un mondo algoritmico.
Ripensare le domande: la responsabilità di sapere, la qualità che dobbiamo pretendere
C’è un momento rilevante, in ogni grande transizione, in cui diventa chiaro che le domande devono diventare più importanti delle soluzioni. L’intelligenza artificiale ha accelerato molti dei nostri tempi, ha moltiplicato le possibilità immaginabili, ha reso visibile – almeno in parte – ciò che prima sembrava inaccessibile. Ma al contempo ha offuscato, nell’espansione del possibile, il confine tra ciò che possiamo fare e ciò che dovremmo voler fare. Non basta più chiedersi come si può usare l’AI. Occorre chiedersi quando usarla e quando non usarla, con quale scopo, con quale impatto reale, a quale prezzo. Da questo punto di vista, l’AI literacy non è deve essere concepito solo come uno strumento, ma come un orientamento, una condizione per poter abitare il tempo senza esserne travolti.
Abbiamo visto che l’Europa ha colto questa sfida: con l’AI Act ha normato l’alfabetizzazione come requisito strategico e giuridico; con l’Action Plan ha rilanciato l’idea che l’innovazione deve potersi fondare sulla capacità di comprensione diffusa, di giudizio critico, di orientamento collettivo. Abbiamo visto che alcuni Paesi e alcuni progetti – dalla Finlandia a Singapore, da Develhope a Symboolic – stanno implementando modelli capaci di rendere l’AI literacy una pratica viva, situata, ecosistemica. Ma abbiamo anche compreso che nessun framework potrà sostituire la responsabilità della produzione, e nessuna policy potrà garantire la qualità dell’offerta, se non ci sarà una domanda sociale e di mercato sufficientemente esigente.
Per questo, la sfida che abbiamo di fronte non è solo educativa o regolativa, ma etica, politica, strategica. Dobbiamo formare persone capaci non solo di rispondere alle sfide d’uso delle tecnologie, ma di comprenderne, sfidarne e riformularne il senso. Dobbiamo pretendere, come cittadini, professionisti, dirigenti, giornalisti, una qualità più alta del discorso sull’AI. Che non si limiti a celebrare l’innovazione, ma che la interroghi; che non si fermi alla prestazione, ma abbia il coraggio di chiedere giustificazione; che non insegua la novità, ma protegga la qualità.
L’AI literacy, se la vogliamo prendere sul serio, non ci deve rendere solo più “competenti”, ma più consapevoli, più autonomi, più esigenti. È una forma di rispetto verso la complessità del reale, verso la competitività del mercato, verso la sostenibilità di un modello sociale. È un modo per difendere una visione del mondo in cui l’innovazione non corre da sola, ma dà voce e forza a chi la vuole vivere come uno strumento di crescita e trasformazione. Perché senza una società capace di pensarsi nel futuro, anche la tecnologia più evoluta finirà per servire ed accelerare logiche miopi. Senza literacy, il rischio non sarà quello di creare sistemi di AI capaci di prendere decisioni, ma di legittimare una società incapace di farlo.













