L’ambito formativo contemporaneo manifesta una crescente centratura sul discente e sulla sua autonomia di apprendimento. L’autoformazione costituisce una porzione significativa della complessiva esperienza di apprendimento degli adulti, mentre l’eutagogia – apprendimento autenticamente autodeterminato (Hase & Kenyon, 2000) – si afferma quale paradigma avanzato che supera l’andragogia (Knowles, 1984) nell’enfasi sull’agentività totale del discente.
Indice degli argomenti
Le radici dell’apprendimento autodeterminato
In questo approccio, il soggetto progetta, dirige e valida il proprio apprendimento, rispondendo a bisogni e contesti reali, spesso imprevedibili. L’eutagogia incarna un apprendimento guidato dall’interno, orientato allo sviluppo della “capability” (Hase & Kenyon, 2013). Parallelamente a questa evoluzione pedagogica, si osserva un continuo sviluppo delle tecnologie per l’apprendimento, culminato nell’emergenza dell’Intelligenza Artificiale (AI) sulla scena globale.
L’introduzione dell’AI nel settore educativo si presenta come fattore potenzialmente dirompente e trasformativo (Roll & Wylie, 2016; UNESCO, 2021). Le capacità di analisi di grandi quantità di dati, personalizzazione adattiva, interazione in linguaggio naturale e generazione di contenuti proprie dell’AI promettono di superare i limiti degli strumenti digitali precedenti, offrendo un supporto all’apprendimento qualitativamente differente (Zawacki-Richter, Marín, Bond, & Gouverneur, 2019).
Dalle applicazioni degli Intelligent Tutoring Systems (ITS) alle Learning Analytics (LA), dagli agenti conversazionali all’AI generativa, le tecnologie di intelligenza artificiale permeano progressivamente l’educazione. Tali sviluppi sollevano entusiasmi per nuove frontiere formative, accompagnati tuttavia da legittime preoccupazioni etiche e sociali (Kasneci et al., 2023; European Commission, 2021).
Relativamente all’apprendimento autodeterminato, l’AI sembra offrire possibilità inedite per un supporto individualizzato, riflessivo e potenziante. La convergenza tra la spinta individuale verso l’autodeterminazione nell’apprendimento e la crescente sofisticazione delle tecnologie educative crea un terreno fertile per filosofie educative radicalmente centrate sul discente, generando al contempo nuove sfide teoriche e pratiche.
La spinta verso un apprendimento autodeterminato, incarnata dall’eutagogia, e le emergenti capacità dell’AI di personalizzare e potenziare i processi formativi. L’ambizione è offrire un quadro teorico e critico per comprendere e guidare lo sviluppo di futuri ambienti di apprendimento che, sfruttando la sinergia tra autodeterminazione umana e intelligenza artificiale, possano condurre a forme di apprendimento più efficaci, significative ed emancipanti.
Eutagogia: fondamenti e orizzonti dell’apprendimento autodeterminato
L’eutagogia, termine formalizzato da Stewart Hase e Chris Kenyon (2000) e derivante da heautos (sé) e agogos (guidare), si propone come teoria e pratica dell’apprendimento autodeterminato, rappresentando un distinto slittamento epistemologico rispetto ai paradigmi precedenti (Hase & Kenyon, 2007; Blaschke, 2012).
Definizione, origini e sviluppo del concetto di eutagogia
Mentre la pedagogia si è tradizionalmente focalizzata sull’insegnamento al discente giovane e l’andragogia (Knowles, 1970) ha posto l’accento sull’apprendimento auto-diretto dell’adulto, l’eutagogia colloca il discente in una posizione di sovranità quasi assoluta sul proprio percorso formativo. Il soggetto definisce proattivamente cosa apprendere, il significato e lo scopo di tale apprendimento, rispondendo a bisogni emergenti e problemi complessi del mondo reale (Hase & Kenyon, 2007).
L’eutagogia trascende la dimensione della semplice tecnica didattica, configurandosi come postura filosofica che interroga la natura dell’apprendere e del conoscere nell’era della complessità. Richiama una concezione dell’individuo come “architetto” del proprio sapere, in un dialogo continuo tra mondo interiore e contingenze esterne che riecheggia istanze del costruttivismo radicale (Von Glasersfeld, 1995) e della fenomenologia dell’apprendimento (Marton & Booth, 1997).
Lo sviluppo dell’eutagogia risponde alla necessità di formare individui capaci di lifelong learning e lifewide learning in società caratterizzate da rapidi cambiamenti tecnologici e fluidità costante nei percorsi professionali e personali (Barnett, 2004). La sua enfasi sulla capacità di navigare l’ignoto la rende particolarmente pertinente per contesti di apprendimento superiore e sviluppo professionale continuo.
Principi cardine dell’eutagogia
L’architettura concettuale dell’eutagogia si regge su principi fondamentali che ne definiscono l’identità teorica e applicativa.
- L’agentività del discente (Learner Agency) costituisce il fulcro dell’approccio: i discenti assumono piena responsabilità e controllo attivo del proprio processo di apprendimento attraverso la definizione di obiettivi e domande guida, la selezione di strategie e risorse, la determinazione di criteri di valutazione e il monitoraggio dei progressi (Hase & Kenyon, 2000; Blaschke, 2012; Bandura, 2001). Questa agentività implica una forte componente volitiva e proattiva, evidenziata dalla Teoria dell’Autodeterminazione (Ryan & Deci, 2000).
- Il secondo principio fondamentale riguarda lo sviluppo della capacità (Capability): l’obiettivo eutagogico trascende l’acquisizione di mere competenze per mirare allo sviluppo della “capability”, ossia la capacità di applicare conoscenze e abilità in modo efficace, creativo e flessibile in contesti nuovi, sconosciuti e complessi (Hase & Kenyon, 2007; Stephenson, 1994, citato in Hase & Kenyon, 2013). Tale capacità include autoefficacia, pensiero critico, problem-solving, creatività e gestione dell’incertezza (Canning, 2010). Il concetto di “capability”, centrale nell’impianto eutagogico, si colloca anche in continuità con il Capability Approach sviluppato da Amartya Sen (1999) e Martha Nussbaum (2000), che enfatizza le libertà reali delle persone di scegliere e condurre il tipo di vita che hanno motivo di valorizzare. In ambito formativo, tale prospettiva implica non solo il possesso di competenze tecniche, ma la possibilità concreta di metterle in atto in contesti pluralisti, etici e complessi. L’AI-gogia, se ben progettata, può contribuire all’espansione delle reali libertà d’azione e di apprendimento del discente, favorendo percorsi autenticamente emancipanti.
- L’eutagogia pone enfasi cruciale su metacognizione e riflessione: il discente riflette criticamente sul proprio processo di apprendimento (“imparare ad imparare”) e sulle proprie strutture cognitive (Flavell, 1979; Mezirow, 1991). Centrale risulta la riflessione a doppio cappio (double-loop learning): la messa in discussione e ristrutturazione degli assunti di base, valori e prospettive che informano l’azione e l’apprendimento (Argyris & Schön, 1978).
- Il percorso di apprendimento in contesto eutagogico si caratterizza per un Apprendimento Non Lineare, raramente predefinito o sequenziale. Risulta flessibile, emergente e iterativo, adattandosi dinamicamente a scoperte, interessi e necessità del discente (Hase & Kenyon, 2007; Blaschke & Hase, 2019). Questo approccio rizomatico (Deleuze & Guattari, 1987) contrasta con i modelli curriculari tradizionali.
- Esperienza e contesto rappresentano elementi fondamentali: l’apprendimento è radicato nelle esperienze concrete del discente e nel contesto socio-culturale (Dewey, 1938; Boud & Walker, 1990). L’eutagogia valorizza l’apprendimento informale e non formale, integrandolo attivamente nel percorso formativo (Eberle, 2009, citato in Blaschke, 2012).
Questi principi interagiscono sistemicamente: l’agentività è nutrita da autoefficacia crescente, rinforzata da esperienze riuscite e riflessione metacognitiva efficace. Il ruolo del contesto e dell’esperienza risulta cruciale; l’interazione con situazioni autentiche permette alla “capability” di svilupparsi e manifestarsi oltre la semplice restituzione di conoscenze (Lave & Wenger, 1991).
Modelli eutagogici e di progettazione didattica
Per tradurre i principi eutagogici in pratica educativa concreta, sono stati proposti diversi modelli operativi. Sebbene l’eutagogia resista a modelli prescrittivi rigidi per sua natura intrinseca, alcuni framework forniscono orientamenti metodologici significativi.
I Contratti di Apprendimento (Learning Contracts) rappresentano strumenti chiave: negoziati tra discente e facilitatore, permettono al discente di articolare obiettivi, attività, risorse, scadenze e criteri di valutazione (Hase & Kenyon, 2013; Knowles, 1986). Questi strumenti formalizzano l’agentività e la responsabilità del discente nel processo formativo.
Lisa Marie Blaschke (2012, 2021) ha contribuito significativamente con framework specifici per l’apprendimento online autodeterminato, integrando principi eutagogici con le affordance delle tecnologie digitali. Modelli basati su Action Learning e Action Research (Revans, 1980) si allineano naturalmente con l’approccio eutagogico per la loro enfasi sull’apprendimento attraverso l’azione e la riflessione critica.
Nel contesto della mobilità tecnologica, Cochrane e colleghi hanno proposto framework per la Mobile Heutagogy (m-heutagogy), utilizzando dispositivi mobili e social media per promuovere apprendimento autodeterminato, contestualizzato e collaborativo (Cochrane et al., 2014).
Efficacia e sfide dell’eutagogia: sintesi della letteratura
La letteratura scientifica sull’eutagogia ne riconosce il potenziale trasformativo, delineando al contempo un quadro articolato della sua efficacia e delle sfide implementative. Studi qualitativi, studi di caso ed esperienze in contesti di apprendimento superiore e professionale (Canning & Callan, 2010) suggeriscono che l’approccio eutagogico promuove effettivamente autonomia e responsabilità nei discenti (Blaschke, 2012).
La possibilità di definire obiettivi e percorsi personali è associata a incrementi significativi della motivazione intrinseca e del coinvolgimento attivo (Ryan & Deci, 2000; Hase & Kenyon, 2007). L’enfasi su riflessione metacognitiva e risoluzione di problemi autentici favorisce lo sviluppo di competenze trasferibili e “capability” per scenari complessi e inediti (Hase & Kenyon, 2013). La personalizzazione intrinseca all’approccio permette di adattare l’apprendimento a bisogni, stili e ritmi individuali.
Tuttavia, l’implementazione dell’eutagogia non è esente da ostacoli significativi (Bhoyrub, Hurley, Neilson, Ramsay, & Smith, 2010; Blaschke, 2012). Una criticità fondamentale riguarda la prontezza del discente (learner readiness): non tutti gli individui possiedono la maturità, le competenze di autoregolazione, la disciplina e la motivazione necessarie per un apprendimento completamente autodeterminato, specialmente se provenienti da percorsi formativi direttivi (Grow, 1991). Un passaggio troppo brusco può generare disorientamento, ansia e carico cognitivo eccessivo (Kirschner, Sweller, & Clark, 2006).
Un’altra sfida significativa è la trasformazione del ruolo del docente: da trasmettitore di conoscenze a facilitatore, guida e mentore. Questa transizione richiede competenze pedagogiche specifiche e una ridefinizione dell’identità professionale educativa.
La valutazione dell’apprendimento presenta complessità metodologiche considerevoli, necessitando di approcci autentici, flessibili e negoziati (portfolio, autovalutazione, peer assessment) che risultano difficili da standardizzare e possono essere percepiti come meno “oggettivi” rispetto a forme tradizionali (Boud, 2000). Non vanno trascurate le potenziali resistenze istituzionali e la necessità di garantire accesso equo a risorse e supporto adeguato.
L’evoluzione dell’eutagogia nell’era digitale pre-AI
Le tecnologie digitali sviluppatesi prima dell’avvento dell’AI hanno offerto terreno fertile per l’espansione dei principi eutagogici, fornendo ai discenti mezzi concreti per esercitare agentività e personalizzare i propri percorsi formativi.
La proliferazione di Risorse Educative Aperte (Open Educational Resources – OER) (UNESCO, 2019) e contenuti online diversificati (articoli, video, MOOC) ha messo a disposizione un patrimonio formativo immenso, consentendo selezione e assemblaggio di risorse in linea con obiettivi autodeterminati (Atkins, Brown, & Hammond, 2007). Il concetto di Ambiente di Apprendimento Personale (Personal Learning Environment – PLE) – sistema controllato dal singolo discente per organizzare risorse, connessioni e attività – incarna perfettamente lo spirito eutagogico (Attwell, 2007). Tecnologie come blog, wiki e aggregatori di contenuti ne hanno facilitato la creazione e gestione.
I Social Media e le piattaforme collaborative (forum, comunità di pratica online) hanno permesso ai discenti autodeterminati di connettersi, co-costruire conoscenza e ricevere supporto peer-to-peer (Dron & Anderson, 2014). La facilità d’uso di strumenti per creare contenuti digitali ha trasformato i discenti da consumatori passivi a produttori attivi (User-Generated Content – UGC), aspetto centrale dell’agentività eutagogica.
Questa fase “tecno-eutagogica” ha dimostrato come la tecnologia possa effettivamente abilitare l’apprendimento autodeterminato, evidenziando al contempo nuove sfide: sovraccarico informativo, necessità di digital literacy avanzata, valutazione critica delle fonti, gestione dell’identità e privacy online (Boyd, 2014). Queste osservazioni preparano l’interrogativo fondamentale su come l’AI possa ulteriormente evolvere questo paradigma educativo.
Verso l’AI-gogia: l’integrazione dell’AI nei processi eutagogici
Le fondamenta gettate dalle tecnologie digitali hanno aperto la strada a una trasformazione potenzialmente più profonda. L’AI offre la prospettiva di transitare da strumenti passivi o meramente reattivi a sistemi dinamici, adattivi e proattivi, capaci di agire come partner intelligenti nel processo eutagogico.
L’evoluzione tecnologica dell’eutagogia come precursore
L’integrazione delle tecnologie digitali nell’eutagogia riflette una tendenza intrinseca all’approccio eutagogico verso maggiore personalizzazione, flessibilità e responsabilizzazione del discente (Blaschke & Hase, 2019). L’adozione di PLE, OER e social media ha amplificato significativamente le capacità del discente, mettendo al contempo in luce i limiti di tali strumenti nel fornire supporto realmente intelligente, contestualizzato e proattivo.
La navigazione autonoma in ecosistemi informativi vasti e spesso caotici, il discernimento di percorsi ottimali, l’autovalutazione continua e la ricezione di feedback formativi personalizzati, tempestivi e significativi restano sfide aperte (Siemens, 2013). Questa fase pre-AI rappresenta un momento dialettico: le tecnologie digitali hanno superato molti limiti pratici dell’eutagogia tradizionale, conservando ed elevando tuttavia la questione dell’autodeterminazione a un nuovo livello di complessità.
L’esigenza emergente è quella di un supporto che trascenda la funzione di mero archivio o canale di comunicazione, configurandosi come “compagno epistemico” intelligente, capace di interagire, dialogare e co-evolvere con il discente. In questo “bisogno emergente” si colloca la transizione verso l’AI: le tecnologie digitali convenzionali hanno fornito l’infrastruttura e familiarizzato i discenti con l’autonomia tecnologica, mentre l’AI promette di innestare capacità di personalizzazione, interazione e adattamento predittivo qualitativamente superiori (Selwyn, 2022).
Definizione e concettualizzazione dell’AI-gogia: principi dell’eutagogia potenziati dall’AI
Si propone il termine AI-gogia (da AI, Artificial Intelligence, e agogos, guidare) per descrivere un paradigma educativo avanzato che fonde i principi dell’eutagogia con le capacità trasformative dell’intelligenza artificiale. L’obiettivo dell’AI-gogia è creare ambienti di apprendimento non solo personalizzati e adattivi, ma intrinsecamente riflessivi e potenzianti (empowering) per il discente.
In questo paradigma, l’AI trascende il ruolo di strumento ausiliario per divenire co-agente attivo e integrato nel processo di apprendimento, amplificando, arricchendo e trasformando le dinamiche eutagogiche tradizionali.
L’agentività del discente può essere supportata e amplificata dall’AI attraverso sistemi ben progettati che offrono scaffolding dinamici e personalizzati per il processo decisionale. Sistemi di raccomendazione intelligenti, basati su machine learning, analizzano obiettivi, interessi, stile di apprendimento e progressi per suggerire percorsi, risorse e attività, espandendo l’orizzonte delle scelte senza predeterminarle (Popenici & Kerr, 2017).
Agenti conversazionali avanzati (chatbot e tutor virtuali potenziati da AI), capaci di comprendere e generare linguaggio naturale (Natural Language Processing, NLP), agiscono come “compagni socratici” e mentori virtuali, assistendo nella chiarificazione di obiettivi, nell’esplorazione critica e nella pianificazione strategica. L’AI facilita inoltre la creazione e gestione di contratti di apprendimento dinamici e adattivi, mantenendo il controllo finale nelle mani del discente.
Lo sviluppo della capability beneficia di strumenti AI sofisticati: simulazioni intelligenti e ambienti immersivi (VR, AR potenziate da AI) presentano scenari problematici complessi, autentici e realistici, adattando la sfida e fornendo feedback contestualizzati e immediati. Questi strumenti risultano cruciali per lo sviluppo di problem-solving, pensiero critico e decision-making in situazioni realistiche a basso rischio (Radianti, Majchrzak, Fromm, & Wohlgenannt, 2020). Sistemi AI possono analizzare le performance in scenari inediti per identificare gap di capability e suggerire percorsi mirati di sviluppo.
La metacognizione e la riflessione rappresentano processi che l’AI può stimolare e supportare efficacemente. Il monitoraggio e controllo metacognitivo sono predittori riconosciuti di successo nell’apprendimento; l‘AI fornisce comprensione approfondita dei processi di apprendimento, promuovendo autoregolazione consapevole. Cruscotti di Learning Analytics (LA) alimentati da AI visualizzano dati (tempi di studio, interazioni, performance) in modo intuitivo e personalizzato, aiutando a monitorare progressi, identificare pattern e riflettere sull’efficacia delle strategie (Jivet, Scheffel, Drachsler, & Specht, 2021).
Sistemi AI possono erogare feedback riflessivi e personalizzati, intervenendo sui processi cognitivi e metacognitivi attraverso domande mirate per stimolare la riflessione a doppio cappio (Azevedo & Aleven, 2013). Agenti intelligenti possono intervenire just-in-time con sollecitazioni metacognitive appropriate (Bannert, Mengelkamp, & Molnar, 2022).
La natura non lineare dell’apprendimento eutagogico trova nell’AI un alleato potente: l’AI è in grado di navigare, analizzare e strutturare spazi di dati vasti e complessi, supportando percorsi esplorativi e personalizzati. Sistemi AI possono curare e mappare dinamicamente ecosistemi di conoscenza e risorse formative, presentando connessioni semantiche, percorsi rilevanti e suggerimenti personalizzati (Bodily & Verbert, 2017).
Knowledge graph potenziati da AI aiutano a visualizzare interrelazioni complesse e costruire percorsi rizomatici (Abu-Salih, 2021). L’AI può facilitare la serendipity guidata, suggerendo risorse e tematiche inaspettate ma rilevanti per il percorso del discente.
L’AI arricchisce l’esperienza di apprendimento rendendola più contestualizzata e situata. Tecnologie come la Realtà Aumentata guidata da AI sovrappongono informazioni digitali rilevanti al mondo reale (Martín-Gutiérrez, Mora, Añorbe-Díaz, & González-Marrero, 2017). Sistemi AI possono adattare contenuti, attività e notifiche al contesto specifico (posizione, momento, attività in corso, dispositivo utilizzato), promuovendo apprendimento just-in-time e just-for-me.
L’AI facilita inoltre la documentazione, analisi e riflessione su esperienze informali e non formali, aiutando a riconoscerne il valore e integrarle efficacemente nello sviluppo della capability (Eraut, 2004).
Principi emergenti o specifici dell’AI-gogia
L’integrazione tra AI ed eutagogia potrebbe favorire l’emersione di nuovi principi pedagogici specifici. Sebbene la ricerca in questo ambito sia ancora agli inizi, alcune tendenze emergenti meritano attenzione teorica.
- Un primo principio potrebbe essere la Co-Agentività Umano-AI (Human-AI Co-Agency): l’apprendimento diviene processo co-determinato e co-regolato dall’interazione dinamica tra discente e sistemi AI. Entrambi gli agenti si influenzano e si adattano reciprocamente: il discente mantiene la sovranità ultima e la responsabilità etica, mentre l’AI agisce come partner proattivo, adattivo e “apprendente”. Questo richiede lo sviluppo di nuove competenze per interagire criticamente ed efficacemente con l’AI. È necessario, tuttavia, distinguere tra l’agentività reale del discente umano e la “simulazione di agentività” da parte dei sistemi AI. Come sottolinea Floridi (2022), i sistemi di AI attuali, per quanto sofisticati, non possiedono intenzionalità né coscienza: agiscono in base a pattern statistici e non sono in grado di valutare conseguenze morali o epistemiche delle loro “scelte”. Parlare di co-agentività richiede perciò cautela terminologica e un’adeguata educazione critica degli utenti rispetto alla natura artificiale e limitata di questi agenti.
- Un secondo principio emergente è la Navigazione Epistemica Assistita e Critica (AI-Assisted Critical Epistemic Navigation). Nell’era della sovrabbondanza informativa, aggravata dalla proliferazione di contenuti AI-generati di qualità variabile, la capability cruciale diviene la capacità di navigare, interrogare, validare e sintetizzare informazioni utilizzando strumenti AI. Questo implica: utilizzare l’AI per accedere e filtrare informazioni; sviluppare scetticismo metodologico e consapevolezza dei bias algoritmici e delle “allucinazioni” dei modelli linguistici; triangolare fonti multiple per validazione critica.
- Potrebbe inoltre emergere il principio della Fluidità Adattiva Personalizzata (Personalized Adaptive Fluidity). L’AI-gogia ambisce a una fluidità e adattabilità che trascendono la personalizzazione tradizionale: sistemi AI potrebbero anticipare bisogni formativi, modificare istantaneamente le traiettorie formative e integrare micro-apprendimenti just-in-time, orchestrando un flusso continuo e seamless di esperienze formative (Dellermann, Lipusch, Ebel, & Leimeister, 2019).
Questi principi emergenti sollevano questioni filosofiche ed epistemologiche fondamentali sulla natura dell’apprendimento e della conoscenza nell’era dell’intelligenza artificiale.
L’intelligenza artificiale come motore dell’ai-gogia: tecnologie e applicazioni
L’AI rappresenta un potenziale catalizzatore per la riconfigurazione di paradigmi educativi orientati all’autodeterminazione. Questo capitolo esplora le tecnologie AI più rilevanti, delinea modelli di progettazione AI-gogici e presenta ricerche esistenti che ne prefigurano i principi applicativi.
Tecnologie AI rilevanti per l’AI-gogia
Diverse branche dell’intelligenza artificiale offrono strumenti specifici per l’implementazione dell’AI-gogia. I Sistemi di Tutoraggio Intelligenti (Intelligent Tutoring Systems – ITS) simulano l’interazione personalizzata one-to-one, fornendo istruzioni personalizzate, feedback adattivi e percorsi individualizzati (VanLehn, 2011). In ottica AI-gogica, questi sistemi evolvono da guide per l’acquisizione di conoscenze predefinite a piattaforme di supporto per l’esplorazione autonoma, offrendo scaffolding dinamico e aiutando a superare misconcezioni attraverso dialogo socratico.
L’Intelligenza Artificiale Generativa (Generative AI) crea contenuti diversificati (testi, immagini, codice, scenari) aprendo prospettive rivoluzionarie per l’educazione (Kasneci et al., 2023; UNESCO, 2023). Il discente autodeterminato dispone di strumenti per: co-creare materiali personalizzati; generare scenari di problem-solving complessi; ricevere bozze e prototipi; interagire con chatbot evoluti per dialoghi euristici (Dwivedi et al., 2023). L’AI generativa può aiutare a formulare domande di ricerca innovative, esplorare controargomentazioni e catalizzare la riflessione a doppio cappio.
Le Learning Analytics (LA) e l’Educational Data Mining (EDM), potenziate da machine learning, forniscono comprensione approfondita dei processi di apprendimento (Siemens & Gasevic, 2012). In contesto AI-gogico, offrono ai discenti cruscotti personalizzati e dashboard riflessive che evidenziano pattern comportamentali, strategie efficaci, progressi e aree richiedenti attenzione metacognitiva (Viberg et al., 2018). I sistemi LA più recenti si orientano verso feedback azionabili e supporto diretto all’autoregolazione.
Gli Agenti Conversazionali Avanzati (chatbot intelligenti), alimentati da NLP e machine learning, svolgono molteplici ruoli: compagni di studio disponibili continuamente, facilitatori della riflessione socratica, supporto nella definizione di obiettivi, simulatori di interazioni complesse (Zawacki-Richter et al., 2019). La loro capacità di comprendere e rispondere in linguaggio naturale li rende strumenti accessibili e intuitivi per promuovere agentività ed esplorazione autonoma.
Le Interfacce Utente Adattive (AUI) e i Sistemi di Apprendimento Adattivo (ALS) personalizzano dinamicamente l’ambiente di apprendimento (contenuti, layout, navigazione, difficoltà) basandosi su preferenze, esigenze, contesto e performance (Brusilovsky & Peylo, 2003). L’adattività in AI-gogia rappresenta responsività intelligente alle scelte ed esplorazioni del discente, offrendo supporto “just-in-time, just-for-me” che esalta l’autodeterminazione. L’AI gioca un ruolo chiave nel rendere questa adattività profonda e significativa (Kaplan & Haenlein, 2020).
L’integrazione sinergica di queste tecnologie costituisce la base tecnica per esperienze AI-gogiche integrate e olistiche.
Potenziali modelli di progettazione ai-gogici: framework e scenari applicativi
La creazione di ambienti AI-gogici richiede modelli di progettazione didattica che pongano i principi eutagogici al centro, orchestrando strategicamente l’intervento dell’AI. Un modello AI-gogico prototipale potrebbe articolarsi nelle seguenti fasi:
- Auto-esplorazione e definizione obiettivi potenziata da AI: il discente, supportato da agenti conversazionali e sistemi di raccomandazione intelligenti, esplora il dominio di interesse, identifica gap conoscitivi e definisce obiettivi personalizzati. L’AI mappa gli obiettivi su potenziali percorsi e risorse disponibili.
- Co-progettazione percorso e contratto di apprendimento dinamico: discente e AI (con supervisione umana opzionale) co-progettano un contratto di apprendimento dinamico e adattivo. L’AI gestisce variazioni e adattamenti in tempo reale.
- Apprendimento esperienziale e riflessivo mediato da AI: il discente interagisce con risorse diversificate, simulazioni, AI generative e comunità di apprendimento. Sistemi LA forniscono feedback continuo e insight metacognitivi. L’AI adatta l’ambiente e le sfide, promuovendo esplorazione e riflessione a doppio cappio.
- Valutazione Autentica e Sviluppo Continuo della Capability: Valutazione integrata basata su performance in contesti autentici e artefatti co-generati. L’AI supporta autovalutazione e peer-evaluation, identificando aree per ulteriore sviluppo della capability.
Rassegna di studi e ricerche esistenti che prefigurano l’AI-gogia
Numerosi filoni di ricerca in AIED (Artificial Intelligence in Education) pongono le basi e forniscono evidenze empiriche per l’AI-gogia. Studi su sistemi di apprendimento adattivo dimostrano come la personalizzazione migliori risultati di apprendimento ed efficienza formativa (Kulik & Fletcher, 2016), supportando ritmi e stili individuali.
La ricerca su feedback generati da AI evidenzia come questi possano essere tempestivi, scalabili e significativi, supportando comprensione e riflessione critica. L’utilizzo di Learning Analytics per promuovere autoregolazione (Self-Regulated Learning, SRL) risulta particolarmente rilevante: fornendo dati sui processi e suggerimenti personalizzati, supportano agentività e metacognizione. Sviluppi recenti si concentrano sulla creazione di “open learner models” trasparenti (Bodily & Verbert, 2017).
Le ricerche su agenti conversazionali e chatbot mostrano potenziale significativo nel supportare l’apprendimento attraverso dialogo, pratica e problem-solving (Okonkwo & Ade-Ibijola, 2021). Le loro abilità di scaffolding personalizzato e adattamento contestuale li rendono particolarmente promettenti per l’esplorazione autodeterminata assistita.
Questi filoni di ricerca convergono dimostrando la fattibilità e l’efficacia dell’uso dell’AI per creare esperienze di apprendimento personalizzate, interattive, riflessive e centrate sul discente. L’AI-gogia integra questi risultati in un quadro teorico olistico, fondato sull’autodeterminazione e orientato allo sviluppo della capability.
Implicazioni, sfide e prospettive etiche dell’AI-gogia
L’introduzione di un paradigma come l’AI-gogia, rappresentante la fusione tra apprendimento autodeterminato e capacità trasformative dell’AI, comporta profonde implicazioni educative, significative sfide implementative e complesse questioni etiche. Un’analisi critica di questi aspetti risulta indispensabile per navigare responsabilmente verso un futuro educativo potenziato dall’AI, assicurando un’evoluzione al servizio dello sviluppo umano integrale e dell’equità sociale.
Riconfigurazione dei ruoli e trasformazione educativa
L’AI-gogia prospetta una riconfigurazione fondamentale dei ruoli tradizionali nell’ecosistema educativo. Per il discente, l’agentività e l’autonomia, già centrali nell’eutagogia, vengono ulteriormente amplificate: diventa co-progettista e “direttore d’orchestra” del proprio percorso formativo, interagendo con sistemi AI quali partner cognitivi, tutor personalizzati e navigatori di conoscenza. A questa accresciuta libertà si accompagnano nuove responsabilità: capacità di interagire criticamente ed efficacemente con sistemi AI; gestione del potenziale sovraccarico informativo; mantenimento del focus autodiretto nonostante sollecitazioni algoritmiche.
Il ruolo del docente/facilitatore umano subisce una trasformazione radicale, allontanandosi dalla funzione di trasmettitore di contenuti per divenire “architetto di ecosistemi di apprendimento AI-gogici”, “curatore di esperienze formative”, “mentore per lo sviluppo della capability” e “facilitatore dell’interazione critica uomo-IA” (Fullan & Langworthy, 2014).
Le competenze necessarie includono: selezione e integrazione pedagogica di strumenti AI; interpretazione di learning analytics per supportare i discenti; progettazione di attività che sfruttino la sinergia uomo-macchina; guida alla riflessione etica sull’uso dell’AI (Mishra & Koehler, 2006). La presenza umana rimane fondamentale per aspetti insostituibili dall’AI: empatia, supporto emotivo, discussione di valori complessi, promozione di pensiero critico oltre l’ottimizzazione algoritmica.
Sfide implementative e sostenibilità
La transizione verso un modello AI-gogico su larga scala presenta notevoli sfide pratiche, tecnologiche e culturali che richiedono attenzione strategica.
- Accesso e divario digitale: l’implementazione richiede accesso equo a infrastrutture tecnologiche avanzate e strumenti AI di qualità, non ancora garantito globalmente (OECD, 2019). Esiste il rischio concreto di esacerbare le disuguaglianze educative esistenti (Holmes et al., 2022).
- Competenze digitali e alfabetizzazione all’AI: discenti e docenti necessitano di nuove e sofisticate competenze digitali che includono non solo l’uso tecnico, ma anche la comprensione critica del funzionamento dell’AI, dei suoi bias e delle sue implicazioni (Long & Magerko, 2020). La formazione dei docenti rappresenta un nodo strategico cruciale.
- Costi e sostenibilità sconomica: lo sviluppo, l’acquisizione, la manutenzione e l’aggiornamento di sistemi AI sofisticati comportano costi significativi, ponendo questioni di sostenibilità economica per le istituzioni, specialmente quelle con minori risorse (Roll & Wylie, 2016).
- Progettazione pedagogica di esperienze AI-gogiche: Creare esperienze che integrino efficacemente l’AI rappresenta una sfida complessa che richiede team multidisciplinari e approcci iterativi di progettazione e validazione (Holstein, McLaren, & Aleven, 2019).
- Integrazione con sistemi educativi esistenti: l’AI-gogia, con la sua personalizzazione estrema e percorsi non lineari, può entrare in conflitto con strutture curriculari, sistemi di valutazione standardizzata e culture organizzative tradizionali (Selwyn, 2019). È necessaria una riflessione approfondita su adattamento dei sistemi esistenti o creazione di spazi specifici per l’innovazione AI-gogica.
- Qualità e affidabilità degli strumenti AI: non tutti gli strumenti AI sono pedagogicamente validi, eticamente robusti o tecnicamente affidabili. È necessario sviluppare criteri rigorosi di valutazione e certificazione (Baker et al., 2023).
Questioni etiche e responsabilità
L’impiego pervasivo dell’AI nell’educazione solleva questioni etiche primarie che devono essere affrontate proattivamente per garantire uno sviluppo responsabile del paradigma AI-gogico.
- Bias algoritmici e discriminazione: gli algoritmi AI, addestrati su dataset, possono riflettere e amplificare pregiudizi storici e sociali relativi a genere, etnia e status socio-economico. Sistemi AI-gogici non attentamente progettati e monitorati potrebbero perpetuare o peggiorare disuguaglianze, offrendo percorsi e feedback iniqui (Noble, 2018; Benjamin, 2019).
- Privacy e sicurezza dei dati: i sistemi AI-gogici raccolgono e analizzano enormi quantità di dati sui discenti (performance, comportamenti, interazioni, potenziali dati biometrici/affettivi). È fondamentale garantire privacy, trasparenza nell’uso dei dati, conformità alle normative (GDPR) e protezione da accessi non autorizzati e usi impropri (Slade & Prinsloo, 2013). Alla luce della riflessione di Zuboff (2019), la questione etica centrale non è solo la raccolta dei dati, ma il loro sfruttamento commerciale e l’eventuale espropriazione del valore generato dal comportamento formativo degli utenti. È necessario riflettere su chi possieda realmente i dati educativi, chi li modella e in che misura il discente mantenga un controllo effettivo sul proprio tracciato cognitivo e identitario. La riflessione su data ownership e consent diventa un imperativo normativo e pedagogico.
- Autonomia versus manipolazione: sebbene l’AI-gogia miri a potenziare l’autonomia, esiste il rischio che sistemi IA eccessivamente persuasivi o poco trasparenti influenzino indebitamente le scelte dei discenti, guidandoli verso percorsi predeterminati secondo logiche non esplicitate (Zuboff, 2019; Elish, 2019). Questo solleva implicazioni significative sulla “moral crumple zone” in ambito formativo.
- Responsabilità e trasparenza: in caso di errori dell’AI (valutazione iniqua, consiglio errato), la questione della responsabilità diviene cruciale. I meccanismi decisionali degli algoritmi IA devono essere trasparenti e spiegabili (Explainable AI, XAI) per discenti ed educatori, consentendo controllo e intervento umano (Adadi & Berrada, 2018; European Commission, 2020). Le normative emergenti (AI Act europeo) pongono particolare accento su questi aspetti per sistemi AI ad alto rischio.
- Impatto su pensiero critico e creatività: l’eccessiva dipendenza da soluzioni e contenuti generati da AI potrebbe atrofizzare le capacità di pensiero critico autonomo, di affrontare ambiguità e di sviluppare soluzioni originali (Carr, 2010).
- Deumanizzazione dell’apprendimento: il rischio che l’interazione con l’AI diventi preponderante rispetto a quella umana (pari e docenti) potrebbe portare a una deumanizzazione dell’esperienza educativa, con perdita della dimensione sociale, emotiva e relazionale dell’apprendimento (Biesta, 2015).
Verso un approccio Human-Centric
Per mitigare i rischi e massimizzare i benefici, l’AI-gogia deve fondarsi su un approccio intrinsecamente human-centric, dove la tecnologia AI serve come strumento al servizio dello sviluppo e del benessere del discente, nel rispetto dei diritti e della dignità umana (Shneiderman, 2022). Gli obiettivi pedagogici ed etici devono guidare la progettazione e l’implementazione dell’AI, non viceversa.
È fondamentale adottare un paradigma human-in-the-loop (HITL) o, preferibilmente, human-over-the-loop (HOTL), garantendo la possibilità di intervento, supervisione e decisione finale umana (docente, facilitatore, discente) nei processi chiave (Shneiderman, 2020). L’AI automatizza compiti e fornisce analisi e suggerimenti, ma la responsabilità ultima e il giudizio critico restano saldamente umani. È necessario progettare interfacce e protocolli che facilitino la collaborazione sinergica e il controllo umano, assicurando che l’AI-gogia rappresenti un percorso di emancipazione intellettuale e non di subordinazione algoritmica.
Affrontare queste sfide e questioni etiche non rappresenta un ostacolo all’innovazione, ma costituisce la condizione necessaria per lo sviluppo di un’AI-gogia sostenibile, equa e genuinamente al servizio dell’umanità. Solo attraverso un approccio responsabile e critico sarà possibile realizzare il potenziale trasformativo di questo paradigma educativo emergente. Solo allora potremo togliere il trattino che ancora separa l’AI dall’agogos e parlare, finalmente di AIgogia.
Bibliografia
Abu-Salih, B. (2021). Domain-specific knowledge graphs: A survey. Journal of Big Data, 8(1), 1-40.
Adadi, A., & Berrada, M. (2018). Peeking inside the black-box: A survey on explainable artificial intelligence (XAI). IEEE Access, 6, 52138-52160.
Argyris, C., & Schön, D. A. (1978). Organizational learning: A theory of action perspective. Addison-Wesley.
Atkins, D. E., Brown, J. S., & Hammond, A. L. (2007). A review of the open educational resources (OER) movement: Achievements, challenges, and new opportunities. The William and Flora Hewlett Foundation.
Attwell, G. (2007). Personal learning environments: The future of eLearning? eLearning Papers, 2(1).
Azevedo, R., & Aleven, V. (Eds.). (2013). International handbook of metacognition and learning technologies. Springer.
Baker, R. S., Hawn, A., & Gelsinger, D. (2023). The need for rigorous evaluation of AIEd systems. AI Magazine, 44(1), 5-7.
Bandura, A. (2001). Social cognitive theory: An agentic perspective. Annual Review of Psychology, 52(1), 1-26.
Bannert, M., Mengelkamp, C., & Molnar, A. (2022). Effects of metacognitive prompts in digital learning environments: A meta-analysis. Educational Psychology Review, 34(1), 1-33.
Barnett, R. (2004). Learning for an unknown future. Higher Education Research & Development, 23(3), 247-260.
Benjamin, R. (2019). Race after technology: Abolitionist tools for the new Jim Code. Polity Press.
Bhoyrub, J., Hurley, J., Neilson, D. R., Ramsay, M., & Smith, M. (2010). Heutagogy: An alternative practice based learning approach. Nurse Education in Practice, 10(6), 322-326.
Biesta, G. J. J. (2015). Beautiful risk of education. Routledge.
Blaschke, L. M. (2012). Heutagogy and lifelong learning: A review of heutagogical practice and self-determined learning. The International Review of Research in Open and Distributed Learning, 13(1), 56-71.
Blaschke, L. M. (2021). The H-word: Heutagogy in the online learning environment. In S. D’Agustino (Ed.), Applying heutagogy to andragogical contexts (pp. 1-18). IGI Global.
Blaschke, L. M., & Hase, S. (2019). Heutagogy and digital media networks: Keys to lifelong learning. International Journal of Digital Media and Smart Technology, 1(1), 7-20.
Bodily, R., & Verbert, K. (2017). Trends and issues in student-facing learning analytics reporting systems research. In Proceedings of the Seventh International Learning Analytics & Knowledge Conference (LAK ’17) (pp. 300-308). ACM.
Boud, D. (2000). Sustainable assessment: Rethinking assessment for the learning society. Studies in Continuing Education, 22(2), 151-167.
Boud, D., & Walker, D. (1990). Making the most of experience. Studies in Continuing Education, 12(2), 61-80.
Boyd, D. (2014). It’s complicated: The social lives of networked teens. Yale University Press.
Brusilovsky, P., & Peylo, C. (2003). Adaptive and intelligent web-based educational systems. International Journal of Artificial Intelligence in Education, 13(2-4), 159-172.
Canning, N. (2010). Playing with heutagogy: Exploring the use of social media for mixed-mode learning. Australasian Journal of Educational Technology, 26(6), 776-789.
Canning, N., & Callan, S. (2010). Heutagogy: Spirals of reflection to empower learners in higher education. Reflective Practice, 11(1), 71-82.
Carr, N. (2010). The shallows: What the Internet is doing to our brains. W. W. Norton & Company.
Cochrane, T., Antonczak, L., Guinibert, M., & Mulrennan, D. (2014). Developing a mobile social media framework for creative pedagogies. Journal of Applied Research in Higher Education, 6(2), 372-394.
Deleuze, G., & Guattari, F. (1987). A thousand plateaus: Capitalism and schizophrenia. University of Minnesota Press.
Dellermann, D., Lipusch, N., Ebel, P., & Leimeister, J. M. (2019). Design principles for a hybrid intelligence decision support system for business model validation. Electronic Markets, 29(3), 479-500.
Dewey, J. (1938). Experience and education. Macmillan.
Dron, J., & Anderson, T. (2014). Teaching crowds: Learning and social media. Athabasca University Press.
Dwivedi, Y. K., Kshetri, N., Hughes, L., Slade, E. L., Jeyaraj, A., Kar, A. K., Baabdullah, A. M., Koohang, A., Raghavan, V., Ahuja, M., Akram, M. S., Al-Emran, M., Albashrawi, M. A., Alfarraj, O., Almegren, A., Alnoor, A., Arafat, M. Y., Ashraf, M. A., Batra, G., … Wright, R. (2023). “So what if ChatGPT wrote it?” Multidisciplinary perspectives on opportunities, challenges and implications of generative conversational AI for research, practice and policy. International Journal of Information Management, 71, 102642.
Elish, M. C. (2019). Moral crumple zones: Cautionary tales in human-robot interaction. Engaging Science, Technology, and Society, 5, 40-60.
Eraut, M. (2004). Informal learning in the workplace. Studies in Continuing Education, 26(2), 247-273.
European Commission. (2020). White paper on artificial intelligence: A European approach to excellence and trust (COM(2020) 65 final).
European Commission. (2021). Proposal for a regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) (COM(2021) 206 final).
Flavell, J. H. (1979). Metacognition and cognitive monitoring: A new area of cognitive-developmental inquiry. American Psychologist, 34(10), 906-911.
Floridi, L. (2022). The ethics of artificial intelligence: Principles, challenges, and opportunities. Oxford University Press.
Fullan, M., & Langworthy, M. (2014). A rich seam: How new pedagogies find deep learning. Pearson.
Grow, G. O. (1991). Teaching learners to be self-directed. Adult Education Quarterly, 41(3), 125-149.
Hase, S., & Kenyon, C. (2000). From andragogy to heutagogy. Ulti-net Dialogues.
Hase, S., & Kenyon, C. (2007). Heutagogy: A new perspective on teaching and learning. In S. Hase & C. Kenyon (Eds.), Self-determined learning: Heutagogy in action (pp. 1-13). Bloomsbury.
Hase, S., & Kenyon, C. (Eds.). (2013). Self-determined learning: Heutagogy in action. Bloomsbury Publishing.
Holmes, W., Persson, J., Chounta, I. A., Wasson, B., & Dimitrova, V. (2022). Artificial intelligence and education: A critical view through the lens of human rights, democracy and the rule of law. Council of Europe.
Holstein, K., McLaren, B. M., & Aleven, V. (2019). Designing for human-AI collaboration in AIES. In Proceedings of the AAAI Conference on Artificial Intelligence (Vol. 33, No. 01, pp. 9564-9568).
Jivet, I., Scheffel, M., Drachsler, H., & Specht, M. (2021). The impact of learning analytics dashboards on student’s learning. Journal of Computer Assisted Learning, 37(3), 748-767.
Kaplan, A., & Haenlein, M. (2020). Rulers of the world, unite! The challenges and opportunities of artificial intelligence. Business Horizons, 63(1), 37-50.
Kasneci, G., Sessler, K., Küchemann, S., Bannert, M., Dementieva, D., Fischer, F., Gasser, U., Groh, G., Günnemann, S., Hüllermeier, E., Krusche, S., Kutyniok, G., Michaeli, T., Nerdel, C., Pfeffer, J., Poquet, O., Sailer, M., Schmidt, A., Seidel, T., Stadler, M., Weller, J., Kuhn, J., & Kasneci, E. (2023). ChatGPT for good? On opportunities and challenges of large language models for education. Learning and Individual Differences, 103, 102274.
Kirschner, P. A., Sweller, J., & Clark, R. E. (2006). Why minimal guidance during instruction does not work: An analysis of the failure of constructivist, discovery, problem-based, experiential, and inquiry-based teaching. Educational Psychologist, 41(2), 75-86.
Knowles, M. S. (1970). The modern practice of adult education: Andragogy versus pedagogy. Association Press.
Knowles, M. S. (1984). Andragogy in action: Applying modern principles of adult learning. Jossey-Bass.
Knowles, M. S. (1986). Using learning contracts. Jossey-Bass.
Kulik, J. A., & Fletcher, J. D. (2016). Effectiveness of intelligent tutoring systems: A meta-analytic review. Review of Educational Research, 86(1), 42-78.
Lave, J., & Wenger, E. (1991). Situated learning: Legitimate peripheral participation. Cambridge University Press.
Long, D., & Magerko, B. (2020). What is AI literacy? Competencies and design considerations. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-16).
Martín-Gutiérrez, J., Mora, C. E., Añorbe-Díaz, B., & González-Marrero, A. (2017). Virtual technologies trends in education. EURASIA Journal of Mathematics, Science and Technology Education, 13(2), 469-486.
Marton, F., & Booth, S. (1997). Learning and awareness. Lawrence Erlbaum Associates.
Mezirow, J. (1991). Transformative dimensions of adult learning. Jossey-Bass.
Mishra, P., & Koehler, M. J. (2006). Technological pedagogical content knowledge: A framework for teacher knowledge. Teachers College Record, 108(6), 1017-1054.
Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. New York University Press.
Nussbaum, M. C. (2000). Women and human development: The capabilities approach. Cambridge University Press.
OECD. (2019). TALIS 2018 results (Volume I): Teachers and school leaders as lifelong learners. OECD Publishing.
Okonkwo, C. W., & Ade-Ibijola, A. (2021). Chatbots in education: A systematic review. Computers and Education: Artificial Intelligence, 2, 100023.
Popenici, S. A., & Kerr, S. (2017). Exploring the impact of artificial intelligence on teaching and learning in higher education. Research and Practice in Technology Enhanced Learning, 12(1), 1-13.
Radianti, J., Majchrzak, T. A., Fromm, J., & Wohlgenannt, I. (2020). A systematic review of immersive virtual reality applications for higher education: Design elements, lessons learned, and research agenda. Computers & Education, 147, 103778.
Revans, R. W. (1980). Action learning: New techniques for management. Blond & Briggs.
Roll, I., & Wylie, R. (2016). Evolution and revolution in artificial intelligence in education. International Journal of Artificial Intelligence in Education, 26(2), 582-599.
Ryan, R. M., & Deci, E. L. (2000). Self-determination theory and the facilitation of intrinsic motivation, social development, and well-being. American Psychologist, 55(1), 68-78.
Selwyn, N. (2019). Should robots replace teachers? AI and the future of education. Polity Press.
Selwyn, N. (2022). AI and the future of education: A critical perspective. Routledge.
Sen, A. (1999). Development as freedom. Oxford University Press.
Shneiderman, B. (2020). Human-centered AI: Reliable, safe & trustworthy. International Journal of Human-Computer Interaction, 36(6), 495-504.
Shneiderman, B. (2022). Human-centered AI. Oxford University Press.
Siemens, G. (2013). Learning analytics: The emergence of a discipline. American Behavioral Scientist, 57(10), 1380-1400.
Siemens, G., & Gasevic, D. (2012). Guest editorial—Learning and knowledge analytics. Educational Technology & Society, 15(3), 1-2.
Slade, S., & Prinsloo, P. (2013). Learning analytics: Ethical issues and dilemmas. American Behavioral Scientist, 57(10), 1510-1529.
UNESCO. (2019). Guidelines on the development of open educational resources policies. UNESCO.
UNESCO. (2021). AI and education: Guidance for policy-makers. UNESCO.
UNESCO. (2023). ChatGPT and artificial intelligence in higher education: Quick start guide. UNESCO.
VanLehn, K. (2011). The relative effectiveness of human tutoring, intelligent tutoring systems, and other tutoring systems. Educational Psychologist, 46(4), 197-221.
Viberg, O., Hatakka, M., Bälter, O., & Mavroudi, A. (2018). The current landscape of learning analytics in higher education. Computers in Human Behavior, 89, 98-110.
Von Glasersfeld, E. (1995). Radical constructivism: A way of knowing and learning. Falmer Press.
Zawacki-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education—Where are the educators? International Journal of Educational Technology in Higher Education, 16(1), 39.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.












