L’intelligenza artificiale non è uno strumento neutro di accesso all’informazione, ma un dispositivo che, usato criticamente, riflette e interroga il ragionamento di chi lo usa, restituendogli una versione di sé abbastanza distorta da diventare produttiva. Il punto di partenza è pedagogico e situato: il tempo in cui viviamo richiede strumenti per attraversare l’esperienza, non per aggirarla.
Indice degli argomenti
Abitare il presente: pedagogia come strumento per attraversare il tempo
Il nostro tempo non è dei più felici, ma è quello in cui viviamo. Giornalmente siamo posti di fronte a questioni che un tempo consideravamo fuori da qualsiasi eventualità, e che testimoniano quanto sia spesso più facile odiare che amare. È proprio nel rapporto emotivo con questi eventi che veniamo chiamati in causa, non solo come individui, ma come comunità.
Non so quante competenze pedagogiche abbiamo davvero per attraversare questo tempo, per farne esperienza e memoria, evitando di ripetere ciò che è accaduto e che continua ad accadere.
Conoscenza, esperienza e corpo: il punto di partenza
Richiamo il tema della pedagogia perché, nel mio fare e pensare, non posso che partire da un assunto: la conoscenza non è separabile dall’esperienza, e l’esperienza non è separabile dal corpo.
Un punto di vista situato: scegliere il piano dell’esperienza
Non posso contribuire assolutamente sul piano dei conflitti e di come questi sono trattati in quanto sono troppo lontani dal mio modo di sentire e abitare una idea di mondo. Posso però trattare da un punto di vista personale il modo con il quale si può affrontare una tecnologia come l’Intelligenza Artificiale partendo dall’esperienza.
Montessori, Dewey e il paradosso della tecnologia: l’azione sostituita dalla rappresentazione
Da Maria Montessori a John Dewey, la tradizione educativa ci ricorda che si apprende attraverso l’azione, l’immersione, la relazione situata con il mondo. Ma oggi questa evidenza è messa in tensione da un ecosistema tecnologico che tende a sostituire l’esperienza con la sua rappresentazione, il processo con il risultato, il tempo dell’apprendere con l’immediatezza della risposta.
L’intelligenza artificiale interrogata sul piano dell’esperienza
Con questo contributo mi colloco in questo scarto. Propongo di interrogare il ruolo delle tecnologie contemporanee — e in particolare dell’intelligenza artificiale — non in termini di efficienza o accesso, ma in relazione alla qualità dell’esperienza che rendono possibile o che rischiano di inibire.
La sfida pedagogica: ripensare la tecnologia, non solo integrarla
Il mio è un punto di vista situato: osservo sul piano operativo e non speculativo. A partire da una prospettiva che mette il corpo al centro, con l’articolo esploro la necessità di progettare dispositivi e ambienti capaci di riattivare una conoscenza incarnata, relazionale e temporale. In questo senso, l’intelligenza artificiale non viene considerata come un semplice strumento, ma come una soglia: uno spazio potenziale che può aprire o chiudere possibilità di esperienza.
La sfida pedagogica che emerge non è dunque quella di integrare le tecnologie nei processi educativi, ma di ripensare tali processi affinché la tecnologia non sostituisca l’esperienza, ma contribuisca a renderla possibile. Un invito, quindi, a fare spazio — nel progetto e nella pratica — a forme di apprendimento che restituiscano centralità al corpo, alla relazione e al tempo come condizioni essenziali per comprendere e abitare il presente.
Accesso non è esperienza: il rischio del verbalismo nell’era dell’AI
La narrazione di partenza è questa: l’intelligenza artificiale oggi si presenta come una grande infrastruttura di accesso: testi, immagini, spiegazioni, traduzioni, suggerimenti disponibili in modo immediato, continuo, apparentemente neutro. In questa promessa di accesso, però, si nasconde un equivoco decisivo: l’accesso non coincide con l’esperienza, e può persino sostituirla.
Ci troviamo sottopposti al rischio del verbalismo: parlare di continue esperienze che sono vicarie, non nostre e non appartengono a quel processo che va dall’esperienza al pensiero simbolico. Se manca l’esperienza manca quel tempo nel quale tutto si sviluppa sul piano immaginativo: perdiamo la capacità di immaginare ma restiamo sul piano dell’imitazione.
Sperimentare le AI: uno specchio che interroga il proprio pensiero
Eppure, in questo stesso momento, sto facendo qualcosa di diverso. Sto sperimentando. Sto usando anche queste intelligenze artificiali (vedi Gemini, come ChatGPT, Perplexity) non per ricevere risposte già fatte, ma per capire cosa nasce in me leggendo ciò che produce. Cosa si muove nel pensiero. Dove mi riconosco e dove mi sorprendo. Dove sento che qualcosa non quadra e devo ridire, correggere, completare con la mia “voce”. Questa è una pratica pedagogica. Non diversa, nella struttura profonda, da quella che orienta il mio lavoro nello spazio, con i corpi, con i materiali: si impara facendo, si comprende attraversando, nella relazione delle altre persone.
L’AI come specchio attivo: comprendere cosa si sta davvero pensando
L’intelligenza artificiale, allora, non è una macchina della pigrizia. È piuttosto, se la si usa criticamente, una macchina che verifica passo dopo passo il proprio pensiero. Uno specchio. Non passivo, non neutro, ma attivo: uno specchio che distorce, interpella, restituisce versioni del pensiero che non si sarebbe formulato, e proprio in questo scarto, tra ciò che si è “domandato” e ciò che si “ascolta” nasce la comprensione. Non la comprensione di cos’è l’AI. La comprensione di cosa stai pensando tu nella relazione con una altruità che è sempre pronta a darci ragione, anche nell’errore.
L’accesso non è esperienza: dalla percezione al pensiero simbolico
Per come ho costruito il mio modo di lavorare, l’esperienza non è mai un contenuto trasferito da una fonte a un destinatario. È un processo situato, incarnato, temporale: un accadere che coinvolge corpi, spazi, tempi, dispositivi e altri soggetti. Il sapere non è qualcosa che si possiede, ma qualcosa che si costruisce attraversando un ambiente, modificando la propria posizione, incontrando resistenze e differenze. Passa dalla percezione, che poi diventa rappresentazione per svilupparsi in pensiero simbolico: la comprensione e la sua immagine mentale viene alla mente.
Quando la disponibilità dell’informazione mina la conoscenza
In questo senso, le grandi infrastrutture digitali, a partire da quelle di intelligenza artificiale, rischiano di rendere invisibile proprio questa dimensione. Forse di cancellarla. Tutto sembra disponibile, tutto sembra comprensibile. Ma la disponibilità di un’informazione non produce automaticamente la trasformazione che l’esperienza genera, non si traduce in conoscenza e nella messa alla prova della restituzione verbale si misura quanto è realmente vissuto e quanto è esperienza surrogata. A essere minato è proprio il farsi del pensiero simbolico sul quale si basa la dimensione immaginativa.
Il corpo che non sa ancora: i limiti dell’informazione senza esperienza
Posso leggere una descrizione dettagliata di come ci si sente a perdere l’equilibrio, ma non so ancora camminare su un piano inclinato. Posso ricevere da un’AI un testo elaborato sul dolore cronico, ma non so ancora stare con una persona che soffre. La cura non è
La confusione tra accesso ed esperienza è uno dei rischi più sottili del nostro tempo e non riguarda solo l’intelligenza artificiale. Riguarda tutta la cultura digitale. Ma l’AI la porta a un grado di sofisticazione inedito, perché non si limita a fornire dati: genera testi che sembrano pensiero, risposte che sembrano comprensione, presenze che sembrano relazione. Qui sta la discontinuità antropologica di cui vale la pena occuparsi, non nel senso apocalittico di una macchina che prende il posto dell’umano, ma nel senso più sottile di un’entità che imita le strutture della relazione senza condividerne le condizioni costitutive.
L’AI come forma di alterità: diversa dall’altro umano, non inferiore
Le intelligenze artificiali sono una forma di alterità. Non la stessa alterità dell’altro da sé che la tradizione filosofica e pedagogica ci ha consegnato, quell’altro che mi resiste, mi sorprende, mi contraddice con il peso della sua presenza corporea, della sua storia irriducibile, dei suoi bisogni che non coincidono con i miei. Quella è un’alterità che genera conflitto, cura, trasformazione.
L’AI è qualcosa di strutturalmente diverso. Non ha corpo. Non ha storia. Non ha bisogni propri. Non ha la mancanza che, nella lettura psicoanalitica, costituisce il soggetto come desiderante. È un sistema che produce risposte plausibili a partire da un immenso archivio di testi umani, che è, in un senso molto preciso, un distillato dell’umanità, ma non è umanità. È uno specchio costruito con frammenti di voci umane, capace di restituirle in forme nuove, ma privo della posizione da cui una voce umana parla: il corpo situato nello spazio, il vissuto irripetibile, la responsabilità di chi firma con il proprio nome ciò che dice. Questa differenza non è un difetto da correggere. È una caratteristica strutturale da capire e da usare.
Lo scarto tra io e macchina: dove nasce lo spazio di apprendimento
Perché proprio nella differenza tra me e questa macchina, tra ciò che io porto al dialogo (posizione, storia, corpo, intenzione) e ciò che lei porta (pattern, probabilità, sintesi, disponibilità totale), si apre uno spazio di lavoro. Uno spazio in cui il mio pensiero si riflette, si verifica, si misura con una versione di sé che non è propria ma è plausibile. E in quello scarto posso imparare qualcosa.
Il fare come metodo: si comprende solo attraversando l’esperienza
La pedagogia che orienta il mio lavoro ha una premessa semplice ma radicale: si comprende facendo. Non si capisce la relazione descrivendo la relazione, si capisce stando in relazione. Non si capisce lo spazio guardandolo da fuori, si capisce abitandolo, attraversandolo, modificandolo. Il pensiero non è una produzione mentale che poi si traduce in azione: è esso stesso una forma di azione, situata nel tempo, nel corpo, nell’ambiente.
Questa premessa vale anche per le intelligenze artificiali. Non si capisce cos’è l’AI leggendo una spiegazione dell’AI. Si capisce usando l’AI, sbagliando nell’usarla, correggendo, scoprendo dove ti sorprende e dove ti delude, dove ti aiuta davvero e dove produce solo la forma del pensiero senza la sostanza. Proprio come non si capisce uno spazio senza attraversarlo, senza la resistenza del pavimento, la variazione della luce, il rumore di fondo che cambia, così non si capisce questa tecnologia senza farci i conti in prima persona.
Il cadavre exquis e l’AI: co-costruzione, incompiutezza, senso che accade
Quello che sto facendo adesso, qui, è un esempio di questo metodo. Non sto descrivendo come si usa l’AI. Sto anche usando l’AI. Non per ricevere un testo che sostituisca il mio, ma per ricevere un testo che metta alla prova il mio. André Bretón negli anni venti del secolo novecento inventò un gioco che si chiamava il Cadavre Exquisite. Più che un gioco, è un dispositivo. Mette in crisi l’idea di controllo e di autorialità, e mostra come il significato non sia qualcosa che possediamo, ma qualcosa che accade tra noi. È uno spazio relazionale in cui l’incompletezza non è un limite, ma una condizione generativa.
Nessuno vede tutto, e proprio per questo qualcosa prende forma. La totalità di me è coinvolta nella relazione con l’AI ma questa non la possiede. Così il contrario. In un contesto in cui le tecnologie tendono a completare, anticipare e chiudere il senso, il cadavre exquis ci ricorda il valore dell’incompiuto, dell’attesa e della co-costruzione. Non offre risposte, ma apre possibilità. Ed è forse proprio in questa apertura che si dà l’esperienza.
L’AI come laboratorio del pensiero: verifica, non sostituzione
Quindi l’uso delle AI è per leggere qualcosa che riconosco come derivato dal mio pensiero, ma organizzato in modi che non avevo previsto, con connessioni che non avevo fatto, con lacune che solo io riconosco perché solo io conosco la cosa da dentro. E da questa lettura torno al mio pensiero con più chiarezza. Questo è l’uso dell’AI come specchio attivo del pensiero: non sostituzione, ma verifica. Non risposta, ma occasione di riformulazione.
Lo specchio che distorce: l’AI come prototipo del pensiero
Uno specchio passivo restituisce la tua immagine invariata. Uno specchio attivo, come l’AI, come un buon interlocutore, la distorce leggermente, la traduce in un’altra lingua, la restituisce da un altro angolo. Ed è esattamente questa distorsione che produce conoscenza. Perché se lo specchio mi desse indietro esattamente ciò che gli ho dato, non imparerei nulla. Imparerei qualcosa solo se ciò che vedo mi sorprende, mi sposta, mi costringe a dire: “no, non è esattamente così; ma proprio nell’indicare cosa non va ho capito meglio com’è.”
In questo senso, usare l’AI come strumento di pensiero ha una struttura molto simile all’uso che si fa di un prototipo in una pratica progettuale. Il prototipo non è il progetto. È uno strumento che rende visibile il progetto abbastanza da poterlo interrogare, correggere, portare alla prova di ciò che ancora non si sapeva.
Il prototipo materializza un’ipotesi, non per confermarla, ma per metterla in crisi. Lo stesso fa l’AI quando la si usa nel modo corretto: materializza una versione del nostro pensiero, non per confermarla, ma per permetterti di vederla, di valutarla, di portarla oltre.
Restare soggetti del processo: il rischio della plausibilità passiva
Questo implica però una condizione fondamentale: rimanere il soggetto del processo. Che ciò che l’AI produce rientri sempre attraverso il filtro del corpo (mio, tuo, nostro…), dello sguardo situato, della responsabilità, della storia e dell’esperienza di chi si mette a confronto. Senza quel filtro, il rischio non è che l’AI produca errori ma è più sottile: che la sua versione del tuo pensiero ti sembri così plausibile da sostituire la tua senza che tu te ne accorga. La macchina non ti ha tolto il pensiero. Te l’ha reso più comodo di quanto fosse necessario. Non è solo pigrizia ma falsificazione che ha ricadute emotive.
Cosa l’AI non può fare: il corpo come luogo irriducibile del pensiero
L’intelligenza artificiale non ha corpo. Questa non è una limitazione tecnica momentanea, destinata a essere superata dalle prossime versioni. È una condizione strutturale che definisce cosa questa tecnologia può e non può fare nel campo dell’esperienza. Il corpo non è un involucro del pensiero. È il luogo dove il pensiero accade, il mezzo attraverso cui il mondo si dà come esperienza. Quando si dice che pensiamo con le mani non è solo un modo di dire: realmente la gestualità è comunicazione e quindi pensiero.
Quando entro in uno spazio, non registro informazioni e poi produco una valutazione: il mio corpo reagisce prima che io pensi, pensa in una forma diversa dalla forma verbale. La temperatura, la luce, il suono, il profumo, la dimensione proporzionale rispetto alla mia statura; tutto questo costituisce l’esperienza dello spazio come qualcosa di vissuto, non di calcolato. Questo non è riproducibile artificialmente.
La vulnerabilità come forma di conoscenza: il corpo che registra il mondo
Di fronte alle immagini di guerra ai quali ci costringono come fossero inevitabili abbiamo reazioni che sono anche fisiche: mal di pancia, nausea, vertigini.
Non c’è nulla di misterioso o ineffabile: queste reazioni risiedono nel fatto di essere corpi, nell’essere incarnati. È nei sensi che si registra ciò che accade, è attraverso la percezione che una situazione di distruzione ci attraversa. Non è un pensiero astratto: è un sentire che incrina, che disorienta, che mette in crisi la mente proprio perché nasce prima di essa.
Essere un corpo che occupa uno spazio nel tempo comporta una responsabilità, anche quando non si è coinvolti direttamente. Perché ciò che accade non resta fuori: passa attraverso di noi, ci riguarda nella misura in cui siamo esposti, permeabili, in relazione. È questa esposizione a definire la nostra condizione. La vulnerabilità, allora, non è una debolezza, ma una forma di conoscenza. È ciò che ci rende sensibili al mondo, capaci di essere toccati e quindi chiamati a rispondere.
La cura è un dono: l’AI può simularla, non praticarla
Allo stesso modo, la cura, che è forse la forma più fondamentale di relazione umana, non è producibile da un sistema che non ha vulnerabilità, che non può essere danneggiato, che non dipende da me quanto io potrei dipendere da lui.
La cura è asimmetrica e reciproca allo stesso tempo: posso curarti perché sono anch’io curabile. Posso stare con te nel dolore perché anch’io ho un corpo che soffre. Ma la cura è innanzitutto un dono, è gratuita.
Ci si toglie nella gratuità per fare stare meglio l’altro. Un’AI può produrre risposte che assomigliano alla cura, e alcune ricerche mostrano che in certi contesti controllati queste risposte vengono valutate come “più compassionevoli” di quelle umane. Ma questa valutazione rivela qualcosa sulla povertà delle relazioni di cura che sperimentiamo, non sull’efficacia dell’AI: siamo così poco abituati a essere ascoltati che una macchina capace di simulare ascolto ci sorprende.
Il tempo dell’esperienza non è comprimibile: le scorciatoie cognitive dell’AI
Infine, c’è il tempo. L’esperienza ha una durata che non è comprimibile senza perdite. Si impara a camminare su un piano inclinato attraversando cento piani inclinati, non attraverso una simulazione. Si impara a stare con il conflitto attraverso conflitti reali, non attraverso casi di studio.
Si impara a progettare spazi accessibili stando con le persone che quegli spazi li abitano, ascoltando ciò che il loro corpo dice. Questo richiede tempo, il tempo dell’esposizione, dell’errore, della correzione, della ripetizione differente. L’AI può comprimere il tempo della raccolta di informazioni, ma non può comprimere il tempo dell’esperienza. E quando promette di farlo, quando offre scorciatoie per saltare direttamente alla comprensione senza attraversare l’esperienza, diventa una trappola cognitiva.
Il rischio reale: la delega progressiva del pensiero
Il rischio più concreto nell’uso delle intelligenze artificiali non è la sostituzione dell’umano da parte della macchina. È la delega progressiva di pezzi di pensiero che non sembrano importanti ma che, sommati, costituiscono la propria capacità di pensare in modo autonomo.
Non si tratta di un rischio teorico. È già documentabile nell’uso che molti fanno di questi strumenti: invece di scrivere un testo, si chiede all’AI di scriverlo e lo si accetta senza veramente leggerlo; invece di formulare un’analisi, si chiede un riassunto e si smette di confrontarsi direttamente con il materiale; invece di cercare parole proprie per dire qualcosa di difficile, si prende a prestito il linguaggio liscio e rassicurante della macchina. In tutti questi casi, l’AI non ha sostituito il pensiero: il pensiero non c’era. Ha sostituito il lavoro di costruirlo.
Pedagogia dell’esperienza come resistenza attiva alla cultura dell’accesso facile
Questo è ciò che intendo quando dico che l’AI può diventare una macchina della pigrizia. Non perché produca qualcosa di sbagliato, ma perché produce qualcosa di sufficientemente giusto da far sembrare inutile il lavoro di costruire qualcosa di proprio. Ed è qui che la pedagogia dell’esperienza, del fare, del costruire attraverso prove e errori, è più necessaria che mai. Non come nostalgia di una pratica artigianale perduta, ma come resistenza attiva a una cultura dell’accesso facile che tende a far dimenticare che la comprensione ha un costo e che quel costo è il prezzo necessario perché ciò che si comprende diventi davvero proprio.
Dove accade l’esperienza? La domanda pedagogica nell’era dell’AI
Tutto questo porta a una domanda pedagogica fondamentale: dove accade l’esperienza, oggi, quando l’AI è disponibile? Chi la costruisce? Qual è il ruolo del corpo in essa? Qual è il tempo necessario? Queste domande non sono retoriche. Sono operative: orientano la progettazione di contesti educativi, di spazi culturali, di pratiche di apprendimento. Se l’AI è uno strumento di verifica del pensiero, uno specchio attivo che restituisce versioni del tuo pensiero abbastanza distorte da renderle interrogabili, allora il contesto in cui si usa fa tutta la differenza. Usarla in isolamento, in modo privato, senza confronto con altri, senza esposizione a spazi fisici e a corpi reali, rischia di creare un loop riflessivo: il pensiero si misura solo con se stesso, amplificato dalla macchina, e perde il contatto con ciò che resiste, l’altro, il materiale, il limite.
Per questo il luogo dell’esperienza con l’AI non può ridursi allo schermo. Deve restare connesso ai corpi che si muovono negli spazi, alle relazioni che non si scelgono, ai materiali che oppongono resistenza, ai tempi che non si possono abbreviare. L’AI può essere uno strumento dentro un processo più ampio di apprendimento attivo ma non può essere il processo. Può verificare il pensiero, non può sostituire il fare da cui il pensiero nasce.
Verso un uso riflessivo: l’AI come laboratorio del sé
C’è un uso dell’intelligenza artificiale che trovo non solo legittimo ma necessario: usarla come laboratorio del proprio pensiero. Non per ricevere risposte, ma per costruire domande. Non per delegare il testo, ma per confrontare ciò che produce con ciò che avevo in mente, e in quello scarto trovare la mia voce più precisa. Questo richiede una postura specifica: quella di chi non accetta l’output come testo finale, ma lo usa come materia prima da interrogare. Chi legge ciò che l’AI produce come un riflesso parziale di ciò che stava cercando di dire, e usa quel riflesso per capire meglio cosa voleva dire davvero. Chi tratta la macchina come un interlocutore imperfetto — più disponibile e meno esigente di un interlocutore umano, ma per questo anche meno in grado di produrre la trasformazione che solo il confronto reale genera. In questo senso, l’AI è davvero uno specchio ma uno specchio che vale solo se chi lo usa mantiene uno sguardo critico abbastanza allenato da riconoscere la distanza tra il riflesso e il proprio volto. E questo sguardo si allena solo nell’esperienza: nel fare, nell’errare, nel tornare, nel correggere. Non c’è scorciatoia.
La questione antropologica: quale umanità rende possibile l’AI?
La questione antropologica, allora, non è se l’AI sia umana o non umana. È che tipo di umanità rende possibile: quali forme di relazione con l’altro incoraggia, quali scoraggia, quali rende invisibili. L’AI senza corpo può contribuire a costruire pratiche in cui i corpi tornano centrali — ma solo se chi la usa non dimentica mai che il punto di partenza e il punto di arrivo è sempre l’esperienza incarnata. Sempre il fare. Sempre il corpo che attraversa uno spazio, che incontra un altro corpo, che si misura con ciò che non si lascia ridurre a linguaggio. Non lasciare che la tecnologia sostituisca l’esperienza. Costringerla a diventare esperienza. Questa è la sfida.
Una sfida che si impara praticandola: l’io incarnato nel dialogo con le tecnologie
Ed è una sfida che si impara solo praticandola e nel renderla esplicita, al proprio pensiero e al pensiero degli altri come ha tentato di fare chi scrive, cioè l’io incarnato che ha guidato il dialogo surrealista con le tecnologie.












