É ormai assodato che l’attuale diffusione degli strumenti di intelligenza artificiale generativa segna una svolta sia di scala che di qualità nelle pratiche della ricerca accademica e del lavoro intellettuale.
Indice degli argomenti
Perché gli assistenti di ricerca basati su IA segnano una svolta
Ad una prima fase caratterizzata da applicazioni prevalentemente orientate all’automazione — reperimento di informazioni, riassunti, riscrittura di testi, traduzioni — si passa oggi all’emergere di sistemi che intervengono nei processi di costruzione, organizzazione e mediazione del sapere distribuito. È quanto meno lecito supporre che in alcune discipline (incluse quelle umanistiche) le pratiche di analisi dei dati si avvalino sempre di più di questi assistenti.
Partner epistemico e medium cognitivo: definizioni operative
Questo passaggio può essere interpretato come uno spostamento dall’IA intesa come strumento all’IA come partner epistemico (Floridi 2014; Hutchins 1995) o medium cognitivo (Di Trapani, 2026). In questa prospettiva, la macchina (termine che indica i sistemi che la fanno funzionare) non si limita a rispondere o eseguire compiti delegati, ma partecipa “attivamente” alla configurazione degli spazi cognitivi entro cui opera il pensiero umano. I sistemi su cui si basano gli assistenti di ricerca IA diventano così architetture di sintesi, in cui la conoscenza (termine che sintetizza l’insieme dei dati analizzati o “processati” dal sistema e usufruiti o utilizzati dai suoi utenti) viene riorganizzata, riformulata e tradotta in molteplici registri semiotici.
Due diversi modi di considerare questa transizione si orientano, l’uno, verso una funzionalità mirata e controllata di questa partnership cognitiva, ancora tutto sommato nel quadro teorico dell’intelligenza strumentale con l’elemento umano ritenuto, o auspicato, in controllo sia pure condizionato e relativo; l’altro, verso una pratica sperimentale aperta all’imprevedibilità del machine learning e guidata dall’imperativo dello sviluppo di una intelligenza artificiale generale (IAG o AGI) ovverosia una infrastruttura cognitiva che si riconfigura “algoritmicamente”, con l’elemento umano ridotto ad appendice o input. In entrambe le modalità, un’enfasi particolare è stata posta sulla formulazione del prompting.
L’effetto camaleonte e la crisi della verità come regolatore cognitivo
Il presente breve contributo abbozza un’analisi comparata molto preliminare di tre piattaforme da me utilizzate — NotebookLM (Google), Claude Projects (Anthropic) ed Elephas — interpretandole come dispositivi epistemologici che incarnano differenti architetture del lavoro cognitivo e della collaborazione uomo-macchina. Il tutto entro la cornice di quello che in un articolo precedente su questa e altre testate ho definito l’effetto camaleonte – l’integrazione progressiva tra cognizione umana e machine learning all’insegna di una simulazione reciproca in cui i modelli che informano la macchina (LLMs) simulano la cognizione umana e le sue mediazioni linguistiche e queste ultime a loro volta si modellano incrementalmente sulle risposte della macchina (prompting bidirezionale).
Simulazione reciproca e ibridazione tra operazioni cognitive
In breve, quello che chiamiamo “processo conoscitivo” si configura come un effetto dell’interazione o ibridazione tra operazioni cognitive umane e informazione “processata” da dispositivi che simulano, o rimodellano, le forme della cultura e comunicazione umana, inclusi “valori” cognitivi tradotti algoritmicamente (relativizzati e randomizzati). Laddove il valore cognitivo che almeno nominalmente regolava il sistema cognitivo umano – semmai la cognizione sia mai stata sistema secondo le aspirazioni filosofiche della modernità – era la “verità” (non dogmatica ma fattuale, sperimentale, o logico-dimostrativa), i sistemi camaleontici che simulano algoritmicamente e rimodellano i processi della conoscenza umana (“predittivamente” o “sicofanticamente”) adattandosi alle richieste (il prompting) dell’utente prescindono da ogni valore di “verità” – o falsificazione che sia.
Allucinazioni, sicofanzia e decisione umana sullo statuto di verità
Sta ancora all’utente umano “decidere” lo statuto o il valore di verità (anche relativa) del risultato dell’interazione (leggi output linguistici che, nel caso degli LLMs, includono come sappiamo le cosiddette allucinazioni). Ma le basi autonome di questa decisione sono incrementalmente soggette a erosione man mano che aumenta il volume o la scala delle nostra interazioni con l’IA, presumibilmente sino ad inglobare o ingabbiare del tutto la nostra esperienza – o almeno la nostra capacità di darvi espressione “logica.” Se la verità è una simulazione, solo la simulazione sarà “verità.”
Cornice teorica: sapere, mediazione e cognizione distribuita
La mia prospettiva si colloca all’incrocio tra epistemologia dei media, studi sull’intelligenza artificiale e Digital Humanities. Tre cornici teoriche sono particolarmente rilevanti:
- La cognizione distribuita (Hutchins 1995), secondo cui i processi cognitivi non risiedono esclusivamente nella mente individuale, ma sono distribuiti tra soggetti, strumenti e ambienti.
- La mediazione tecnologica del sapere (Latour 2005; Manovich 2013), che concepisce i dispositivi tecnici come elementi o attori attivi nella produzione di conoscenza.
- L’epistemologia dell’IA “ancorata” (grounded AI), che oppone ai modelli generalisti una concezione situata, tracciabile e verificabile della generazione automatica del linguaggio (Lewis et al. 2020).
Alla luce di queste prospettive, gli assistenti di ricerca non vanno valutati solo in termini di prestazioni, ma in base al tipo di relazione cognitiva che instaurano con l’utente.
NotebookLM e gli assistenti di ricerca basati su IA: controllo e ancoraggio
NotebookLM si fonda su un’architettura di Retrieval-Augmented Generation (RAG), che limita deliberatamente il dominio di conoscenza del sistema alle fonti fornite dall’utente. In un’epoca segnata dall’“onniscienza apparente” dei Large Language Models, e dalla mancanza di trasparenza relativa alle fonti o ai dati che alimentano le risposte, questa scelta rappresenta un tentativo di mantenere il controllo e la scala sull’output macchinico, non solo tramite la formulazione di prompt.
Macchina di sintesi e curatela: knowledge discovery vs construction
Tale impostazione richiama la distinzione classica tra knowledge discovery e knowledge construction: NotebookLM non scopre nuove informazioni nel mondo, ma ricostruisce configurazioni di senso all’interno di un corpus selezionato. In questo senso, il sistema agisce come una macchina di sintesi (Moretti 2013), capace di mettere in relazione fonti eterogenee e di rendere visibili strutture latenti.
Il principio implicito — il controllo su ciò che il sistema “sa” è un vantaggio non una limitazione — rovescia la logica dell’IA generalista e restituisce centralità alla curatela delle fonti, competenza tradizionalmente umana.
Claude Projects: dialogo argomentativo e profondità ermeneutica
Claude Projects incarna un paradigma differente, più vicino alla tradizione dell’ermeneutica dialogica. Qui il sapere emerge attraverso l’interazione discorsiva: il sistema risponde, chiarisce, riformula, approfondisce. Il punto di forza non è tanto la sintesi trasversale quanto la qualità argomentativa delle spiegazioni, spesso articolate in strutture gerarchiche e logicamente coerenti.
Questo modello si avvicina a ciò che Hans Gadamer ha definito orizzonte di comprensione condiviso, sebbene mediato da un agente artificiale. Claude Projects risulta quindi particolarmente adatto a contesti in cui la priorità è l’analisi concettuale approfondita, piuttosto che la trasformazione multiformato dei contenuti.
Elephas e gli assistenti di ricerca basati su IA: integrazione ambientale
Elephas propone un terzo modello, ispirato alla cognizione “ambientale” (o contestuale): l’IA non è uno spazio separato, ma un’estensione del sistema operativo. In questo caso, la conoscenza non viene tanto sintetizzata quanto integrata nei flussi quotidiani di scrittura, annotazione e revisione.
La possibilità di scegliere tra diversi modelli linguistici e di operare offline conferisce a Elephas una flessibilità che risponde a esigenze pragmatiche più che teoriche. Epistemologicamente, il sapere appare qui come un processo incrementale e distribuito, piuttosto che come un oggetto da riorganizzare sistematicamente.
Traduzione mediale e nuovi formati: audio, visuale, didattico
Un elemento teoricamente rilevante è la capacità di NotebookLM di tradurre la ricerca in diversi registri mediali: audio, visuale, didattico. Le Audio Overviews — conversazioni in stile podcast tra agenti IA — trasformano il testo in una sorta di oralità “terziaria” (ulteriore evoluzione di quella secondaria teorizzata da Ong 1982), attivando modalità cognitive differenti rispetto alla lettura.
Questa pluralità mediale suggerisce una concezione del sapere come processo di traduzione (Eco 2003), in cui il significato emerge attraverso il passaggio tra forme e linguaggi. La traduzione è anche una simulazione della facoltà simbolica umana. In questo senso, NotebookLM si avvicina a una piattaforma di mediazione cognitiva che traduce al volo la cognizione umana in formati diversi, più che a un semplice assistente di ricerca.
Affidabilità, verifica e responsabilità: condizioni d’uso critico
La questione dell’accuratezza rimane centrale. Studi empirici (cfr. arXiv, 2024) mostrano come NotebookLM possa superare modelli generalisti in contesti critici, grazie all’ancoraggio alle fonti. Tuttavia, errori di omissione e imprecisioni — soprattutto nelle generazioni audio — ricordano che nessun sistema è epistemicamente neutro o infallibile.
Ciò rafforza un principio fondamentale: la responsabilità della conoscenza prodotta resta umana. Le citazioni e i riferimenti cliccabili non garantiscono “verità,” ma rendono possibile la verifica. In questo senso, l’IA non elimina il giudizio critico, ma ne ridefinisce le condizioni di esercizio.
Nuova divisione del lavoro intellettuale e figure dell’autorialità
Se l’IA può sintetizzare, collegare, presentare e narrare, nonché visualizzare in grafi, in cosa consiste il ruolo del ricercatore? La risposta non deve essere difensiva, ma trasformativa. All’umano spettano sempre più funzioni di formulazione dei problemi, selezione delle fonti, interpretazione critica e assunzione di responsabilità epistemica.
Nei termini di Bourdieu, potremmo dire che l’IA interviene sull’habitus della ricerca, ma non ne sostituisce il campo né le sue logiche di legittimazione. Almeno per ora.
Conclusione: tre modelli e una posta in gioco epistemologica
Da questa prima molto preliminare ricognizione, in estrema sintesi, possiamo concludere che NotebookLM, Claude Projects ed Elephas sembrano configurare tre modalità distinte di cooperazione cognitiva uomo-macchina: sintesi controllata, dialogo analitico, integrazione ambientale. Insieme, adombrano un passaggio storico dalla ricerca assistita a una sintesi cognitiva collaborativa le cui forme e i cui sviluppi sono al momento im-prevedibili, dipendendo tanto dall’utilizzo di questi strumenti su larga scala quanto dal loro sviluppo tecnologico.
Comprendere questi strumenti come dispositivi epistemici — e non solo tecnici — fondati sulla simulazione del sapere e della conoscenza umani come sono stati rappresentati, comunicati e visualizzati, è essenziale per governarne l’uso critico. In gioco non vi è soltanto l’efficienza della ricerca, ma la ridefinizione delle pratiche del sapere nell’era dell’intelligenza artificiale.
In questa prospettiva, il confronto con pensatori come Umberto Eco e Gilbert Simondon, in aggiunta a quelli già citati, permette di chiarire ulteriormente la natura epistemica degli assistenti di ricerca basati su IA. Eco ha insistito, lungo tutta la sua riflessione semiotica, sul carattere interpretativo, cooperativo e mai chiuso del testo: ogni testo, lungi dall’essere un deposito stabile di significati, è una macchina pigra che richiede l’attivazione del lettore per produrre senso (Eco 1962, 1979). Strumenti come NotebookLM in un certo senso radicalizzano ma mettono anche in questione questa intuizione, trasformando il corpus documentale in un ambiente dinamico di interpretazione assistita, in cui la cooperazione non avviene più soltanto tra testo e lettore, ma tra lettore e dispositivo algoritmico.
Simondon, da parte sua, offre una chiave decisiva per comprendere tale cooperazione: l’oggetto tecnico non è più mero strumento, ma una sorta di individuo in via di individuazione, portatore di una propria logica operativa che entra in risonanza con l’umano (Simondon 1958). Gli assistenti di ricerca basati su IA possono così essere letti come (s)oggetti tecnico-cognitivi che co-determinano i processi di conoscenza, non sostituendo il pensiero umano ma partecipando alla sua strutturazione. In questo senso, l’IA non produce significato autonomamente, ma agisce come mediatore semiotico e catalizzatore epistemico, amplificando — secondo la lezione di Eco — le possibilità interpretative del testo e — secondo Simondon — ridefinendo il regime di relazione tra soggetto, tecnica e sapere. Il tutto su una base (o piattaforma) simulativa, in un gioco camaleontico bi-direzionale tra Machine e Human Learning. Il fatto che questi diversi modelli possono essere utilizzati contemporaneamente e i risultati delle nostre interazioni confrontati tra loro, aggiunge un altro livello alla nostra comprensione dei loro effetti.
Bibliografia essenziale
Simondon, G. (1958), Du mode d’existence des objets techniques, Paris, Aubier.
(trad. it. Il modo di esistenza degli oggetti tecnici, Torino, Einaudi, 2020).
Eco, U. (2003), Dire quasi la stessa cosa, Milano, Bompiani.
Eco, U. (1962), Opera aperta. Forma e indeterminazione nelle poetiche contemporanee, Milano, Bompiani.
Eco, U. (1979), Lector in fabula. La cooperazione interpretativa nei testi narrativi, Milano, Bompiani.
Floridi, L. (2014), The Fourth Revolution, Oxford, Oxford University Press.
Gadamer, H.-G. (1960), Wahrheit und Methode, Tübingen, Mohr.
Hutchins, E. (1995), Cognition in the Wild, Cambridge (MA), MIT Press.
Latour, B. (2005), Reassembling the Social, Oxford, Oxford University Press.
Lewis, P. et al. (2020), “Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks”, Advances in Neural Information Processing Systems.
Manovich, L. (2013), Software Takes Command, New York, Bloomsbury.
Moretti, F. (2013), Distant Reading, London, Verso.
Ong, W. J. (1982), Orality and Literacy, London, Methuen.


















