l’approfondimento

La memoria nei chatbot AI: ci sono vantaggi ma anche rischi da considerare



Indirizzo copiato

L’uso della memoria nei chatbot AI permette risposte più pertinenti, ma comporta rischi legati alla personalizzazione eccessiva e alla trasparenza del processo decisionale

Pubblicato il 8 mag 2025

Antonio Cisternino

Università di Pisa



memoria nei chatbot - affidabilità degli assistenti ai IA e psicanalisi pipeline dati aziendali IA terapia cognitivo comportamentale assistenti digitali; chat control 2.0

Il contesto in un LLM sappiamo essere un elemento essenziale nel condizionare le risposte di un modello di intelligenza artificiale generativa.

Il ruolo del contesto nei modelli linguistici

Il contesto non contiene infatti solo il prompt dell’utente, ma sempre più spesso tutte le informazioni di contesto che possono aiutare il modello a rispondere il più correttamente possibile anche ricorrendo a informazioni esterne da usare per aggiornare o integrare le informazioni usate durante l’apprendimento del modello stesso.

In effetti in tutti i sistemi chat basati su AI ormai il nostro prompt viene manipolato e arricchito con altre informazioni, come i risultati di una ricerca Web per esempio, e le strategie usate per preparare il contesto determinano in modo centrale, addirittura nel caso della chain of thought alla base del ragionamento il sistema genera prompt per sé stesso manipolando di fatto il contesto tra un’invocazione e la successiva del modello.

Esperimenti sull’effetto del contesto nelle risposte AI

Per capire l’impatto del contesto sull’output di un LLM possiamo fare un semplice esperimento usando Ollama e il modello Phi4 a linea di comando e scoprire che, a parità di prompt, se chiediamo al modello informazioni legate alla data di oggi con o senza meta informazioni si ottengono output radicalmente differenti (accomunati dalla totale assenza di umorismo del modello):

Memoria e personalizzazione dell’interazione utente-AI

Il contesto e come viene costruito diventa un elemento centrale del comportamento di sistemi AI e al progredire della tecnologia è evidente come questo sia manipolato sempre di più dai vari Chatbot intelligenti per fornire risposte accurate e adatte all’utente corrente. Non stupisce quindi che si parli sempre più spesso di memoria dell’intelligenza artificiale come la necessità di tenere conto dell’interlocutore umano e possibilmente della sua particolare esperienza passata per fornire output sempre più appropriati ai bisogni informativi riducendo la necessità di fornire più informazioni per ottenere le risposte desiderate.

I progetti come estensione della memoria artificiale

Da oltre un anno OpenAI sperimenta con la memoria di ChatGPT estraendo informazioni automaticamente dalle varie Chat al fine di ottenere elementi utili da includere nel contesto e orientare il modello nelle risposte. Nelle parole di GPT stesso ecco come funziona la memoria:

Nonostante il mio uso intensivo di GPT la memoria si limita a dieci fatti estratti dalle mie interazioni (la memoria può essere ispezionata accedendo alle Impostazioni > Personalizzazione).

Questo tipo di memoria non è l’unico esperimento fatto finora: OpenAI ha introdotto a dicembre i progetti, seguito a stretto giro da Anthropic con Claude, una cartella di chat il cui contenuto viene utilizzato dall’AI in nuove conversazioni nel progetto stesso, consentendo anche il caricamento di file e la possibilità di fornire istruzioni specifiche sul comportamento atteso dall’assistente.

I progetti rappresentano uno strumento molto efficace che consente di evitare di alimentare chat lunghissime per assicurarsi il contesto necessario senza dover reimmettere molte volte le stesse informazioni e rappresentano uno strumento essenziale per lavorare con ChatGPT offrendo di fatto grandi quantità di informazioni alla memoria relativamente a un’attività strutturata nel tempo. Io l’ho usata nel corso di ICT infrastructures che insegno alla laurea Magistrale per avere un assistente personale nella redazione del materiale didattico che si adatti alla particolare edizione del corso che tengo quest’anno.

Controllo e selezione delle informazioni nel contesto AI

Uso i progetti anche per ricordarmi cose e definire ambiti di conoscenza a cui so che mi posso rivolgere per riassumere interazioni passate con l’AI.

Il fatto che si possa delineare un perimetro a quali informazioni vengono usate per arricchire il contesto è una cosa che apprezzo e soprattutto mi assicura un certo controllo su quali informazioni saranno usate per rispondere in modo più appropriato ed efficace ad un mio bisogno informativo. Si tratta di un meccanismo che di fatto è una memoria ma che mi consente di decidere quali memorie sono rilevanti ad una certa conversazione, e mi pare molto più efficace di un meccanismo che decide che Interstellar è un mio film preferito senza neanche consultarmi e successivamente altererà le risposte date tenendo conto di questo fatto assolutamente parziale delle mie preferenze, magari adattando le risposte in tema di show televisivi su questo aspetto (che per altro è emerso durante una prova che stavo facendo).

Rischi legati alla memoria dell’intelligenza artificiale

Come questi assistenti digitali usano le informazioni su di noi è quindi un aspetto centrale sia perché contribuisce ad aumentarne l’efficacia nell’interazione sia perché rischiamo di ricevere informazioni che ci compiacciano eccessivamente costruendoci intorno un’altra echo chamber dopo quelle dei social. In modo molto semplice le echo chamber possono essere definite come strutture che si tendono a formare sui social in cui seguendo solo utenti a noi affini e leggendone i contenuti postati ci amplifichiamo a vicenda costruendo una visione distorta della nostra realtà digitale e, indirettamente, di quella fisica. Il rischio di dotare l’AI di una memoria è quindi significativo, anche perché i modelli tendono a essere compiacenti al punto di creare allucinazioni solo per soddisfare l’utente di turno (il termine inglese che è divenuto recentemente popolare che caratterizza questo fenomeno è sycophancy”), e questa tendenza di cui si parla molto rischia di essere amplificata fornendo una memoria.

La memoria nei sistemi AI di Meta

La memoria è di fatto anche la protagonista dell’annuncio di Meta della disponibilità di Meta AI, la nuova applicazione di Meta che dovrebbe consentire un’interazione in stile ChatGPT e soprattutto usando le informazioni che Meta ha accumulato nel corso di quasi vent’anni su tutti noi su Facebook e Instagram. Purtroppo in Italia non è ancora possibile provarla, ma è già disponibile sullo store ed è semplicemente un rebranding dell’app Meta View usata per controllare gli occhiali smart realizzati con Ray-Ban. In un prossimo futuro vedremo un’interfaccia in stile ChatGPT ma per ora ci dobbiamo accontentare di usare Meta AI usando WhatsApp.

Memoria a lungo termine e alterazione dell’identità digitale

La possibilità di Meta di utilizzare le informazioni personali di oltre vent’anni di vita sembra dare un’opportunità nel costruire una AI che conosce gli utenti ben oltre ciò che è possibile analizzando poche chat. È quindi una funzione che è necessario approfondire anche per valutare se la memoria non altera troppo il comportamento del modello, anche confondendolo, perché io sicuramente non sono più la stessa persona che era quella che si è iscritta due decadi fa su Facebook. Ovviamente il prompt engineering di Meta che userà questi dati per creare la memoria determinerà molto del comportamento, e non è chiaro quanto si possa sapere di quello che viene fatto dietro le quinte. Si rischia in ogni caso che l’effetto di echo chamber si amplifichi a dismisura traslando il fenomeno sociale in un fenomeno relazionale uomo-AI.

Prompt engineering e trasparenza nella memoria AI

La gestione della memoria sta comunque divenendo un aspetto sempre più rilevante nella costruzione dei prompt per i modelli, e ad oggi si tratta di un processo largamente opaco dove si sta costruendo molta della qualità di questi servizi e di cui si parla troppo poco. Lo strato che fa il prompt engineering, verifica l’ammissibilità delle richieste, e seleziona le informazioni provenienti da sorgenti di informazioni esterne secondo la modalità RAG spesso conta più del modello stesso nel determinare la qualità del risultato.

Personalmente ritengo che l’approccio corretto sia quello dei progetti, dove quantomeno ho una rappresentazione delle informazioni che saranno usate per integrare le mie richieste, trovo invece decisamente pericoloso che questa sintesi sia effettuata da un software in modo assolutamente opaco che di fatto determina, dal punto di vista dell’AI, il mio io digitale. Nel caso di OpenAI quantomeno è possibile osservare i contenuti selezionati, vedremo non appena sarà possibile la via scelta da Meta.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati