Negli ultimi mesi, diverse società che sviluppano Large Language Model stanno introducendo degli aggiornamenti nei propri modelli linguistici al fine estendere le capacità di memoria degli strumenti di IA.
Ciò consentirebbe ai chatbot (ad esempio ChatGpt e Gemini) di ricordare le informazioni sugli utenti al fine di fornire risposte non solo coerenti ma anche maggiormente personalizzate.
Indice degli argomenti
Memoria dei chatbot e personalizzazione dell’interazione
Ad esempio, OpenAI dichiara sul proprio sito che “ChatGPT ora può ricordare dettagli utili tra le conversazioni, rendendo le sue risposte più personalizzate e pertinenti. Mentre interagisci con ChatGPT – che tu stia scrivendo, parlando o chiedendo di generare un’immagine – ricorderà il contesto utile dalle conversazioni precedenti, come le tue preferenze e i tuoi interessi, e utilizzerà queste informazioni per adattare le sue risposte. Più usi ChatGPT, più diventa utile. Noterai miglioramenti nel tempo man mano che acquisisce una migliore comprensione di ciò che funziona meglio per te”. È interessante notare che la funzione che consente di “ricordare”, disponibile dall’8 maggio 2025, è disattivata per impostazione predefinita e deve essere abilitata dall’utente.
Considerazioni etiche sulla memoria chatbot
Secondo quanto espresso dalla stessa OpenAI, “la funzione di memoria solleva importanti considerazioni sulla privacy e sulla sicurezza, in particolare riguardo al tipo di informazioni che dovrebbero essere ricordate e a come tali informazioni vengono utilizzate”.
Di seguito esploriamo alcuni punti di attenzione in merito all’attivazione di questa funzione.
Aspetti relativi alla conservazione dei dati e alla profilazione
Due elementi che devono essere tenuti in considerazione riguardano il periodo di conservazione e la profilazione.
Iniziando dal primo punto, occorre considerare che al fine di rispettare la normativa sulla protezione dei dati personali, i dati possono essere conservati per un periodo non superiore a quello necessario al conseguimento delle finalità per cui sono trattati. Pertanto, è importante che le società che consentono tale funzione si preoccupino di indicare il periodo di conservazione dei dati e, soprattutto, non li conservino per un periodo indeterminato. Ad esempio, Open AI dichiara che “ChatGPT può gestire autonomamente le memorie salvate, aggiornandole, combinandole o rimuovendole su richiesta. Puoi eliminare singole memorie, cancellarle tutte o disattivare completamente la memoria salvata nelle impostazioni”. Queste informazioni consentono di comprendere coma disattivare la funzione ma non permettono di sapere per quanto tempo saranno conservati i dati personali dell’utente.
Il secondo punto riguarda invece la profilazione; infatti, il chatbot con la memoria “potenziata” potrebbe avere la possibilità di riconoscere abitudini e preferenze dell’utente. Tutto ciò potrebbe portare ad una profilazione come definita dall’art. 4 del GDPR. Sul punto, è necessario che le società titolari del trattamento informino adeguatamente l’utente, ovviamente dopo aver individuato una corretta base giuridica per il trattamento.
Rischio di lock-in legato alla memoria dei chatbot
Un ulteriore aspetto riguarda la possibilità che l’utente si ritrovi in una situazione di “lock-in” in quanto il chatbot dotato di memoria può arrivare ad una conoscenza tale dell’utente da rendere difficile il passaggio ad un altro servizio.
Memoria dei chatbopt: la necessità di bilanciare innovazione e tutela dei diritti
La possibilità di estendere la memoria dei chatbot e di consentire di creare risposte maggiormente personalizzate è sicuramente un aspetto che può rivelarsi utile e può portare beneficio anche agli utenti. Tuttavia, è necessario che tale innovazione porti con sé da una parte gli adempimenti necessari al rispetto dei diritti degli utenti (ad esempio, individuazione di una base giuridica, informativa agli interessati) e, dall’altra, un’educazione degli utenti stessi ad interagire in modo corretto con gli strumenti di IA al fine di condividere solo le informazioni necessarie e, se possibile, evitando di caricare sui chatbot dati particolari. Non da ultimo si ricorda che il Garante è molto attento a questi temi come si è potuto osservare con il recente provvedimento relativo al Chatbot “Replika”.