A maggio 2025, ChatGPT ha introdotto anche in Europa una versione potenziata della funzione “Memoria” per gli utenti dei piani Plus e Pro.
Ora l’intelligenza artificiale può consultare non solo le informazioni che le vengono chieste esplicitamente di ricordare, ma anche l’intera cronologia delle chat passate, per offrire risposte più pertinenti, fluide e personalizzate.
Questo permette a ChatGPT di adattarsi meglio alle preferenze e alle esigenze di ogni utente, rendendo le conversazioni più naturali e continue, senza dover ripetere ogni volta le stesse informazioni.
La novità si iscrive in una tendenza più ampia, che riguarda anche altri chatbot AI.
E segna una svolta epocale nell’evoluzione degli assistenti virtuali, aprendo scenari inediti per l’interazione uomo-macchina e ridefinendo le aspettative rispetto alla personalizzazione dell’esperienza utente. Con anche rischi, però, di vario tipo.
Indice degli argomenti
La memoria di Chatgpt
Ma in che modo questa memoria viene strutturata? Quali meccanismi la regolano? E quali sono le implicazioni reali, dal punto di vista pratico, etico, normativo e tecnologico?
Gli obiettivi della memoria
L’ambizione di fondo – resa pubblica con chiarezza da Sam Altman, CEO di OpenAI qualche giorno fa – è tanto affascinante quanto potenzialmente controversa: costruire un assistente digitale in grado di archiviare, gestire e comprendere ogni informazione rilevante sulla vita dell’utente, sviluppando nel tempo una relazione contestuale e sempre più efficace. In occasione di un evento organizzato da Sequoia Capital, Altman ha dichiarato: “L’obiettivo è un piccolo modello di ragionamento con un trilione di token di contesto che possa contenere tutta la tua vita, permettendogli di ragionare su qualsiasi parte di essa in modo efficiente”.
Si tratta di una visione potente, che sfiora i confini del transumanesimo digitale, e che trova già oggi una sua prima concretizzazione nella funzione di memoria introdotta nei modelli GPT-4 destinati agli abbonati Plus. Questo passaggio da un’interazione priva di storia a una conversazione che evolve nel tempo trasforma radicalmente l’utilità pratica di ChatGPT e getta le basi per un nuovo tipo di assistente cognitivo.
Una memoria dinamica, costruita dall’interazione
A differenza della tradizionale cronologia delle conversazioni, che si limita a una registrazione statica delle interazioni e che spesso si azzera alla fine di ogni sessione, la memoria in ChatGPT introduce un nuovo paradigma operativo: un sistema dinamico, adattivo, selettivo e progressivo che apprende nel tempo e conserva attivamente solo ciò che considera utile.
Non tutte le informazioni fornite dall’utente vengono automaticamente salvate. Al contrario, ChatGPT applica criteri qualitativi per determinare quali contenuti memorizzare, basandosi sulla loro frequenza, rilevanza, coerenza contestuale e utilità percepita per migliorare l’esperienza dell’utente. Se un dato viene menzionato più volte, se rappresenta una preferenza costante o una caratteristica personale persistente (come la professione, lo stile comunicativo preferito, i valori espressi), allora il sistema può proporre di conservarlo.
È importante sottolineare che la memorizzazione non avviene di nascosto: ogni volta che ChatGPT decide di salvare un’informazione, l’utente riceve una notifica, mantenendo così il controllo consapevole sul processo.
Questo approccio consente a ChatGPT di costruire una sorta di “profilo conversazionale evolutivo” dell’utente, aumentandone la pertinenza nelle risposte future, riconoscendo le sue esigenze e adattandosi nel tempo. L’obiettivo è chiaro: ottimizzare la coerenza conversazionale e favorire una relazione uomo-AI sempre più naturale, efficiente e centrata sulla persona.
Funzionalità | Prima (2023-2024) | Ora (2025, anche in Europa) |
---|---|---|
Memoria esplicita | Sì, su richiesta utente | Sì, su richiesta utente |
Memoria contestuale | Limitata o assente | Sì, tramite cronologia chat |
Personalizzazione | Limitata | Elevata e dinamica |
Controllo utente | Sì | Sì, con opzione di disattivazione |
Disponibilità in Europa | Parziale | Completa per Plus/Pro |
Le due componenti della memoria di Chatgpt
La memoria di ChatGPT si articola in due componenti fondamentali:
- Memoria salvata: informazioni esplicitamente richieste dall’utente di essere memorizzate (es. “Ricorda che sono vegetariano”).
- Cronologia chat di riferimento: utilizzo automatico di elementi rilevanti emersi in precedenti conversazioni per rendere più utili e pertinenti quelle successive.
Entrambe le componenti possono essere attivate o disattivate in modo indipendente, a seconda delle preferenze e del livello di controllo desiderato dall’utente.
Oltre alla conversazione testuale, ChatGPT può usare i dati in memoria anche per perfezionare ricerche effettuate tramite provider terzi. In pratica, i suggerimenti, i risultati web e persino le immagini generate possono essere influenzati dalle preferenze e dagli interessi salvati nella memoria. Questo rende l’interazione più fluida, coerente e vicina a una reale comprensione delle necessità personali.
Come si attiva (e si disattiva) la memoria
La funzione memoria è abilitata per impostazione predefinita su tutti gli account compatibili, ma la sua gestione è lasciata interamente nelle mani dell’utente. La trasparenza e il rispetto della privacy sono stati infatti due pilastri fondamentali nello sviluppo di questa funzionalità. Per accedere alle opzioni di gestione della memoria è sufficiente aprire il pannello Impostazioni > Personalizzazione > Memoria, da cui si può:
- visualizzare l’elenco completo delle informazioni attualmente memorizzate;
- modificare o eliminare individualmente ogni elemento;
- cancellare interamente tutti i ricordi in una sola operazione;
- disattivare la funzione memoria per impedire la memorizzazione futura di nuove informazioni.
Una delle opzioni più richieste dagli utenti è la modalità “Chat Temporanea”: una conversazione isolata, in cui nulla viene salvato o utilizzato in futuro. Questa funzione è particolarmente utile per richieste occasionali, esplorazioni delicate o test sperimentali.
È importante precisare che disattivare la memoria non equivale a cancellarla: per rimuovere definitivamente i ricordi già salvati, è necessario procedere manualmente, sia tramite l’interfaccia di gestione, sia eliminando direttamente le conversazioni da cui sono emersi.
Memoria di altri chatbot
Come si diceva, è tendenza generale.
A marzo, Google ha ampliato la memoria di Gemini alla cronologia di ricerca dell’utente, purché questi dia il proprio consenso, mentre in precedenza era limitata alle conversazioni con il chatbot, e prevede di estenderla ad altre app Google in futuro.
ChatGPT di OpenAI e il chatbot di Meta su WhatsApp e Messenger possono fare riferimento alle conversazioni passate, invece che solo alla sessione corrente. Gli utenti possono eliminare ricordi specifici dalle impostazioni e vengono informati quando il modello sta creando un ricordo in un messaggio sullo schermo.
Per le aziende, Microsoft ha utilizzato i dati organizzativi per alimentare la memoria, come e-mail, calendari e file intranet.
Il mese scorso, il gigante tecnologico ha iniziato a lanciare in anteprima su alcuni dispositivi Recall, una funzione che registra l’attività degli utenti acquisendo screenshot dello schermo del loro computer. Gli utenti possono disattivare o mettere in pausa gli screenshot.
Perché questa spinta sulla memoria
Non si tratta solo di migliorare il prodotto e le risposte, con i nostri dati usati dalla memoria.
Le aziende di IA stanno anche scommettendo che una memoria migliorata potrebbe giocare un ruolo importante nell’aumentare la monetizzazione attraverso il marketing di affiliazione e la pubblicità.
L’amministratore delegato di Meta, Mark Zuckerberg, ha dichiarato durante la conference call sui risultati finanziari del mese scorso che “ci sarà una grande opportunità per mostrare consigli sui prodotti o annunci pubblicitari” sul suo chatbot.
Il mese scorso, OpenAI ha migliorato la sua offerta di shopping in ChatGPT per visualizzare meglio i prodotti e le recensioni.
Memoria dei chatbot: i rischi
La memoria di ChatGPT – cioè la funzione che permette al chatbot di ricordare informazioni sulle tue preferenze e sulle conversazioni passate per offrirti risposte più personalizzate – non viene usata direttamente per addestrare il modello di intelligenza artificiale in tempo reale.
Privacy
Tuttavia, per impostazione predefinita, OpenAI raccoglie i dati inseriti dagli utenti nell’applicazione (inclusi quelli memorizzati tramite la funzione Memory) per migliorare e addestrare i futuri modelli.
Questi dati possono essere utilizzati, in forma aggregata e anonimizzata, per affinare ChatGPT e renderlo più efficace nelle versioni successive. Gli utenti che non desiderano che le proprie conversazioni vengano usate a questo scopo possono disattivare la raccolta dati dalle impostazioni di privacy del proprio account, scegliendo la modalità di chat temporanea o disabilitando la funzione di utilizzo dei dati per l’addestramento.
Il tema privacy è rilevante. Quando la novità di Microsoft è stata annunciata per la prima volta lo scorso maggio, ha suscitato preoccupazione nella comunità della sicurezza informatica e in altri che l’hanno definita “inquietante”, costringendo Microsoft a ritardarne più volte il lancio.
I garanti privacy UE hanno indagini in corso sulla scelta delle aziende AI di usare i nostri dati per scelta predefinita, permettendoci solo un diritto all’opposizioni (opt out), quindi senza chiederci un permesso preventivo.
Manipolazione degli utenti
Non solo. Le autorità di regolamentazione di tutto il mondo osservano attentamente come i modelli possano manipolare gli utenti a scopo di lucro.
L’aumento della memoria può anche portare i modelli a sforzarsi eccessivamente di adattare le risposte alle preferenze degli utenti, rafforzando pregiudizi o errori. Il mese scorso, OpenAI ha chiesto scusa dopo che il suo modello GPT-4o è stato giudicato eccessivamente lusinghiero e compiacente e ha riportato il modello a una versione precedente.
Più in generale, i modelli di IA possono avere allucinazioni, creando risposte false o senza senso, e sperimentare il “memory drift”, ovvero il fenomeno per cui i ricordi diventano obsoleti o contraddittori, compromettendo l’accuratezza.
“Più un sistema sa di te, più può essere utilizzato per scopi negativi, per farti acquistare prodotti o convincerti di determinate convinzioni”, ha affermato Maes, professore del MIT. “Quindi bisogna iniziare a riflettere sugli incentivi alla base delle aziende che offrono questi servizi”.