ChatGPT memorizzerà di default le informazioni “registrate” nelle chat con gli utenti, lasciando un’opt out per chi volesse disattivare la funzione in favore di una maggior “neutralità” dell’AI di OpenAI.
È un servizio che consentirà agli utenti sia una miglior performance del sistema, sia di esercitare meglio il diritto di portabilità dei dati, ma ci sono ancora alcune criticità. Vediamo quali.
Cosa si intende per “memoria a lungo termine” e quali sono i vantaggi per l’utente
OpenAI, come Google, ha ritenuto di dotare i propri servizi di AI di un sistema di “conservazione del contesto” o “contesto persistente” (context retention o persistent context) per ottenere un risultato chiaro: rendere più agevole possibile la fruizione del servizio, facendo diventare l’AI un super assistente virtuale modellato sulle preferenze dell’utente.
Di fatto il sistema prevede la correlazione tra token che vengono inseriti in ogni conversazione, di modo che la AI possa collegarli autonomamente nelle ipotesi in cui individui correlazioni tra informazioni.
L’obiettivo, per le big tech, è fare in modo che l’utente non smetta di impiegare – e pagare – il servizio di AI: se il bot si ricorda le preferenze dell’utente, l’esperienza è molto più veloce agevole e comoda.
Non solo: la possibilità di modellare l’AI sulle preferenze personali determina, anche, una maggior semplicità nel contesto della portabilità delle conversazioni in caso di migrazione su altri sistemi.
L’esercizio di questo diritto in ambiente AI è appare più complesso che in altri settori digitali, ma le big tech hanno iniziato a risolvere il problema partendo dalla titolarità delle conversazioni in capo all’utente.
Questo determina un fascio di diritti in capo all’utente e ha consentito, di fatto, di poter far memorizzare legalmente le preferenze dell’utente tokenizzandole e rendendole elemento di miglior fruizione del servizio.
I rischi connessi alla memoria a lungo termine dell’AI
Ovviamente non è tutto oro quel che luccica: in termini di trattamento dei dati personali dei rischi ci sono, in particolare la connessione tra le abitudini, dati relativi alla salute comportamenti dell’utente memorizzati e connessi tra loro dall’AI.
Qui la questione si giocherà, in larga parte, tra informativa sul trattamento dei dati, terms and conditions e compliance interna/policy aziendale sul trattamento dei dati particolari, sanitari, etnici, politici sessuali etc.
Di certo le Autorità garanti europee – e quella italiana su tutte, verosimilmente – saranno molto attente a vigilare sul rispetto formale delle norme in materia di informativa e di privacy by design perché, potenzialmente, la memorizzazione da parte dell’AI dei comportamenti dell’utente determina un trattamento molto più invasivo rispetto a quello “precedente”, per così dire istantaneo.
Di certo, oltre al consenso, saranno necessarie informative chiare e precise, opt out facilmente percorribili, possibilità di cancellare i dati precedentemente memorizzati in modo semplice efficace e, per quanto possibile, certificato.
Nulla vieta, tuttavia, che vi siano anche altre prescrizioni di natura sostanziale: oltre alla valutazione di impatto, i requisiti di sicurezza informatica potrebbero essere rivalutati, alla luce della nuova funzionalità.
Cosa pensa ChatGPT della sua memoria a lungo termine
A domanda specifica rivolta alla diretta interessata, l’AI di OpenAI risponde nei seguenti termini: “La funzione memoria a lungo termine in ChatGPT è un argomento complesso e multifaccettato. ChatGPT, nella sua configurazione base, non possiede una memoria a lungo termine nel senso tradizionale di un essere umano o di un sistema di database che conserva informazioni per un lungo periodo. Invece, ChatGPT genera risposte basate su un modello di linguaggio addestrato su un vasto dataset di testo proveniente da internet fino a una certa data di taglio. Questo significa che “ricorda” informazioni nel senso che ha accesso a pattern, conoscenze e informazioni codificate nel suo modello durante l’addestramento, ma non apprende o memorizza nuove informazioni dai suoi scambi con gli utenti dopo il suo ultimo aggiornamento di addestramento.
Tuttavia, ci sono stati sforzi e ricerche per integrare funzionalità di memoria a lungo termine in modelli come ChatGPT e altri sistemi di intelligenza artificiale. Queste funzionalità potrebbero consentire al sistema di ricordare informazioni specifiche dalle interazioni precedenti con l’utente, migliorando così la personalizzazione e la coerenza delle conversazioni. Queste implementazioni possono variare e possono includere l’uso di database esterni, la creazione di contesti di conversazione persistenti, o tecniche di apprendimento incrementale che permettono al modello di adattarsi e incorporare nuove informazioni nel tempo”.
Ovviamente, al momento in cui è stata resa questa risposta, la funzione di memoria a lungo termine non era ancora stata implementata, ma è interessante capire cosa pensasse l’AI della sua stessa capacità di data retention.
Conclusioni
L’AI generativa è sulla cresta dell’onda e soppianterà, o si integrerà, con gli assistenti virtuali che utilizziamo già ora quotidianamente.
Questi, d’altra parte, già sono basati su algoritmi: la differenza sarà la possibilità di generare connessioni sulla base di “ricordi” e sulla base di modelli di connessione sempre più sofisticati.
È anche evidente che la sfida della data protection è garantire un equilibrio tra la comodità assoluta offerta all’utente in modo opportunistico per poterlo mantenere sempre su piattaforme di proprietà della big tech che gestisce l’AI e la tutela dei diritti garantiti dal GDPR.
In attesa che l’AI Act venga formalmente alla luce, saranno le Autorità Garanti per il trattamento dei dati personali a dover vigilare attentamente su questo delicatissimo equilibrio.