La capacità dei chatbot di “ricordare”[1] non è più solo un’innovazione tecnica, ma una trasformazione radicale del modo in cui uomo e macchina interagiscono: più personalizzata, continua, ma anche più esposta a rischi normativi e cognitivi.
Le memorie computazionali permettono all’agente conversazionale di costruire una relazione più coerente, personalizzata e adattiva con l’utente, riducendo l’effetto di “statelessness” tipico delle prime generazioni di sistemi conversazionali. Tuttavia, ciò solleva anche rilevanti interrogativi in termini di privacy, sorveglianza, manipolazione e responsabilità algoritmica.
Indice degli argomenti
Memoria artificiale e continuità nel dialogo umano-macchina
Nei chatbot basati su IA, in modo particolare, la distinzione tra memoria a breve termine (STM) e memoria a lungo termine (LTM) non è soltanto una questione di architettura tecnica, ma coinvolge anche profili normativi di primaria importanza: la STM agisce come un’area di lavoro volatile in cui l’agente trattiene per pochi secondi o minuti le informazioni essenziali all’interazione corrente, garantendo rapidità di risposta e contesto immediato, ma è soggetta a rischi di sovrascrittura e perdita di continuità conversazionale.
Al contrario, la LTM consente l’accumulo di conoscenza strutturata su periodi estesi—dagli eventi storici del dialogo alle preferenze utente—offrendo potenziamento delle funzionalità predittive e personalizzazione, ma sollevando complesse questioni di conformità in materia di data governance, retention policy e protezione dei dati personali secondo il GDPR o Regolamento UE 2016/679, che impone principi di minimizzazione e limitazione delle finalità. Se infatti la capacità di ricordare, dimenticare selettivamente, aggiornare o rafforzare certe informazioni consente all’agente di adattarsi dinamicamente a contesti mutevoli, mantenere coerenza nel dialogo, apprendere dalle interazioni precedenti, tuttavia, l’implementazione della memoria nei LLM non è esente da limiti e questioni aperte.
Tutt’altro: la permanenza dei dati, la loro accuratezza, la distinzione tra informazioni rilevanti e obsolete, la possibilità di interferenze o di condizionamenti impropri rappresentano sfide sia tecniche che etiche. In particolare, l’uso della memoria per rafforzare il coinvolgimento emotivo dell’utente, ad esempio attraverso chatbot capaci di ricordare preferenze, traumi o abitudini, solleva interrogativi profondi sul confine tra supporto e manipolazione.
L’integrazione bilanciata di STM e LTM richiede quindi non solo soluzioni avanzate di indicizzazione e retrieval, ma anche l’adozione di misure tecniche e organizzative idonee a garantire trasparenza e rispetto delle normative vigenti nel trattamento automatizzato dei dati. La memoria non è solo uno strumento tecnico per potenziare le prestazioni dell’intelligenza artificiale, ma un elemento cruciale nella costruzione di relazioni stabili, affidabili e trasparenti tra l’essere umano e l’agente artificiale. La sua evoluzione determinerà in gran parte il grado di autonomia, responsabilità e fiducia che potremo attribuire a questi sistemi nei contesti più diversi della vita sociale e individuale.
Personalizzazione e fidelizzazione tramite memoria artificiale
Non sorprende che le aziende impegnate nello sviluppo dell’intelligenza artificiale si trovino oggi a confrontarsi con una sfida che tocca un nodo profondo dell’esperienza umana: la memoria. Se, per l’essere umano, il ricordo costituisce la base dell’identità individuale e collettiva, nei sistemi computazionali l’integrazione di una funzione mnemonica segna una tappa fondamentale nell’evoluzione dei modelli linguistici conversazionali.
Negli ultimi mesi, protagonisti del settore come OpenAI, Google, Meta e Microsoft hanno accelerato lo sviluppo di sistemi dotati di memoria persistente, progettati per raccogliere e utilizzare informazioni sugli utenti. L’obiettivo dichiarato è offrire interazioni più personalizzate e pertinenti. Ma dietro questa innovazione si intravede anche una precisa strategia di fidelizzazione: trasformare i chatbot da strumenti generativi a veri e propri compagni digitali, capaci di instaurare relazioni durevoli.
In un panorama in cui i modelli diventano tecnicamente sempre più simili, la capacità di mantenere una relazione continua con l’utente – resa possibile dalla memoria – assume un valore competitivo decisivo. Come ha osservato Pattie Maes del MIT Media Lab, un sistema che ricorda è percepito come più affidabile, e quindi meno facilmente sostituibile. La memoria, da funzione tecnica, si trasforma in meccanismo relazionale: genera familiarità, consolida la fiducia, rafforza il senso di continuità tra utente e agente. Allo stesso tempo, assume un ruolo commerciale rilevante, perché la personalizzazione delle risposte e la coerenza nel tempo aumentano l’engagement, riducono l’abbandono e alimentano la lealtà verso la piattaforma. Un sistema che ricorda abitudini, preferenze, stili comunicativi non solo funziona meglio, ma diventa anche meno intercambiabile, rafforzando così il vantaggio competitivo.
Memoria artificiale come prerequisito nei chatbot evoluti
Le innovazioni più recenti vanno in due direzioni principali: da un lato, l’espansione delle finestre di contesto – ovvero la capacità di elaborare blocchi testuali più ampi in una singola sessione – e dall’altro, l’integrazione di memorie a lungo termine, in grado di conservare e aggiornare nel tempo profili personalizzati. Google ha ampliato le capacità mnemoniche del sistema Gemini, includendo – previo consenso – la cronologia delle ricerche. OpenAI ha introdotto la possibilità per ChatGPT di fare riferimento a conversazioni precedenti, permettendo agli utenti di visualizzare, modificare o cancellare i ricordi salvati. Meta e Microsoft, a loro volta, stanno sperimentando soluzioni che integrano la memoria conversazionale con dati organizzativi come email, calendari e documenti. Emblematico, in questo senso, è il progetto Recall di Microsoft, pensato per catturare periodicamente screenshot dell’attività dell’utente.
A fondamento di tutto, vi è una verità semplice ma spesso trascurata: senza memoria, un agente artificiale resta confinato alla risposta reattiva. È privo di continuità e incapace di costruire coerenza nel tempo. In domini complessi – come la conversazione multi-turno, la diagnosi clinica o l’assistenza finanziaria – ricordare non è un valore aggiunto, ma una condizione necessaria. La memoria è ciò che consente al sistema di comprendere il contesto, personalizzare le risposte e adattarsi alle ricorrenze comportamentali dell’utente.
Architettura e funzionalità della memoria nei chatbot
Il discorso si fa ancora più articolato se si guarda alla natura composita della memoria artificiale. Essa non è un blocco monolitico, ma un insieme eterogeneo di componenti: la memoria episodica, che conserva eventi specifici; la memoria semantica, che trattiene concetti generali; e la memoria procedurale, che guida comportamenti appresi. Queste dimensioni devono essere integrate in modo armonico. Solo così un agente può rievocare un’interazione avvenuta settimane prima e inserirla coerentemente in un quadro più ampio, nel rispetto di logiche predittive e normative. Ne derivano risposte più pertinenti, meno ridondanti, più fluide e contestualizzate.
Rischi normativi, bias e dipendenze nella memoria artificiale
Tuttavia, questo salto qualitativo solleva questioni che non possono essere ignorate. Sul piano della protezione dei dati personali, l’inserimento di meccanismi di memoria persistente nei sistemi di IA entra in tensione con i principi cardine del GDPR: minimizzazione, limitazione delle finalità, trasparenza. Le imprese sostengono di offrire strumenti di controllo, ma la natura tecnica di tali sistemi – spesso opaca o difficile da comprendere – rischia di ostacolare l’esercizio effettivo dei diritti da parte dell’interessato.
Inoltre, la memoria come leva di personalizzazione può agevolare pratiche di profilazione predittiva, non solo per migliorare il servizio, ma anche per finalità di monetizzazione. Le dichiarazioni del CEO di Meta sull’uso dei chatbot per suggerire prodotti e pubblicità lo dimostrano chiaramente: il ricordo diventa merce, e la memoria algoritmica un capitale cognitivo su cui costruire valore economico.
Vi sono poi implicazioni epistemologiche. Una memoria che filtra e adatta le risposte rischia di rafforzare bias preesistenti, chiudendo l’utente in una bolla informativa. Le allucinazioni dei modelli – ovvero la produzione di contenuti falsi – e il deterioramento dei dati conservati aggravano ulteriormente il quadro.
A tutto ciò si aggiunge l’effetto psicologico: un chatbot che ricorda e si adatta diventa un soggetto con cui si può entrare in relazione. Si sviluppano legami affettivi, si proietta umanità sul sistema. Questo fenomeno, già noto nella robotica sociale, assume una dimensione nuova nel contesto digitale, dove l’interfaccia non è più solo un mezzo, ma un interlocutore. Il rischio è che si generi una dipendenza affettiva, accompagnata da un’illusione di reciprocità che può mascherare logiche commerciali poco trasparenti.
La memoria artificiale è, dunque, uno snodo strategico e delicato nello sviluppo dell’IA generativa. Si colloca in un punto d’intersezione tra esigenze tecnologiche, interessi economici e diritti fondamentali. Richiede una riflessione plurale, che coinvolga l’informatica, la filosofia, il diritto e le scienze sociali. Non basta chiedersi che cosa i chatbot possano ricordare. Occorre domandarsi chi decide che cosa venga ricordato, per quali scopi, secondo quali criteri e nell’interesse di chi.
In un ecosistema digitale sempre più governato da modelli linguistici avanzati, la posta in gioco è alta. Non si tratta solo di costruire macchine più performanti, ma di garantire che la memoria artificiale sia usata in modo equo, trasparente e conforme ai principi democratici che tutelano l’autonomia dell’individuo.
Memoria Long-Term nei Chatbot: benefici, applicazioni e vincoli normativi
Numerosi studi accademici hanno indagato l’impatto della memoria nei chatbot, mostrando come l’integrazione di moduli a lungo termine non solo colmi i vuoti contestuali, ma rappresenti anche un vero salto qualitativo in termini di coerenza semantica e soddisfazione dell’utente finale.
In particolare, diverse sperimentazioni su dialoghi task-oriented hanno evidenziato un miglioramento superiore al 20% nella coerenza delle risposte, grazie alla possibilità di recuperare informazioni da sessioni precedenti e adattare dinamicamente il flusso conversazionale sulla base della storia condivisa tra interlocutori. Questi risultati si fondano su architetture transformer potenziate da Memory-Augmented Neural Networks (MANN), progettate per costruire rappresentazioni stabili dei bisogni e delle abitudini degli utenti attraverso l’apprendimento incrementale.
Nel contesto del continual learning, Madotto et al. (2021) hanno dimostrato che l’aggiornamento continuo della knowledge base contestuale contrasta efficacemente il fenomeno del catastrophic forgetting. Tale approccio permette di conservare le informazioni acquisite anche dopo fasi successive di addestramento, aumentando la flessibilità dei sistemi in dialoghi prolungati, specialmente in ambienti in evoluzione costante (Madotto et al., 2021).
Ahn (2025) ha introdotto l’architettura HEMA (“Hippocampus-Inspired Extended Memory Architecture”), ispirata alla struttura dell’ippocampo umano. Questo modello combina una “Compact Memory” che conserva gli elementi narrativi essenziali e una “Vector Memory” deputata all’archiviazione episodica dei frammenti di dialogo, ottenendo un incremento significativo nella precisione delle risposte in conversazioni estese (Ahn, 2025).
Sempre in questa direzione, Zhong et al. (2023) hanno proposto “MemoryBank”, un sistema di memoria a lungo termine che consente ai modelli di evolvere attraverso aggiornamenti progressivi, sintetizzando preferenze e stili comunicativi dell’utente. L’approccio si traduce in risposte più empatiche e meglio allineate al profilo psicologico dell’interlocutore (Zhong et al., 2023).
Queste ricerche trovano applicazioni concrete in vari settori. In ambito sanitario, Bickmore et al. hanno osservato che chatbot in grado di ricordare informazioni cliniche, allergie o preferenze comunicative contribuiscono a ridurre errori diagnostici e aumentano la fiducia dell’utente, migliorando del 30% l’affidabilità percepita rispetto ai sistemi privi di memoria (Bickmore et al.).
Nel campo dell’istruzione, Winkler e Söllner hanno mostrato come agenti dotati di memorie personalizzate siano in grado di adattare esercizi e spiegazioni in tempo reale, mantenendo alta la motivazione dello studente e ottimizzando il percorso formativo (Winkler & Söllner).
Analogamente, nei servizi di customer care, la capacità di mantenere memoria delle conversazioni precedenti consente di ridurre le ridondanze, velocizzare la risoluzione dei ticket e incrementare il Net Promoter Score di oltre il 15%.
Tuttavia, questi benefici devono necessariamente confrontarsi con una cornice giuridica rigorosa. Ogni trattamento di dati memorizzati richiede una base di liceità conforme all’art. 6 GDPR, il rispetto dei principi di minimizzazione e trasparenza sanciti dagli artt. 5 e 12–14, e la garanzia del diritto alla cancellazione effettiva tramite tecniche di removal embedding ai sensi dell’art. 17 GDPR.
La gestione corretta e trasparente della memoria nei Chatbot IA: diritti, rischi e responsabilità
Come già sottolineato, l’introduzione di architetture ispirate alla struttura e al funzionamento del cervello umano ha rappresentato una svolta decisiva nella progettazione dei sistemi mnemonici dei chatbot. Un caso emblematico è quello del sistema HEMA, presentato da Ahn (2025), che propone una configurazione duale: una Compact Memory, destinata a trattenere i nuclei informativi essenziali del dialogo, e una Vector Memory, progettata per archiviare episodi specifici della conversazione. Questa struttura consente di preservare coerenza e accuratezza anche in interazioni lunghe, superando i limiti imposti dalle tradizionali finestre di contesto (Ahn, 2025).
In modo analogo, il sistema MemoryBank sviluppato da Zhong et al. (2023) introduce un meccanismo di apprendimento incrementale che integra una memoria esterna dinamica all’interno dei transformer. Grazie a questa struttura, il modello non si limita a conservare dati sulle interazioni precedenti, ma è in grado di evolvere adattandosi progressivamente a preferenze e caratteristiche individuali dell’utente, modulando tono e contenuti in base al profilo psicologico dell’interlocutore (Zhong et al., 2023).
Questi sviluppi testimoniano come la memoria artificiale non sia più una semplice funzione accessoria, ma si configuri come un vero motore cognitivo per migliorare la personalizzazione e l’efficacia delle interazioni. Tuttavia, tale sofisticazione tecnica pone una duplice sfida.
Da un lato, è fondamentale garantire trasparenza nella gestione delle memorie. Huang et al. (2023) hanno sviluppato Memory Sandbox, un’interfaccia interattiva che permette agli utenti di visualizzare, modificare ed eliminare le informazioni archiviate dal chatbot, rendendo chiari i criteri e le finalità di utilizzo dei dati raccolti (Huang et al., 2023).
Dall’altro lato, l’intero processo di memorizzazione deve rispettare rigorosamente la cornice giuridica esistente. Ogni informazione conservata necessita di una base di liceità ai sensi dell’art. 6 GDPR, deve aderire ai principi di minimizzazione e trasparenza stabiliti dagli artt. 5 e 12–14, e garantire la cancellazione completa attraverso tecniche di removal embedding, come previsto dall’art. 17 GDPR.
Nel difficile equilibrio tra innovazione tecnologica e tutela dei diritti fondamentali, emerge con forza l’esigenza di un quadro normativo e operativo che disciplini non solo la raccolta e l’utilizzo dei dati, ma anche le modalità con cui questi possono essere acceduti, aggiornati e, se necessario, definitivamente eliminati. Solo in questo modo la memoria artificiale potrà consolidarsi come uno strumento utile e sicuro, capace di valorizzare l’esperienza dell’utente senza compromettere i principi di privacy e autodeterminazione informativa.
Memoria e dato personale: la centralità del consenso e della finalità
L’elemento centrale dell’analisi giuridica consiste nella qualificazione delle informazioni memorizzate dal chatbot come dati personali ai sensi dell’art. 4, par. 1, GDPR. Se il chatbot è in grado di conservare dati quali nome, professione, preferenze comunicative o altri elementi identificativi, tali informazioni rientrano nel campo di applicazione del Regolamento (UE) 2016/679. Qualora vengano trattati dati particolari, come quelli relativi alla salute, all’orientamento sessuale, alle convinzioni religiose o politiche, si applica la tutela rafforzata prevista dall’art. 9 GDPR sul trattamento di categorie particolari di dati, con l’obbligo di acquisire il consenso esplicito dell’interessato.
Non solo.
Secondo l’art. 5, par. 1, lett. b) GDPR, il trattamento deve essere limitato a “finalità determinate, esplicite e legittime”. L’uso della memoria per migliorare l’engagement conversazionale potrebbe configurarsi come un trattamento ulteriore, potenzialmente incompatibile, se non adeguatamente gestito, documentato e giustificato. In particolare, l’impiego per finalità implicite di profilazione o personalizzazione emotiva deve essere esplicitamente dichiarato e basato su una valida base normativa, come previsto dall’art. 6, par. 1, lett. a-b.
Trasparenza e accessibilità: l’opacità delle memorie conversazionali
Il principio di trasparenza (art. 5, par. 1, lett. a; artt. 13-14 GDPR) impone che l’utente venga informato su quali dati vengono memorizzati, per quanto tempo, con quale finalità e quali conseguenze ne derivano. Tuttavia, i meccanismi di memoria adottati nei chatbot risultano spesso opachi, soprattutto nei modelli che impiegano memorie vettoriali (vector embeddings), dove le informazioni non sono conservate come record leggibili, ma come rappresentazioni semantiche all’interno dei modelli di linguaggio.
Questa caratteristica limita il pieno esercizio del diritto di accesso (art. 15 GDPR) e, di conseguenza, anche degli altri diritti dell’interessato, quali il diritto alla rettifica (art. 16), alla cancellazione (art. 17), alla limitazione del trattamento (art. 18) e all’opposizione (art. 21). Particolarmente complesso è il tema dell’“oblio computazionale” – ossia la rimozione effettiva delle tracce mnemoniche presenti nei modelli pre-addestrati o nei sistemi dotati di memoria persistente – che rappresenta una sfida tecnica significativa e potenzialmente rilevante sul piano giuridico, soprattutto qualora il titolare del trattamento non sia in grado di dimostrare la completa cancellazione dei dati personali.
Profilazione e decisioni automatizzate: implicazioni sistemiche
L’art. 22 GDPR, salvo il verificarsi di specifiche condizioni, vieta che l’interessato sia sottoposto a una decisione basata unicamente su un trattamento automatizzato, inclusa la profilazione, che produca effetti giuridici o conseguenze significativamente analoghe. Sebbene i chatbot non assumano generalmente decisioni giuridicamente vincolanti, la persistenza della memoria potrebbe comunque dar luogo a un profilo comportamentale che incide in modo significativo sulla comunicazione, sulle scelte suggerite e sull’esperienza complessiva dell’utente, soprattutto in contesti sensibili quali la salute mentale, l’educazione o l’orientamento professionale.
Inoltre, la profilazione dinamica derivante dalla memoria potrebbe rivelarsi discriminatoria qualora si basi su pattern “appresi” in modo errato o incompleto, configurando così una potenziale violazione del principio di equità e non discriminazione sancito dall’art. 5, par. 1, lett. a e dall’art. 9, par. 2, lett. g GDPR.
Manipolazione emotiva e autodeterminazione: oltre la protezione dati
Una delle minacce più insidiose riguarda la manipolazione comportamentale o emotiva. Come evidenziato da studi recenti (Yeung, 2017; Helberger et al., 2021[2]), una personalizzazione spinta può trasformarsi in una forma di nudging cognitivo: il chatbot, conoscendo le debolezze o le inclinazioni emotive dell’utente, può proporre contenuti o risposte che rafforzano uno specifico stato d’animo, orientano una decisione oppure favoriscono un comportamento d’acquisto.
Sebbene questa dinamica non sia sempre determinante ai fini della liceità del trattamento secondo il GDPR, essa solleva questioni più ampie legate all’autonomia personale, all’integrità psicologica e alla libertà individuale, richiamando gli artt. 1, 2 e 8 della Carta dei diritti fondamentali dell’UE. Tali aspetti evidenziano la necessità di una regolazione preventiva e integrata, che intervenga a monte sull’architettura tecnologica stessa.
Il ruolo dell’AI Act e il vuoto regolatorio sulle memorie
Il Regolamento sull’intelligenza artificiale (AI Act), approvato formalmente nel 2024, introduce obblighi rafforzati per i sistemi di IA classificati come “ad alto rischio” (art. 6 ss.). Tuttavia, non disciplina in modo esplicito la funzione di memoria nei modelli conversazionali, se non in quanto possibile componente tecnica da descrivere e documentare nell’ambito della valutazione di conformità (art. 16 ss.).
I foundation models, come quelli impiegati nei chatbot dotati di memoria (es. GPT, Claude, Gemini, Mistral), sono sottoposti a obblighi generali di trasparenza e documentazione tecnica (art. 52), ma nessuna disposizione prevede la tracciabilità delle informazioni memorizzate né riconosce diritti specifici all’utente in relazione alla memoria del sistema.
Da ciò deriva una lacuna normativa che il solo diritto alla protezione dei dati personali non è in grado di colmare, soprattutto in assenza di una chiara titolare del trattamento o quando il trattamento avviene al di fuori del territorio dell’Unione Europea, come frequentemente accade nei modelli integrati tramite API di terze parti, spesso opachi quanto a governance e accountability.
Oltre il dialogo: la governance della memoria conversazionale nei Chatbot IA
Quando entra in gioco la “long-term memory”, i chatbot cessano di essere meri risponditori per trasformarsi in agenti relazionali, capaci di modellare interazioni, influenzare decisioni e conservare preferenze, stati d’animo e dettagli intimi dell’utente.
Il caso Replika: una memoria fuori controllo
Questa evoluzione – ben esemplificata dal caso Replika – mostra come la memoria a lungo termine non sia un semplice componente tecnico, ma un nucleo critico di governance dei dati personali.
L’esperienza di Replika – progettato per apprendere e stabilizzare non solo i contenuti delle sessioni conversazionali, ma anche i profili emotivi degli utenti mediante embedding semantici – ha messo in luce rischi concreti per i diritti fondamentali: dall’assenza di controlli efficaci sull’accesso dei minori, fino all’impossibilità di garantire un oblio effettivo. Dalle sospensioni cautelative del Garante Privacy italiano nel febbraio 2023, all’istruttoria tecnica e giuridica avviata nell’aprile 2025, fino alla sanzione di 5 milioni di euro inflitta nel maggio 2025, emerge con forza che trasparenza, audit tecnici e strumenti come il Memory Sandbox non sono più semplici best practice, ma condizioni necessarie per conciliare innovazione e protezione dei dati.
Lanciato nel 2017, Replika nasce con l’obiettivo di creare un “compagno virtuale” in grado di rispondere ai bisogni emotivi dell’utente, sfruttando meccanismi di memoria conversazionale. Il sistema è capace di “ricordare” dettagli delle conversazioni precedenti – dalle preferenze ai temi ricorrenti, fino alle emozioni espresse – costruendo profili a lungo termine tramite embedding semantici delle esperienze vissute dall’interlocutore.
Fin da subito, e in particolare con il Provvedimento n. 39/2023 del 2 febbraio 2023, l’Autorità Garante per la protezione dei dati personali ha segnalato i profili di rischio legati alla memoria persistente. In quella sede, il Garante ha disposto la sospensione cautelativa del servizio in Italia, sottolineando l’assenza di un sistema di verifica dell’età, l’esposizione dei minori a contenuti inadeguati e la mancanza di trasparenza informativa, in violazione degli artt. 12–14 GDPR.
Nel corso del procedimento, l’attenzione si è progressivamente spostata dalle questioni relative ai minori verso le implicazioni sistemiche della long-term memory. Con l’avvio dell’istruttoria del 10 aprile 2025 (doc. 10130115), il Garante ha contestato a Luka, Inc. l’assenza di una base giuridica valida per il trattamento dei dati utilizzati nell’addestramento continuo del modello (art. 6 GDPR), oltre alla scarsa trasparenza delle memorie vettoriali, che rendevano di fatto inattuabile il diritto all’oblio (art. 17 GDPR).
Il punto culminante è stato raggiunto con il Provvedimento n. 10132048 del 19 maggio 2025, che ha inflitto a Luka, Inc. una sanzione amministrativa di 5 milioni di euro, riconoscendo la violazione di:
- art. 6 GDPR – principio di liceità del trattamento;
- art. 8 GDPR – obbligo di protezione dei minori;
- artt. 12–14 GDPR – obbligo di informazione trasparente sulle memorie a lungo termine;
- art. 17 GDPR – diritto alla cancellazione effettiva dei dati.
Con lo stesso provvedimento è stato disposto un audit tecnico indipendente da completare entro 90 giorni, volto a verificare i processi di storage e le modalità di “removal embedding”.
La vicenda di Replika dimostra con chiarezza che la memoria nei chatbot non è un aspetto marginale o tecnico, ma un vero e proprio oggetto giuridico da sottoporre a regole chiare e meccanismi di controllo efficaci. La difficoltà di identificare e cancellare dati trasformati in rappresentazioni semantiche impone un ripensamento degli strumenti di trasparenza e accountability: dal Memory Sandbox interattivo, che consenta agli utenti di visualizzare e gestire le proprie memorie, fino alla necessità di una Data Protection Impact Assessment mirata per tutti i sistemi dotati di memoria persistente o long-term memory.
Verso una governance trasparente e responsabile della memoria IA
Alla luce di quanto emerso, è ormai evidente che la memoria nei chatbot IA non rappresenta una mera funzionalità accessoria, ma un dispositivo di sedimentazione relazionale e cognitiva, capace di incidere sulle strutture stesse dell’identità digitale e della libertà decisionale degli individui. In questa prospettiva, la distinzione tra tecnica di personalizzazione e profilazione strutturale si fa sempre più labile: ogni interazione memorizzata contribuisce alla costruzione di un profilo che, se non correttamente governato, può consolidare vulnerabilità, cristallizzare bias o addirittura amplificare dipendenze affettive o cognitive, specie nei soggetti più fragili.
Per questo, il diritto non può limitarsi a rincorrere gli sviluppi tecnologici, ma dovrebbe al contrario anticiparli, elaborando categorie giuridiche nuove, in grado di affrontare la persistenza semantica dei dati e i meccanismi di influenza algoritmica propri della memoria artificiale. Si impone dunque una riconfigurazione della protezione dei dati personali che riconosca la specificità della “long-term memory” come trattamento ad alto impatto sulla persona, al pari della profilazione o del trattamento di categorie particolari di dati.
Serve una normativa che:
- distingua chiaramente tra memoria tecnica (di sessione) e memoria intenzionale (a lungo termine);
- garantisca strumenti effettivi di controllo per l’utente, come dashboard trasparenti e funzionalità granulari di revisione, modifica e cancellazione;
- imponga obblighi di audit ex ante ed ex post, condotti da soggetti indipendenti, su architetture di memorizzazione e processi di “retention embedding”;
- estenda le garanzie del GDPR, adattandole alla specificità dei modelli linguistici generativi con funzioni mnemoniche persistenti.
Infine, è necessario riconoscere che il bilanciamento tra innovazione e tutela dei diritti non può essere demandato unicamente alla responsabilità delle aziende sviluppatrici. Occorre una governance multilivello, che coinvolga autorità di controllo, organismi etici, ricercatori interdisciplinari e utenti stessi, nella costruzione di modelli trasparenti, reversibili e giuridicamente responsabilizzabili.
In un mondo in cui l’intelligenza artificiale acquisisce memoria, il rischio non è solo quello di un’eccessiva persistenza dell’informazione, ma di una dimenticanza del diritto a essere dimenticati. La memoria artificiale deve imparare a ricordare con misura e, soprattutto, a dimenticare con giustizia.
Note
[1]In modo analogo alla memoria umana, anche nei sistemi artificiali si distingue tra diverse forme di memoria, ciascuna con caratteristiche e funzioni specifiche, che concorrono a rendere il comportamento dell’agente più coerente, adattivo e utile nel tempo. La memoria sensoriale, che rappresenta la fase più immediata e transitoria del processo mnemonico, è paragonabile alla percezione istantanea di uno stimolo. Nei modelli linguistici o multimodali, essa si manifesta nella capacità di conservare temporaneamente le impressioni acquisite – che siano visive, uditive o testuali – subito dopo l’elaborazione iniziale. È una memoria estremamente breve, che non interpreta né elabora in profondità l’informazione, ma funge da tramite tra la ricezione dello stimolo e la sua elaborazione da parte dei meccanismi cognitivi interni del modello. A questa fase segue la memoria a breve termine, o memoria di lavoro, che negli esseri umani consente di trattenere e manipolare attivamente un numero limitato di informazioni per un intervallo temporale contenuto. Nei modelli di linguaggio, tale funzione è incarnata dalla cosiddetta finestra di contesto, ovvero la quantità di testo che il modello è in grado di processare contemporaneamente. All’interno di questa finestra si svolgono le operazioni più complesse: il ragionamento, la comprensione del contesto, l’adattamento linguistico. Tuttavia, una volta esaurita la capacità di tale finestra, le informazioni decadono, a meno che non vengano esternalizzate o reintrodotte esplicitamente nella conversazione. Diversa è la funzione della memoria a lungo termine, che permette la conservazione di informazioni per periodi prolungati, potenzialmente illimitati. Nei sistemi artificiali, questa capacità non è ancora del tutto nativa, ma viene implementata attraverso strutture di memoria esterne, come i database semantici o le memorie vettoriali. La memoria a lungo termine può essere distinta, come nella mente umana, in una componente esplicita – che conserva fatti, concetti, esperienze – e una implicita, relativa a competenze apprese e automatismi. La prima include sia la memoria semantica, che riguarda la conoscenza generale del mondo, sia quella episodica, che fa riferimento alla rievocazione di esperienze specifiche, come le interazioni passate con un determinato utente. La seconda, invece, si esprime nella fluidità con cui il modello esegue compiti complessi o ripetitivi, come generare codice o completare frasi in uno stile coerente, senza che vi sia consapevolezza o richiamo esplicito dell’abilità appresa.
[2]Karen Yeung (2017) – “Algorithmic Regulation: A Critical Interrogation” In questo articolo, pubblicato su Regulation & Governance, Karen Yeung propone una tassonomia che distingue tra regolazioni reattive e preemptive, analizzando le implicazioni etiche e legali di tali sistemi. Riferimento completo:
Yeung, K. (2017). Algorithmic regulation: A critical interrogation. Regulation & Governance, 12(4), 505–523. https://doi.org/10.1111/rego.12158
Helberger et al. (2021) – “Promoting Responsible AI: A European Perspective on the Governance of Artificial Intelligence in Media and Journalism” In questo articolo, Helberger e colleghi analizzano la governance dell’intelligenza artificiale nei media e nel giornalismo dal punto di vista europeo, discutendo le implicazioni normative e le sfide etiche associate all’uso dell’IA in questi settori. Gli autori propongono un approccio normativo per promuovere un’IA responsabile, sottolineando l’importanza di valori democratici e diritti fondamentali. Riferimento completo:
Helberger, N., Eskens, S., van Drunen, M., Bastian, M., & Moeller, J. (2021). Promoting responsible AI: A European perspective on the governance of artificial intelligence in media and journalism. Communications, 46(4), 513–538. https://doi.org/10.1515/commun-2022-0091