controllo emotivo

Chatbot che non dimenticano: i lati oscuri della memoria AI



Indirizzo copiato

La memoria artificiale nei chatbot trasforma l’interazione uomo-macchina, offrendo personalizzazione e continuità conversazionale. Solleva però anche questioni critiche su privacy, manipolazione emotiva e conformità alle normative europee sulla protezione dati

Pubblicato il 3 giu 2025

Barbara Calderini

Legal Specialist – Data Protection Officer



Memoria AI

La capacità dei chatbot di “ricordare”[1] non è più solo un’innovazione tecnica, ma una trasformazione radicale del modo in cui uomo e macchina interagiscono: più personalizzata, continua, ma anche più esposta a rischi normativi e cognitivi.

Le memorie computazionali permettono all’agente conversazionale di costruire una relazione più coerente, personalizzata e adattiva con l’utente, riducendo l’effetto di “statelessness” tipico delle prime generazioni di sistemi conversazionali. Tuttavia, ciò solleva anche rilevanti interrogativi in termini di privacy, sorveglianza, manipolazione e responsabilità algoritmica.

HOW TO use ChatGPT's Memory Feature?

Memoria artificiale e continuità nel dialogo umano-macchina

Nei chatbot basati su IA, in modo particolare, la distinzione tra memoria a breve termine (STM) e memoria a lungo termine (LTM) non è soltanto una questione di architettura tecnica, ma coinvolge anche profili normativi di primaria importanza: la STM agisce come un’area di lavoro volatile in cui l’agente trattiene per pochi secondi o minuti le informazioni essenziali all’interazione corrente, garantendo rapidità di risposta e contesto immediato, ma è soggetta a rischi di sovrascrittura e perdita di continuità conversazionale.

Al contrario, la LTM consente l’accumulo di conoscenza strutturata su periodi estesi—dagli eventi storici del dialogo alle preferenze utente—offrendo potenziamento delle funzionalità predittive e personalizzazione, ma sollevando complesse questioni di conformità in materia di data governance, retention policy e protezione dei dati personali secondo il GDPR o Regolamento UE 2016/679, che impone principi di minimizzazione e limitazione delle finalità. Se infatti la capacità di ricordare, dimenticare selettivamente, aggiornare o rafforzare certe informazioni consente all’agente di adattarsi dinamicamente a contesti mutevoli, mantenere coerenza nel dialogo, apprendere dalle interazioni precedenti, tuttavia, l’implementazione della memoria nei LLM non è esente da limiti e questioni aperte.

Tutt’altro: la permanenza dei dati, la loro accuratezza, la distinzione tra informazioni rilevanti e obsolete, la possibilità di interferenze o di condizionamenti impropri rappresentano sfide sia tecniche che etiche. In particolare, l’uso della memoria per rafforzare il coinvolgimento emotivo dell’utente, ad esempio attraverso chatbot capaci di ricordare preferenze, traumi o abitudini, solleva interrogativi profondi sul confine tra supporto e manipolazione.

L’integrazione bilanciata di STM e LTM richiede quindi non solo soluzioni avanzate di indicizzazione e retrieval, ma anche l’adozione di misure tecniche e organizzative idonee a garantire trasparenza e rispetto delle normative vigenti nel trattamento automatizzato dei dati. La memoria non è solo uno strumento tecnico per potenziare le prestazioni dell’intelligenza artificiale, ma un elemento cruciale nella costruzione di relazioni stabili, affidabili e trasparenti tra l’essere umano e l’agente artificiale. La sua evoluzione determinerà in gran parte il grado di autonomia, responsabilità e fiducia che potremo attribuire a questi sistemi nei contesti più diversi della vita sociale e individuale.

Personalizzazione e fidelizzazione tramite memoria artificiale

Non sorprende che le aziende impegnate nello sviluppo dell’intelligenza artificiale si trovino oggi a confrontarsi con una sfida che tocca un nodo profondo dell’esperienza umana: la memoria. Se, per l’essere umano, il ricordo costituisce la base dell’identità individuale e collettiva, nei sistemi computazionali l’integrazione di una funzione mnemonica segna una tappa fondamentale nell’evoluzione dei modelli linguistici conversazionali.

Negli ultimi mesi, protagonisti del settore come OpenAI, Google, Meta e Microsoft hanno accelerato lo sviluppo di sistemi dotati di memoria persistente, progettati per raccogliere e utilizzare informazioni sugli utenti. L’obiettivo dichiarato è offrire interazioni più personalizzate e pertinenti. Ma dietro questa innovazione si intravede anche una precisa strategia di fidelizzazione: trasformare i chatbot da strumenti generativi a veri e propri compagni digitali, capaci di instaurare relazioni durevoli.

In un panorama in cui i modelli diventano tecnicamente sempre più simili, la capacità di mantenere una relazione continua con l’utente – resa possibile dalla memoria – assume un valore competitivo decisivo. Come ha osservato Pattie Maes del MIT Media Lab, un sistema che ricorda è percepito come più affidabile, e quindi meno facilmente sostituibile. La memoria, da funzione tecnica, si trasforma in meccanismo relazionale: genera familiarità, consolida la fiducia, rafforza il senso di continuità tra utente e agente. Allo stesso tempo, assume un ruolo commerciale rilevante, perché la personalizzazione delle risposte e la coerenza nel tempo aumentano l’engagement, riducono l’abbandono e alimentano la lealtà verso la piattaforma. Un sistema che ricorda abitudini, preferenze, stili comunicativi non solo funziona meglio, ma diventa anche meno intercambiabile, rafforzando così il vantaggio competitivo.

Memoria artificiale come prerequisito nei chatbot evoluti

Le innovazioni più recenti vanno in due direzioni principali: da un lato, l’espansione delle finestre di contesto – ovvero la capacità di elaborare blocchi testuali più ampi in una singola sessione – e dall’altro, l’integrazione di memorie a lungo termine, in grado di conservare e aggiornare nel tempo profili personalizzati. Google ha ampliato le capacità mnemoniche del sistema Gemini, includendo – previo consenso – la cronologia delle ricerche. OpenAI ha introdotto la possibilità per ChatGPT di fare riferimento a conversazioni precedenti, permettendo agli utenti di visualizzare, modificare o cancellare i ricordi salvati. Meta e Microsoft, a loro volta, stanno sperimentando soluzioni che integrano la memoria conversazionale con dati organizzativi come email, calendari e documenti. Emblematico, in questo senso, è il progetto Recall di Microsoft, pensato per catturare periodicamente screenshot dell’attività dell’utente.

A fondamento di tutto, vi è una verità semplice ma spesso trascurata: senza memoria, un agente artificiale resta confinato alla risposta reattiva. È privo di continuità e incapace di costruire coerenza nel tempo. In domini complessi – come la conversazione multi-turno, la diagnosi clinica o l’assistenza finanziaria – ricordare non è un valore aggiunto, ma una condizione necessaria. La memoria è ciò che consente al sistema di comprendere il contesto, personalizzare le risposte e adattarsi alle ricorrenze comportamentali dell’utente.

Architettura e funzionalità della memoria nei chatbot

Il discorso si fa ancora più articolato se si guarda alla natura composita della memoria artificiale. Essa non è un blocco monolitico, ma un insieme eterogeneo di componenti: la memoria episodica, che conserva eventi specifici; la memoria semantica, che trattiene concetti generali; e la memoria procedurale, che guida comportamenti appresi. Queste dimensioni devono essere integrate in modo armonico. Solo così un agente può rievocare un’interazione avvenuta settimane prima e inserirla coerentemente in un quadro più ampio, nel rispetto di logiche predittive e normative. Ne derivano risposte più pertinenti, meno ridondanti, più fluide e contestualizzate.

Rischi normativi, bias e dipendenze nella memoria artificiale

Tuttavia, questo salto qualitativo solleva questioni che non possono essere ignorate. Sul piano della protezione dei dati personali, l’inserimento di meccanismi di memoria persistente nei sistemi di IA entra in tensione con i principi cardine del GDPR: minimizzazione, limitazione delle finalità, trasparenza. Le imprese sostengono di offrire strumenti di controllo, ma la natura tecnica di tali sistemi – spesso opaca o difficile da comprendere – rischia di ostacolare l’esercizio effettivo dei diritti da parte dell’interessato.

Inoltre, la memoria come leva di personalizzazione può agevolare pratiche di profilazione predittiva, non solo per migliorare il servizio, ma anche per finalità di monetizzazione. Le dichiarazioni del CEO di Meta sull’uso dei chatbot per suggerire prodotti e pubblicità lo dimostrano chiaramente: il ricordo diventa merce, e la memoria algoritmica un capitale cognitivo su cui costruire valore economico.

Vi sono poi implicazioni epistemologiche. Una memoria che filtra e adatta le risposte rischia di rafforzare bias preesistenti, chiudendo l’utente in una bolla informativa. Le allucinazioni dei modelli – ovvero la produzione di contenuti falsi – e il deterioramento dei dati conservati aggravano ulteriormente il quadro.

A tutto ciò si aggiunge l’effetto psicologico: un chatbot che ricorda e si adatta diventa un soggetto con cui si può entrare in relazione. Si sviluppano legami affettivi, si proietta umanità sul sistema. Questo fenomeno, già noto nella robotica sociale, assume una dimensione nuova nel contesto digitale, dove l’interfaccia non è più solo un mezzo, ma un interlocutore. Il rischio è che si generi una dipendenza affettiva, accompagnata da un’illusione di reciprocità che può mascherare logiche commerciali poco trasparenti.

La memoria artificiale è, dunque, uno snodo strategico e delicato nello sviluppo dell’IA generativa. Si colloca in un punto d’intersezione tra esigenze tecnologiche, interessi economici e diritti fondamentali. Richiede una riflessione plurale, che coinvolga l’informatica, la filosofia, il diritto e le scienze sociali. Non basta chiedersi che cosa i chatbot possano ricordare. Occorre domandarsi chi decide che cosa venga ricordato, per quali scopi, secondo quali criteri e nell’interesse di chi.

In un ecosistema digitale sempre più governato da modelli linguistici avanzati, la posta in gioco è alta. Non si tratta solo di costruire macchine più performanti, ma di garantire che la memoria artificiale sia usata in modo equo, trasparente e conforme ai principi democratici che tutelano l’autonomia dell’individuo.

Memoria Long-Term nei Chatbot: benefici, applicazioni e vincoli normativi

Numerosi studi accademici hanno indagato l’impatto della memoria nei chatbot, mostrando come l’integrazione di moduli a lungo termine non solo colmi i vuoti contestuali, ma rappresenti anche un vero salto qualitativo in termini di coerenza semantica e soddisfazione dell’utente finale.

In particolare, diverse sperimentazioni su dialoghi task-oriented hanno evidenziato un miglioramento superiore al 20% nella coerenza delle risposte, grazie alla possibilità di recuperare informazioni da sessioni precedenti e adattare dinamicamente il flusso conversazionale sulla base della storia condivisa tra interlocutori. Questi risultati si fondano su architetture transformer potenziate da Memory-Augmented Neural Networks (MANN), progettate per costruire rappresentazioni stabili dei bisogni e delle abitudini degli utenti attraverso l’apprendimento incrementale.

Nel contesto del continual learning, Madotto et al. (2021) hanno dimostrato che l’aggiornamento continuo della knowledge base contestuale contrasta efficacemente il fenomeno del catastrophic forgetting. Tale approccio permette di conservare le informazioni acquisite anche dopo fasi successive di addestramento, aumentando la flessibilità dei sistemi in dialoghi prolungati, specialmente in ambienti in evoluzione costante (Madotto et al., 2021).

Ahn (2025) ha introdotto l’architettura HEMA (“Hippocampus-Inspired Extended Memory Architecture”), ispirata alla struttura dell’ippocampo umano. Questo modello combina una “Compact Memory” che conserva gli elementi narrativi essenziali e una “Vector Memory” deputata all’archiviazione episodica dei frammenti di dialogo, ottenendo un incremento significativo nella precisione delle risposte in conversazioni estese (Ahn, 2025).

Sempre in questa direzione, Zhong et al. (2023) hanno proposto “MemoryBank”, un sistema di memoria a lungo termine che consente ai modelli di evolvere attraverso aggiornamenti progressivi, sintetizzando preferenze e stili comunicativi dell’utente. L’approccio si traduce in risposte più empatiche e meglio allineate al profilo psicologico dell’interlocutore (Zhong et al., 2023).

Queste ricerche trovano applicazioni concrete in vari settori. In ambito sanitario, Bickmore et al. hanno osservato che chatbot in grado di ricordare informazioni cliniche, allergie o preferenze comunicative contribuiscono a ridurre errori diagnostici e aumentano la fiducia dell’utente, migliorando del 30% l’affidabilità percepita rispetto ai sistemi privi di memoria (Bickmore et al.).

Nel campo dell’istruzione, Winkler e Söllner hanno mostrato come agenti dotati di memorie personalizzate siano in grado di adattare esercizi e spiegazioni in tempo reale, mantenendo alta la motivazione dello studente e ottimizzando il percorso formativo (Winkler & Söllner).

Analogamente, nei servizi di customer care, la capacità di mantenere memoria delle conversazioni precedenti consente di ridurre le ridondanze, velocizzare la risoluzione dei ticket e incrementare il Net Promoter Score di oltre il 15%.

Tuttavia, questi benefici devono necessariamente confrontarsi con una cornice giuridica rigorosa. Ogni trattamento di dati memorizzati richiede una base di liceità conforme all’art. 6 GDPR, il rispetto dei principi di minimizzazione e trasparenza sanciti dagli artt. 5 e 12–14, e la garanzia del diritto alla cancellazione effettiva tramite tecniche di removal embedding ai sensi dell’art. 17 GDPR.

La gestione corretta e trasparente della memoria nei Chatbot IA: diritti, rischi e responsabilità

Come già sottolineato, l’introduzione di architetture ispirate alla struttura e al funzionamento del cervello umano ha rappresentato una svolta decisiva nella progettazione dei sistemi mnemonici dei chatbot. Un caso emblematico è quello del sistema HEMA, presentato da Ahn (2025), che propone una configurazione duale: una Compact Memory, destinata a trattenere i nuclei informativi essenziali del dialogo, e una Vector Memory, progettata per archiviare episodi specifici della conversazione. Questa struttura consente di preservare coerenza e accuratezza anche in interazioni lunghe, superando i limiti imposti dalle tradizionali finestre di contesto (Ahn, 2025).

In modo analogo, il sistema MemoryBank sviluppato da Zhong et al. (2023) introduce un meccanismo di apprendimento incrementale che integra una memoria esterna dinamica all’interno dei transformer. Grazie a questa struttura, il modello non si limita a conservare dati sulle interazioni precedenti, ma è in grado di evolvere adattandosi progressivamente a preferenze e caratteristiche individuali dell’utente, modulando tono e contenuti in base al profilo psicologico dell’interlocutore (Zhong et al., 2023).

Questi sviluppi testimoniano come la memoria artificiale non sia più una semplice funzione accessoria, ma si configuri come un vero motore cognitivo per migliorare la personalizzazione e l’efficacia delle interazioni. Tuttavia, tale sofisticazione tecnica pone una duplice sfida.

Da un lato, è fondamentale garantire trasparenza nella gestione delle memorie. Huang et al. (2023) hanno sviluppato Memory Sandbox, un’interfaccia interattiva che permette agli utenti di visualizzare, modificare ed eliminare le informazioni archiviate dal chatbot, rendendo chiari i criteri e le finalità di utilizzo dei dati raccolti (Huang et al., 2023).

Dall’altro lato, l’intero processo di memorizzazione deve rispettare rigorosamente la cornice giuridica esistente. Ogni informazione conservata necessita di una base di liceità ai sensi dell’art. 6 GDPR, deve aderire ai principi di minimizzazione e trasparenza stabiliti dagli artt. 5 e 12–14, e garantire la cancellazione completa attraverso tecniche di removal embedding, come previsto dall’art. 17 GDPR.

Nel difficile equilibrio tra innovazione tecnologica e tutela dei diritti fondamentali, emerge con forza l’esigenza di un quadro normativo e operativo che disciplini non solo la raccolta e l’utilizzo dei dati, ma anche le modalità con cui questi possono essere acceduti, aggiornati e, se necessario, definitivamente eliminati. Solo in questo modo la memoria artificiale potrà consolidarsi come uno strumento utile e sicuro, capace di valorizzare l’esperienza dell’utente senza compromettere i principi di privacy e autodeterminazione informativa.

Memoria e dato personale: la centralità del consenso e della finalità

L’elemento centrale dell’analisi giuridica consiste nella qualificazione delle informazioni memorizzate dal chatbot come dati personali ai sensi dell’art. 4, par. 1, GDPR. Se il chatbot è in grado di conservare dati quali nome, professione, preferenze comunicative o altri elementi identificativi, tali informazioni rientrano nel campo di applicazione del Regolamento (UE) 2016/679. Qualora vengano trattati dati particolari, come quelli relativi alla salute, all’orientamento sessuale, alle convinzioni religiose o politiche, si applica la tutela rafforzata prevista dall’art. 9 GDPR sul trattamento di categorie particolari di dati, con l’obbligo di acquisire il consenso esplicito dell’interessato.

Non solo.

Secondo l’art. 5, par. 1, lett. b) GDPR, il trattamento deve essere limitato a “finalità determinate, esplicite e legittime”. L’uso della memoria per migliorare l’engagement conversazionale potrebbe configurarsi come un trattamento ulteriore, potenzialmente incompatibile, se non adeguatamente gestito, documentato e giustificato. In particolare, l’impiego per finalità implicite di profilazione o personalizzazione emotiva deve essere esplicitamente dichiarato e basato su una valida base normativa, come previsto dall’art. 6, par. 1, lett. a-b.

Trasparenza e accessibilità: l’opacità delle memorie conversazionali

Il principio di trasparenza (art. 5, par. 1, lett. a; artt. 13-14 GDPR) impone che l’utente venga informato su quali dati vengono memorizzati, per quanto tempo, con quale finalità e quali conseguenze ne derivano. Tuttavia, i meccanismi di memoria adottati nei chatbot risultano spesso opachi, soprattutto nei modelli che impiegano memorie vettoriali (vector embeddings), dove le informazioni non sono conservate come record leggibili, ma come rappresentazioni semantiche all’interno dei modelli di linguaggio.

Questa caratteristica limita il pieno esercizio del diritto di accesso (art. 15 GDPR) e, di conseguenza, anche degli altri diritti dell’interessato, quali il diritto alla rettifica (art. 16), alla cancellazione (art. 17), alla limitazione del trattamento (art. 18) e all’opposizione (art. 21). Particolarmente complesso è il tema dell’“oblio computazionale” – ossia la rimozione effettiva delle tracce mnemoniche presenti nei modelli pre-addestrati o nei sistemi dotati di memoria persistente – che rappresenta una sfida tecnica significativa e potenzialmente rilevante sul piano giuridico, soprattutto qualora il titolare del trattamento non sia in grado di dimostrare la completa cancellazione dei dati personali.

Profilazione e decisioni automatizzate: implicazioni sistemiche

L’art. 22 GDPR, salvo il verificarsi di specifiche condizioni, vieta che l’interessato sia sottoposto a una decisione basata unicamente su un trattamento automatizzato, inclusa la profilazione, che produca effetti giuridici o conseguenze significativamente analoghe. Sebbene i chatbot non assumano generalmente decisioni giuridicamente vincolanti, la persistenza della memoria potrebbe comunque dar luogo a un profilo comportamentale che incide in modo significativo sulla comunicazione, sulle scelte suggerite e sull’esperienza complessiva dell’utente, soprattutto in contesti sensibili quali la salute mentale, l’educazione o l’orientamento professionale.

Inoltre, la profilazione dinamica derivante dalla memoria potrebbe rivelarsi discriminatoria qualora si basi su pattern “appresi” in modo errato o incompleto, configurando così una potenziale violazione del principio di equità e non discriminazione sancito dall’art. 5, par. 1, lett. a e dall’art. 9, par. 2, lett. g GDPR.

Manipolazione emotiva e autodeterminazione: oltre la protezione dati

Una delle minacce più insidiose riguarda la manipolazione comportamentale o emotiva. Come evidenziato da studi recenti (Yeung, 2017; Helberger et al., 2021[2]), una personalizzazione spinta può trasformarsi in una forma di nudging cognitivo: il chatbot, conoscendo le debolezze o le inclinazioni emotive dell’utente, può proporre contenuti o risposte che rafforzano uno specifico stato d’animo, orientano una decisione oppure favoriscono un comportamento d’acquisto.

Sebbene questa dinamica non sia sempre determinante ai fini della liceità del trattamento secondo il GDPR, essa solleva questioni più ampie legate all’autonomia personale, all’integrità psicologica e alla libertà individuale, richiamando gli artt. 1, 2 e 8 della Carta dei diritti fondamentali dell’UE. Tali aspetti evidenziano la necessità di una regolazione preventiva e integrata, che intervenga a monte sull’architettura tecnologica stessa.

Il ruolo dell’AI Act e il vuoto regolatorio sulle memorie

Il Regolamento sull’intelligenza artificiale (AI Act), approvato formalmente nel 2024, introduce obblighi rafforzati per i sistemi di IA classificati come “ad alto rischio” (art. 6 ss.). Tuttavia, non disciplina in modo esplicito la funzione di memoria nei modelli conversazionali, se non in quanto possibile componente tecnica da descrivere e documentare nell’ambito della valutazione di conformità (art. 16 ss.).

I foundation models, come quelli impiegati nei chatbot dotati di memoria (es. GPT, Claude, Gemini, Mistral), sono sottoposti a obblighi generali di trasparenza e documentazione tecnica (art. 52), ma nessuna disposizione prevede la tracciabilità delle informazioni memorizzate né riconosce diritti specifici all’utente in relazione alla memoria del sistema.

Da ciò deriva una lacuna normativa che il solo diritto alla protezione dei dati personali non è in grado di colmare, soprattutto in assenza di una chiara titolare del trattamento o quando il trattamento avviene al di fuori del territorio dell’Unione Europea, come frequentemente accade nei modelli integrati tramite API di terze parti, spesso opachi quanto a governance e accountability.

Oltre il dialogo: la governance della memoria conversazionale nei Chatbot IA

Quando entra in gioco la “long-term memory”, i chatbot cessano di essere meri risponditori per trasformarsi in agenti relazionali, capaci di modellare interazioni, influenzare decisioni e conservare preferenze, stati d’animo e dettagli intimi dell’utente.

Il caso Replika: una memoria fuori controllo

Questa evoluzione – ben esemplificata dal caso Replika – mostra come la memoria a lungo termine non sia un semplice componente tecnico, ma un nucleo critico di governance dei dati personali.

L’esperienza di Replika – progettato per apprendere e stabilizzare non solo i contenuti delle sessioni conversazionali, ma anche i profili emotivi degli utenti mediante embedding semantici – ha messo in luce rischi concreti per i diritti fondamentali: dall’assenza di controlli efficaci sull’accesso dei minori, fino all’impossibilità di garantire un oblio effettivo. Dalle sospensioni cautelative del Garante Privacy italiano nel febbraio 2023, all’istruttoria tecnica e giuridica avviata nell’aprile 2025, fino alla sanzione di 5 milioni di euro inflitta nel maggio 2025, emerge con forza che trasparenza, audit tecnici e strumenti come il Memory Sandbox non sono più semplici best practice, ma condizioni necessarie per conciliare innovazione e protezione dei dati.

Lanciato nel 2017, Replika nasce con l’obiettivo di creare un compagno virtuale in grado di rispondere ai bisogni emotivi dell’utente, sfruttando meccanismi di memoria conversazionale. Il sistema è capace di “ricordare” dettagli delle conversazioni precedenti – dalle preferenze ai temi ricorrenti, fino alle emozioni espresse – costruendo profili a lungo termine tramite embedding semantici delle esperienze vissute dall’interlocutore.

Fin da subito, e in particolare con il Provvedimento n. 39/2023 del 2 febbraio 2023, l’Autorità Garante per la protezione dei dati personali ha segnalato i profili di rischio legati alla memoria persistente. In quella sede, il Garante ha disposto la sospensione cautelativa del servizio in Italia, sottolineando l’assenza di un sistema di verifica dell’età, l’esposizione dei minori a contenuti inadeguati e la mancanza di trasparenza informativa, in violazione degli artt. 12–14 GDPR.

Nel corso del procedimento, l’attenzione si è progressivamente spostata dalle questioni relative ai minori verso le implicazioni sistemiche della long-term memory. Con l’avvio dell’istruttoria del 10 aprile 2025 (doc. 10130115), il Garante ha contestato a Luka, Inc. l’assenza di una base giuridica valida per il trattamento dei dati utilizzati nell’addestramento continuo del modello (art. 6 GDPR), oltre alla scarsa trasparenza delle memorie vettoriali, che rendevano di fatto inattuabile il diritto all’oblio (art. 17 GDPR).

Il punto culminante è stato raggiunto con il Provvedimento n. 10132048 del 19 maggio 2025, che ha inflitto a Luka, Inc. una sanzione amministrativa di 5 milioni di euro, riconoscendo la violazione di:

  • art. 6 GDPR – principio di liceità del trattamento;
  • art. 8 GDPR – obbligo di protezione dei minori;
  • artt. 12–14 GDPR – obbligo di informazione trasparente sulle memorie a lungo termine;
  • art. 17 GDPR – diritto alla cancellazione effettiva dei dati.

Con lo stesso provvedimento è stato disposto un audit tecnico indipendente da completare entro 90 giorni, volto a verificare i processi di storage e le modalità di “removal embedding”.

La vicenda di Replika dimostra con chiarezza che la memoria nei chatbot non è un aspetto marginale o tecnico, ma un vero e proprio oggetto giuridico da sottoporre a regole chiare e meccanismi di controllo efficaci. La difficoltà di identificare e cancellare dati trasformati in rappresentazioni semantiche impone un ripensamento degli strumenti di trasparenza e accountability: dal Memory Sandbox interattivo, che consenta agli utenti di visualizzare e gestire le proprie memorie, fino alla necessità di una Data Protection Impact Assessment mirata per tutti i sistemi dotati di memoria persistente o long-term memory.

Verso una governance trasparente e responsabile della memoria IA

Alla luce di quanto emerso, è ormai evidente che la memoria nei chatbot IA non rappresenta una mera funzionalità accessoria, ma un dispositivo di sedimentazione relazionale e cognitiva, capace di incidere sulle strutture stesse dell’identità digitale e della libertà decisionale degli individui. In questa prospettiva, la distinzione tra tecnica di personalizzazione e profilazione strutturale si fa sempre più labile: ogni interazione memorizzata contribuisce alla costruzione di un profilo che, se non correttamente governato, può consolidare vulnerabilità, cristallizzare bias o addirittura amplificare dipendenze affettive o cognitive, specie nei soggetti più fragili.

Per questo, il diritto non può limitarsi a rincorrere gli sviluppi tecnologici, ma dovrebbe al contrario anticiparli, elaborando categorie giuridiche nuove, in grado di affrontare la persistenza semantica dei dati e i meccanismi di influenza algoritmica propri della memoria artificiale. Si impone dunque una riconfigurazione della protezione dei dati personali che riconosca la specificità della “long-term memory” come trattamento ad alto impatto sulla persona, al pari della profilazione o del trattamento di categorie particolari di dati.

Serve una normativa che:

  • distingua chiaramente tra memoria tecnica (di sessione) e memoria intenzionale (a lungo termine);
  • garantisca strumenti effettivi di controllo per l’utente, come dashboard trasparenti e funzionalità granulari di revisione, modifica e cancellazione;
  • imponga obblighi di audit ex ante ed ex post, condotti da soggetti indipendenti, su architetture di memorizzazione e processi di “retention embedding”;
  • estenda le garanzie del GDPR, adattandole alla specificità dei modelli linguistici generativi con funzioni mnemoniche persistenti.

Infine, è necessario riconoscere che il bilanciamento tra innovazione e tutela dei diritti non può essere demandato unicamente alla responsabilità delle aziende sviluppatrici. Occorre una governance multilivello, che coinvolga autorità di controllo, organismi etici, ricercatori interdisciplinari e utenti stessi, nella costruzione di modelli trasparenti, reversibili e giuridicamente responsabilizzabili.

In un mondo in cui l’intelligenza artificiale acquisisce memoria, il rischio non è solo quello di un’eccessiva persistenza dell’informazione, ma di una dimenticanza del diritto a essere dimenticati. La memoria artificiale deve imparare a ricordare con misura e, soprattutto, a dimenticare con giustizia.

Note


[1]In modo analogo alla memoria umana, anche nei sistemi artificiali si distingue tra diverse forme di memoria, ciascuna con caratteristiche e funzioni specifiche, che concorrono a rendere il comportamento dell’agente più coerente, adattivo e utile nel tempo. La memoria sensoriale, che rappresenta la fase più immediata e transitoria del processo mnemonico, è paragonabile alla percezione istantanea di uno stimolo. Nei modelli linguistici o multimodali, essa si manifesta nella capacità di conservare temporaneamente le impressioni acquisite – che siano visive, uditive o testuali – subito dopo l’elaborazione iniziale. È una memoria estremamente breve, che non interpreta né elabora in profondità l’informazione, ma funge da tramite tra la ricezione dello stimolo e la sua elaborazione da parte dei meccanismi cognitivi interni del modello. A questa fase segue la memoria a breve termine, o memoria di lavoro, che negli esseri umani consente di trattenere e manipolare attivamente un numero limitato di informazioni per un intervallo temporale contenuto. Nei modelli di linguaggio, tale funzione è incarnata dalla cosiddetta finestra di contesto, ovvero la quantità di testo che il modello è in grado di processare contemporaneamente. All’interno di questa finestra si svolgono le operazioni più complesse: il ragionamento, la comprensione del contesto, l’adattamento linguistico. Tuttavia, una volta esaurita la capacità di tale finestra, le informazioni decadono, a meno che non vengano esternalizzate o reintrodotte esplicitamente nella conversazione. Diversa è la funzione della memoria a lungo termine, che permette la conservazione di informazioni per periodi prolungati, potenzialmente illimitati. Nei sistemi artificiali, questa capacità non è ancora del tutto nativa, ma viene implementata attraverso strutture di memoria esterne, come i database semantici o le memorie vettoriali. La memoria a lungo termine può essere distinta, come nella mente umana, in una componente esplicita – che conserva fatti, concetti, esperienze – e una implicita, relativa a competenze apprese e automatismi. La prima include sia la memoria semantica, che riguarda la conoscenza generale del mondo, sia quella episodica, che fa riferimento alla rievocazione di esperienze specifiche, come le interazioni passate con un determinato utente. La seconda, invece, si esprime nella fluidità con cui il modello esegue compiti complessi o ripetitivi, come generare codice o completare frasi in uno stile coerente, senza che vi sia consapevolezza o richiamo esplicito dell’abilità appresa.

[2]Karen Yeung (2017) – “Algorithmic Regulation: A Critical Interrogation” In questo articolo, pubblicato su Regulation & Governance, Karen Yeung propone una tassonomia che distingue tra regolazioni reattive e preemptive, analizzando le implicazioni etiche e legali di tali sistemi. Riferimento completo:
Yeung, K. (2017). Algorithmic regulation: A critical interrogation. Regulation & Governance, 12(4), 505–523. https://doi.org/10.1111/rego.12158

Helberger et al. (2021) – “Promoting Responsible AI: A European Perspective on the Governance of Artificial Intelligence in Media and Journalism” In questo articolo, Helberger e colleghi analizzano la governance dell’intelligenza artificiale nei media e nel giornalismo dal punto di vista europeo, discutendo le implicazioni normative e le sfide etiche associate all’uso dell’IA in questi settori. Gli autori propongono un approccio normativo per promuovere un’IA responsabile, sottolineando l’importanza di valori democratici e diritti fondamentali. Riferimento completo:
Helberger, N., Eskens, S., van Drunen, M., Bastian, M., & Moeller, J. (2021). Promoting responsible AI: A European perspective on the governance of artificial intelligence in media and journalism. Communications, 46(4), 513–538. https://doi.org/10.1515/commun-2022-0091

EU Stories - La coesione innova l'Italia

Tutti
L'ANALISI
INIZIATIVE
ANALISI
PODCAST
Video&podcast
Analisi
VIDEO&PODCAST
Video & Podcast
Social
Iniziative
INNOVAZIONE
Fondi Ue, motore della digitalizzazione delle imprese italiane
COMPETENZE
Software developer, il caso Apple Academy tra innovazione e rigenerazione urbana
I PROGETTI
Laboratori ad alta tecnologia, l’Emilia-Romagna spinge l’innovazione delle imprese
INNOVAZIONE
Smart Cities, digitalizzazione e sostenibilità urbana con i fondi Ue
L'APPROFONDIMENTO
Open Data, più trasparenza e innovazione con i fondi Ue
IL WHITE PAPER
Verso una Sicilia sostenibile: innovazione e rigenerazione urbana
Le proposte
Riforma della politica di coesione Ue: nuove priorità per sfide globali
IL WHITE PAPER
AMBIENTE: i progetti finanziati dalla politica di coesione
INNOVAZIONE
Agricoltura e rinnovabili: agrivoltaico come simbiosi tra energia e food
SCENARI
Sviluppo delle Comunità energetiche rinnovabili: Sicilia capofila
IL PROGETTO
Economia blu sostenibile: BYTHOS trasforma gli scarti di pesce per la salute umana
IL WHITE PAPER
Innovazione e coesione: la trasformazione digitale della Campania con il PO FESR
BANDA ULTRALARGA
Piano Italia 5G, i fondi coesione driver di innovazione
IL PROGETTO
5GMed, ecco i quattro casi d’uso per la mobilità europea
L'APPELLO
Banda 6GHz chiave di volta del 6G: le telco europee in pressing su Bruxelles
EU COMPASS
Tlc, l’Europa adotta la linea Draghi: ecco la “bussola” della nuova competitività
ECONOMIE
EU Stories, il podcast | Politica industriale in Puglia: attrazione di talenti creativi e investimenti esteri grazie ai fondi di coesione
L'APPROFONDIMENTO
La coesione è ricerca e innovazione. Long form sugli impatti del FESR 2014-2020 nel quadro della Strategia di Specializzazione Intelligente a favore della ricerca e dell’innovazione
L'APPROFONDIMENTO
Pnrr e banda ultralarga: ecco tutti i fondi allocati e i target
L'ANNUARIO
Coesione e capacità dei territori
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
INNOVAZIONE
Fondi Ue, motore della digitalizzazione delle imprese italiane
COMPETENZE
Software developer, il caso Apple Academy tra innovazione e rigenerazione urbana
I PROGETTI
Laboratori ad alta tecnologia, l’Emilia-Romagna spinge l’innovazione delle imprese
INNOVAZIONE
Smart Cities, digitalizzazione e sostenibilità urbana con i fondi Ue
L'APPROFONDIMENTO
Open Data, più trasparenza e innovazione con i fondi Ue
IL WHITE PAPER
Verso una Sicilia sostenibile: innovazione e rigenerazione urbana
Le proposte
Riforma della politica di coesione Ue: nuove priorità per sfide globali
IL WHITE PAPER
AMBIENTE: i progetti finanziati dalla politica di coesione
INNOVAZIONE
Agricoltura e rinnovabili: agrivoltaico come simbiosi tra energia e food
SCENARI
Sviluppo delle Comunità energetiche rinnovabili: Sicilia capofila
IL PROGETTO
Economia blu sostenibile: BYTHOS trasforma gli scarti di pesce per la salute umana
IL WHITE PAPER
Innovazione e coesione: la trasformazione digitale della Campania con il PO FESR
BANDA ULTRALARGA
Piano Italia 5G, i fondi coesione driver di innovazione
IL PROGETTO
5GMed, ecco i quattro casi d’uso per la mobilità europea
L'APPELLO
Banda 6GHz chiave di volta del 6G: le telco europee in pressing su Bruxelles
EU COMPASS
Tlc, l’Europa adotta la linea Draghi: ecco la “bussola” della nuova competitività
ECONOMIE
EU Stories, il podcast | Politica industriale in Puglia: attrazione di talenti creativi e investimenti esteri grazie ai fondi di coesione
L'APPROFONDIMENTO
La coesione è ricerca e innovazione. Long form sugli impatti del FESR 2014-2020 nel quadro della Strategia di Specializzazione Intelligente a favore della ricerca e dell’innovazione
L'APPROFONDIMENTO
Pnrr e banda ultralarga: ecco tutti i fondi allocati e i target
L'ANNUARIO
Coesione e capacità dei territori
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4