Il 28 ottobre 2025 il Garante europeo della protezione dei dati (EDPS) ha diffuso la seconda versione delle “Orientations for ensuring data protection compliance when using Generative AI systems”. Una guida operativa che mira a tradurre in indicazioni concrete le regole europee sulla protezione dei dati personali nel caso di utilizzo di AI generativa.
Sebbene formalmente indirizzato alle istituzioni e agli organismi dell’Unione che applicano il Regolamento (UE) 2018/1725 (del tutto analogo al GDPR), questo documento contiene indicazioni di natura generale che possono essere applicati anche alle pubbliche amministrazioni nazionali ed altresì ai soggetti privati chiamati a rispettare il GDPR.
La guida si articola in domande, risposte pratiche e casi d’uso. Per non snaturarne l’approccio, anche questo articolo si adotterà la medesima struttura, sintetizzando i temi trattati e pensandone l’applicazione ex GDPR.
Indice degli argomenti
Principi generali per l’uso conforme dell’AI generativa
Partendo dal presupposto della piena liceità dell’utilizzo della AI generativa anche nei contesti della pubblica amministrazione, il documento indica con precisione i profili da rispettare: definire scopo e base giuridica del trattamento (artt. 5 e 6 GDPR); determinare e documentare ruoli e responsabilità; aggiornare il registro delle attività di trattamento (art. 30 GDPR); condurre una valutazione dei rischi AI, effettuare una DPIA se necessario (art. 35 GDPR); implementare i principi chiave, quali trasparenza, minimizzazione, conservazione limitata, sicurezza; garantire l’esercizio dei diritti degli interessati (Capo III GDPR); assicurare l’accountability (art. 5(2) GDPR).
Partendo da questi punti, il documento risponde alle seguenti domande.
Come determinare ruoli e responsabilità ex Gdpr
Tra le prime difficoltà si colloca l’individuazione dei ruoli.
L’AI Act parla di provider, developer, deployer, ma queste definizioni non corrispondono ai concetti di titolare, responsabile o contitolare del GDPR.
Quindi partendo dal criterio base che “è titolare chi decide perché e come vengono trattati i dati personali”, occorre stabilire i ruoli privacy indipendentemente dai ruoli AI ACT ed altrseì tenere conto che tali ruoli possono mutare durante il ciclo di vita del sistema.
L’esempio proposto nel documento è chiaro e utile per orientarsi.
Immaginiamo che l’Istituzione A sviluppi un tool HR basato su AI generativa, integrando un LLM di terze parti. Durante lo sviluppo, l’Istituzione A decide finalità e mezzi del trattamento e quindi è titolare. Quando l’Istituzione B acquista e implementa lo strumento usando i propri dati HR, diventa titolare di un distinto trattamento. Se invece A e B avessero progettato insieme il sistema per migliorare entrambi i processi HR, si configurerebbe una contitolarità che richiederebbe accordi formali e responsabilità condivise.
Come sapere se l’uso dell’AI Generativa comporta trattamento di dati personali
Un altro profilo che ancora crea incertezza riguarda la presenza o meno di dati personali all’interno di un sistema di AI generativa.
Il documento dichiara che non si può affermare, aprioristicamente, che non vi sono mai dati personali, ma al contrario tale verifica va fatta in concreto, tenendo conto anche delle diverse fasi dall’addestramento alla generazione degli output. Peraltro, anche quando si riscontra un trattamento e può sembrare che i dati non siano riconducibili a individui identificati, il modello potrebbe invece conservare tracce tali da permettere una reidentificazione, diretta o probabilistica.
Occorre quindi una analisi concreta e approfondita.
Sotto questo profilo l’EDPS evidenzia che vi possono essere situazioni in cui l’anonimizzazione dei dati è molto complessa da accertare, soprattutto quando i dataset di training sono ottenuti tramite web scraping.
Qual è il ruolo del DPO nell’implementazione dell’AI
Il Data Protection Officer (artt. 37-39 GDPR) deve essere coinvolto sin dalle fasi iniziali di sviluppo/deployment dell’AI generativa, fornendo consulenza indipendente e assistenza per:
- Comprendere il ciclo di vita del sistema e le modalità di trattamento dati
- Condurre la DPIA (art. 39(2) Regolamento UE 2018/1725; art. 35(2) GDPR)
- Verificare accordi di data sharing con fornitori di modelli
Altresì fondamentale il dialogo tra tutte le funzioni aziendali: DPO, Servizio Legale, IT, CISO.
Si suggerisce anzi di costituire una task force AI che includa il DPO, preparare piani d’azione, condurre attività di formazione a tutti i livelli organizzativi, predisporre guidance interne.
Quando effettuare la valutazione d’impatto (DPIA)
Per l’EDPS, l’uso di una tecnologia nuova come l’AI generativa rappresenta già, di per sé, un fattore che porta un elevato rischio per i diritti e le libertà degli individui. Inoltre, se il sistema adottato è classificato come AI ad Alto Rischio, questa qualificazione giuridica si riflette sulla necessità della DPIA.
Quindi possiamo dire che la DPIA è sempre necessaria.
Base giuridica del trattamento per lo sviluppo dell’AI
Un tema delicato resta quello della base giuridica.
Per gli enti pubblici, il legittimo interesse utilizzabile dal privato, non è generalmente applicabile al pubblico che può trovare la sua base giuridica nell’interesse pubblico (art. 6 lett. e) o nell’obbligo legale (art. 6 lett. c). Per quanto attiene al consenso, l’EDPS non lo esclude, ma ne evidenzia tutta la fragilità nell’AI generativa: raccoglierlo a larga scala con i requisiti di libertà, specificità e revocabilità è nella pratica estremamente complesso. Inoltre la revoca può travolgere la conservazione o il riuso dei dati nei modelli, generando difficoltà tecniche non banali.
L’esempio contenuto nel documento aiuta a comprendere la logica: un’istituzione utilizza un sistema di analytics HR per identificare pattern di reclutamento. La base giuridica individuata è l’interesse pubblico nel garantire procedure eque ed efficienti, fondato sullo Statuto del personale dell’Unione europea. La base giuridica è l’obbligo di legge in quanto il trattamento non è opzionale, né rimesso a una scelta unilaterale dell’interessato, ma funzionale a un dovere dell’amministrazione.
Limitazione delle finalità nel ciclo di vita dell’AI
Anche il tema della finalità richiede una riflessione.
Ogni fase del ciclo di vita dell’AI generativa (training, fine-tuning, deployment) può comportare finalità distinte e quindi richiede una valutazione separata. Ad esempio:
- Finalità fase di sviluppo: “Creare un modello capace di comprendere e generare testo simile a quello umano”
- Finalità fase di fine-tuning: “Adattare il modello per screening CV e generazione domande colloquio su job description”
- Finalità fase di deployment: “Assistere lo staff HR nella conduzione di screening e interviste”
Occorre quindi definire le diverse finalità in modo sufficientemente specifico, utilizzando ove necessario l’istituto del riutilizzo dei dati, previa valutazione di compatibilità ai sensi dell’art. 6 par. 4 GDPR.
Minimizzazione dei dati e uso di dati sintetici
Qui c’è una grande apertura (che abbiamo già trovato nella nostra legge 132/2025) nei confronti dei dati sintetici ed dati anonimi: ai evidenzia infatti che occorre verificare se la finalità stabilita può essere raggiunta con dati sintetici o anonimi piuttosto che trattare dati personali.
Chiarito questo nuovo aspetto si suggerisce di implementare procedure di data governance con revisioni periodiche, documentare dataset e modelli (struttura, manutenzione, uso previsto) e, nei sistemi di terze parti, verificare le misure di minimizzazione adottate.
L’esempio portato immagina una istituzione che vuole addestrare un sistema AI per assistenza allo sviluppo software. La stessa, prima di procedere, è chiamata a verificare: se è necessario il quantitativo minimo di dati per ottenere il risultato; se verranno trattate categorie particolari di dati; la tipologia di dati (sintetici/anonimi/pseudonimi); la liceità, trasparenza e accuratezza delle fonti.
Il principio di accuratezza nell’AI generativa
Il principio di accuratezza (art. 5 par. 1 lett d) GDPR) è forse uno dei più critici in ambito di AI, in quanto richiede che i dati siano esatti e aggiornati, con obbligo di aggiornare o cancellare dati inesatti. Qui senza dubbio di presentano molte criticità: i modelli possono generare output contenenti dati personali inesatti (cosiddette “allucinazioni”); è importante quindi il controllo sugli output e sulle inferenze del modello, utilizzando nel caso le metriche di accuratezza statistica (se disponibili).
Quando poi si usa un sistema di terze parti, appare fortemente opportuno acquisire informazione sulle procedure di raccolta dati, sulle procedure di preparazione (annotazione, etichettatura, pulizia, aggregazione), sulle lacune e problematiche che possono influire sull’accuratezza sulle model cards e documentazione tecnica
L’esempio presentato riguarda un ente che utilizza un sistema di AI generativa per riassumere CV dei candidati. L’ente, prima di inserire i dati, deve verificare che tutti i documenti forniti dai candidati siano aggiornati e se un candidato aggiorna il proprio profilo, i dati nel sistema AI devono essere aggiornati di conseguenza. Si suggerisce poi una fase di verifica manuale dei riassunti generati dall’AI per garantire che rifletta accuratamente i dati forniti dai candidati
Trasparenza e informativa agli interessati
Anche qui abbiamo criticità specifiche.
Ai sensi infatti degli art. 13 e 14 GDPR occorre fornire agli interessati informazioni sul funzionamento degli algoritmi, nel caso origine dei dataset e procedure di cura/tagging e le eventuali decisioni automatizzate/profilazione, chiarendo anche se si sta interagendo con un sistema AI senza intervento umano
L’esempio è quello di un’istituzione che prepara un chatbot per assistenza sul sito web. In questo caso deve predisporre un’informativa privacy disponibile online che includa: finalità, base giuridica, titolare, DPO, destinatari, categorie di dati, conservazione, diritti, funzionamento del sistema, eventuale uso degli input degli utenti per raffinare il chatbot. Se si basa sul consenso, il documenti specifica che può essere revocato e che i minori non possono usare il chatbot.
Decisioni automatizzate e diritti degli interessati
Il tema delle decisioni automatizzate richiede una particolare cautela.
L’EDPS precisa infatti che seppure non tutti gli utilizzi dell’AI generativa portino automaticamente ad una decisione automatica, occorre però non dimenticare tenere che anche un’influenza significativa del sistema sulla decisione finale richiede l’attivazione dei diritti riconosciuti dall’art. 22 GDPR. Tra questi spiccano il diritto a ottenere un intervento umano, esprimere il proprio punto di vista e contestare la decisione.
L’esempio è illuminante: un’istituzione valuta un sistema AI per screening iniziale candidati che fornisce punteggi e suggerimenti su chi intervistare. Dopo aver consultato la documentazione (incluse metriche di precisione) e considerato il rischio di bias, l’istituzione decide di utilizzarlo solo per l’analisi dei requisiti formali, non per la valutazione complessiva. In ogni caso, deve però essere in grado di dimostrare di poter validamente fare affidamento su una delle eccezioni dell’art. 22, di aver implementato misure adeguate per tutelare i diritti (incluso intervento umano, possibilità di esprimere il proprio punto di vista e contestare), di fornire le informazioni richieste dagli artt. 13 e 14 e di aver condotto una DPIA.
Equità e mitigazione dei bias algoritmici
Sul versante dei bias, la preoccupazione è altrettanto concreta.
I sistemi di AI tendono ad amplificare pregiudizi già presenti nei dati e a crearne di nuovi durante l’addestramento o il monitoraggio: riconoscere e controllare queste distorsioni significa tutelare i diritti fondamentali nei settori più sensibili, come la sanità, le risorse umane, i servizi sociali o la finanza.
Questa parte appare molto interessante in quanto elenca le fonti principali dei bias e le possibili misure di mitigazione.
Per i bias le fonti principali possono essere: pattern esistenti nei dati di training, mancanza di informazioni su popolazioni interessate, inclusione/omissione di variabili rilevanti, errori metodologici, bias introdotti durante il monitoraggio.
In questi casi le misure di mitigazione possono essere: arricchire il dataset garantendo una rappresentazione adeguata ed equa del mondo reale, implementazione di meccanismi di accountability e oversight per monitoraggio continuo, tracciabilità e auditabilità dei trattamenti (l’audit dei dati di training può individuare bias analizzando modalità di raccolta, etichettatura, cura e annotazione), documentazione tecnica dettagliata, testing regolare dell’output con dati specifici per il caso d’uso.
Vediamo l’esempio: un’istituzione valuta un sistema di riconoscimento vocale automatico. I servizi di traduzione segnalano tassi di errore significativamente più alti per alcuni soggetti che parlano inglese non nativo. Poiché si tratta di un errore sistematico, si può chiedere allo sviluppatore di raffinare il modello usando dataset propri.
Esercizio dei diritti individuali nell’AI generativa
Il tema dell’esercizio dei diritti degli interessati è forse quello che più rivela la distanza tra i principi del GDPR e la sua applicazione in ambiente AI.
L’EDPS identifica infatti le seguenti sfide specifiche dell’AI generativa:
- Identificazione dell’interessato: Con modelli addestrati su dataset vasti e diversi, può essere estremamente difficile determinare se dati di un individuo specifico sono stati inclusi nel training. Se il titolare dimostra di non poter identificare l’interessato, gli articoli sui diritti non si applicano. Se invece l’interessato fornisce informazioni aggiuntive che consentono l’identificazione, il titolare deve gestire tutte le richieste.
- Cancellazione/rettifica dai dataset di training: Rimuovere o modificare un singolo dato da un dataset massiccio difficilmente influisce sulle prestazioni del modello. La sfida principale è in particolare la tecnica computazionale. Il titolare non deve necessariamente cancellare/modificare tutti i modelli basati su quei dati, a meno che il modello stesso contenga tali dati o possa essere usato per inferirli.
- Output del modello: Le richieste relative agli output (contenuti generati dall’AI) sono le più comuni, poiché possono avere impatto diretto sui diritti. Ad esempio, richieste di rettifica di dati personali inesatti generati dal sistema. Se la cancellazione/rettifica riguarda il modello stesso, potrebbe essere necessario ri-addestrarlo.
L’EDPS suggerisce poi una serie di best practice quali tenere registrazioni tracciabili del trattamento; gestire i dataset in modo da consentire tracciabilità dell’uso, applicare tecniche di minimizzazione
In questo gli esempi riportati sono due:
- Un dipendente richiede l’accesso al contenuto delle conversazioni con un chatbot interno. L’ente risponde che nessun contenuto è conservato oltre il periodo di retention di 30 giorni e che le conversazioni non sono state usate per addestrare il modello.
- Un individuo richiede rettifica di dati personali, affermando che il sistema AI produce output con informazioni false sulla sua storia lavorativa. L’ente indaga, non trova la fonte interna dell’errore (che potrebbe derivare da fonti pubbliche obsolete online o da inferenze errate). Inizialmente comunica di non poter rintracciare l’informazione falsa. L’individuo invia uno script completo della chat con i prompt specifici e le false informazioni. A questo punto l’ente può indagare il comportamento del modello, tratta la richiesta come valida e implementa una correzione fornendo al modello nuove istruzioni per prevenire la ripetizione dello stesso errore.
Misure di sicurezza specifiche per l’AI generativa
Infine le misure di sicurezza da adottare.
L’uso di AI generativa può infatti amplificare rischi esistenti o crearne di nuovi, inclusi rischi sistemici per modelli ampiamente utilizzati.
Rischi specifici AI generativa possono essere: dati di training inaffidabili, complessità e opacità dei sistemi, difficoltà di testing adeguato, vulnerabilità nelle salvaguardie del sistema, attacchi specifici quali model inversion, prompt injection, jail breaking.
A fronte di tali rischi l’EDPS suggerisce queste misure essenziali: integrare controlli di sicurezza specifici per vulnerabilità note, usare solo dataset da fonti affidabili, procedure regolari di verifica e validazione, formazione dello staff su rischi di sicurezza legati all’AI, monitoraggio continuo e aggiornamento della valutazione dei rischi, accesso a competenze specialistiche avanzate, tecniche di “red teaming” per trovare vulnerabilità, testing specifico per Retrieval Augmented Generation per evitare data leakage.
Valutazioni conclusive e applicabilità delle norme
Le regole dell’AI ACT per i modelli di AI per finalità generale (dove rientrano l’AI generativa) sono in vigore dal 2 agosto 2025.
E’ vero che non ci sono ancora le sanzioni (che dovranno essere decise da apposito decreto legislativo nazionale ai sensi dell’ articolo 24, comma 2, lettere d) e n) della Legge 132/2025), ma è altrettanto vero che una non corretta implementazione/utilizzazione comunque può portare a profili di richiesta di risarcimento danni.
Ben venga quindi un documento così chiaro e concreto su cosa occorre fare, che occorre leggere, capire ed applicare.








