A partire da luglio 2025, la Commissione europea introdurrà una nuova applicazione per la verifica dell’età degli utenti nel contesto dei servizi digitali.
L’iniziativa, sebbene annunciata come uno strumento tecnologico, riveste una portata eminentemente giuridica e si inserisce in un processo di evoluzione normativa più ampio, volto a rafforzare le misure di protezione dei minori online e ad assicurare un’attuazione più coerente ed effettiva degli obblighi derivanti dal diritto dell’Unione.
La verifica dell’età, infatti, è divenuta nel tempo una questione centrale nella regolazione dell’ambiente digitale, fungendo da presupposto necessario per l’applicazione di numerose tutele in favore dei minori.
Tuttavia, essa solleva complesse problematiche in materia di proporzionalità, protezione dei dati personali e libertà fondamentali, che rendono imprescindibile l’adozione di un approccio armonizzato, tecnicamente adeguato e giuridicamente fondato. La nuova app europea si pone proprio in tale prospettiva, configurandosi come uno strumento potenzialmente in grado di superare le attuali inefficienze dei modelli di autodichiarazione, garantendo al contempo la conformità ai principi del Regolamento generale sulla protezione dei dati (GDPR).
Indice degli argomenti
La verifica dell’età digitale come base normativa per la protezione dei minori
L’esigenza di verificare l’età degli utenti in ambiente digitale trova fondamento in una pluralità di fonti normative di diritto dell’Unione, che impongono obblighi di protezione specifica per i minori, ma che presuppongono necessariamente la possibilità di identificarli o quantomeno di distinguerli dagli utenti adulti. Sotto questo profilo, la verifica dell’età si configura come uno strumento tecnico-giuridico necessario all’efficacia delle disposizioni sostanziali, e la sua assenza compromette l’effettività dell’intero apparato normativo.
Un primo riferimento obbligato è rappresentato dall’art. 8 del GDPR, il quale stabilisce che, nei casi in cui il trattamento dei dati personali di un minore avvenga sulla base del consenso, questo è valido solo se prestato da soggetti che abbiano almeno 16 anni di età, salva la facoltà degli Stati membri di abbassare tale soglia fino a 13 anni. L’articolo impone, inoltre, al titolare del trattamento l’obbligo di “compiere ogni sforzo ragionevole” per verificare che il consenso sia stato validamente espresso. Si tratta di una norma che, pur nella sua formulazione generale, implica l’adozione di sistemi idonei e proporzionati di verifica, e la cui attuazione concreta è stata spesso oggetto di incertezza applicativa, proprio per l’assenza di strumenti condivisi e affidabili.
Tale esigenza si riflette anche nel Digital Services Act (DSA), Regolamento (UE) 2022/2065, che ha introdotto obblighi specifici a carico dei fornitori di servizi digitali, in particolare delle piattaforme online di grandi dimensioni, affinché adottino misure tecniche e organizzative proporzionate per garantire un ambiente digitale sicuro per i minori. In particolare, l’art. 28, par. 1, impone alle piattaforme di valutare i rischi sistemici che i propri servizi possono comportare per i minori, inclusi i rischi derivanti dalla disinformazione, dal cyberbullismo, dalla pornografia e dalla pubblicità profilata, e di adottare misure di mitigazione adeguate. Anche in questo caso, la reale possibilità di attuare misure efficaci dipende dalla capacità di distinguere gli utenti minorenni, attraverso sistemi attendibili di verifica dell’età.
Similmente, la Direttiva 2010/13/UE sui servizi di media audiovisivi, come modificata dalla Direttiva (UE) 2018/1808, prevede l’adozione di sistemi di controllo dell’accesso ai contenuti audiovisivi potenzialmente dannosi per i minori, come prerequisito per l’erogazione di tali servizi nel rispetto dei principi dell’ordinamento dell’Unione. Tutti questi strumenti normativi, se letti in combinato disposto con la Carta dei diritti fondamentali dell’Unione europea, rendono evidente che la verifica dell’età non è un adempimento meramente tecnico, ma un presupposto giuridico necessario per l’effettiva protezione dei minori nel contesto digitale.
Il progetto Ue: un’applicazione interoperabile fondata su un principio di attestazione dell’età
Il progetto annunciato dalla Commissione europea si inserisce in una più ampia strategia volta a dotare l’Unione di un’infrastruttura digitale comune e interoperabile, conforme ai più elevati standard di sicurezza e di protezione dei dati personali. L’applicazione per la verifica dell’età sarà sviluppata nel contesto del nuovo quadro normativo introdotto dal Regolamento eIDAS 2.0 (Regolamento (UE) 2024/1183), che disciplina l’identità digitale europea e le attestazioni elettroniche, consentendo agli individui di dimostrare attributi specifici, come l’età, senza rivelare ulteriori dati identificativi.
Meccanismo di attestazione selettiva e principi di minimizzazione dati
L’architettura dell’app sarà fondata su un meccanismo di attestazione selettiva, che permetterà all’utente di dimostrare di avere raggiunto una determinata soglia di età (ad esempio, 13, 16 o 18 anni), senza rendere accessibili il proprio nome, la propria data di nascita o altri elementi anagrafici. In questo modo, l’app consentirà la verifica dell’età nel rispetto del principio di minimizzazione dei dati (art. 5, par. 1, lett. c GDPR), evitando che piattaforme e fornitori di servizi entrino in possesso di informazioni personali non necessarie al perseguimento della finalità di tutela.
Conformità ai principi privacy by design e raccomandazioni EDPB
La logica sottesa a tale sistema è coerente con i principi della privacy by design e by default (art. 25 GDPR) e risponde alle raccomandazioni del Comitato europeo per la protezione dei dati (EDPB), che nelle proprie linee guida ha ribadito l’importanza di strumenti di verifica dell’età proporzionati, trasparenti e non eccessivamente invasivi. La scelta dell’UE si colloca quindi in un orizzonte normativo volto a bilanciare la tutela dei minori con la salvaguardia dei diritti alla riservatezza e alla libertà individuale.
Natura giuridica dell’applicazione e problemi di obbligatorietà
Nonostante le potenzialità dell’iniziativa, numerosi sono i profili critici che meritano attenta riflessione dal punto di vista giuridico. In primo luogo, si pone il problema della natura giuridica dell’app: essa sarà semplicemente uno strumento opzionale, reso disponibile agli operatori economici e agli utenti, o potrà assumere valore normativo, imponendo obblighi di utilizzo specifici per determinate categorie di servizi? In assenza di una base giuridica vincolante, il rischio è che le piattaforme decidano autonomamente di non adottarla, continuando a ricorrere a meccanismi meno efficaci come l’autodichiarazione, vanificando l’effetto utile del progetto.
Responsabilità e incertezze applicative nel sistema di verifica
Un secondo elemento di criticità concerne la ripartizione della responsabilità in caso di errori nella verifica.
Se un minore riesce ad accedere a contenuti riservati agli adulti tramite l’app, chi sarà responsabile? Il fornitore dell’applicazione? L’ente certificatore che ha rilasciato l’attestazione? Il gestore della piattaforma che ha accettato la verifica? In mancanza di una disciplina chiara, potrebbero emergere incertezze applicative e contenziosi, soprattutto in caso di danni derivanti dall’inadeguatezza del sistema di verifica.
Discriminazione digitale e uguaglianza nell’accesso ai servizi
Rilevanti sono, inoltre, i profili legati alla discriminazione nell’accesso. Se l’app presuppone l’utilizzo di strumenti digitali avanzati, come l’identità digitale europea o un portafoglio elettronico di credenziali, non è da escludere che ampie fasce della popolazione – in particolare minori privi di documenti digitali o appartenenti a nuclei familiari in difficoltà economica – restino escluse o marginalizzate, con il rischio di creare nuove disuguaglianze nell’accesso ai servizi online. Si tratta di aspetti che impongono un’attenta valutazione del principio di non discriminazione e dell’uguaglianza nell’accesso alla società dell’informazione.
Necessità di regolamentazione di secondo livello e standard tecnici
Affinché l’applicazione europea per la verifica dell’età possa svolgere un ruolo efficace nel contesto normativo dell’Unione, sarà necessario un intervento regolatorio di secondo livello, che ne disciplini l’utilizzo, ne determini i criteri di affidabilità e ne stabilisca il rapporto con le responsabilità dei soggetti coinvolti.
A tal fine, si potrebbero ipotizzare atti di esecuzione adottati dalla Commissione ai sensi dell’art. 66 del DSA o atti delegati ex art. 290 TFUE, volti a definire standard tecnici minimi, procedure di certificazione e criteri di interoperabilità con i sistemi nazionali di identità digitale.
Vigilanza delle autorità di protezione dati e misure correttive
Parallelamente, le autorità di protezione dei dati – a cominciare dal Garante europeo e dagli equivalenti nazionali – saranno chiamate a vigilare sull’uso dell’applicazione, adottando orientamenti interpretativi e, se del caso, misure correttive per garantire che la verifica dell’età non diventi uno strumento di sorveglianza generalizzata o di compressione indebita dei diritti fondamentali degli utenti.
In prospettiva, l’integrazione tra l’app per la verifica dell’età e i sistemi di identità digitale europea potrebbe rappresentare un punto di svolta nella costruzione di un ecosistema digitale europeo fondato su fiducia, sicurezza giuridica e tutela dei diritti. Tuttavia, tale evoluzione richiederà un’attenta attività di normazione, vigilanza e bilanciamento, nella consapevolezza che la tecnologia, per essere giuridicamente legittima, deve sempre restare al servizio della persona e dei suoi diritti inviolabili.