La crescente pervasività delle piattaforme digitali nella vita quotidiana dei minori ha indotto le istituzioni europee a interrogarsi sul modo più efficace per coniugare innovazione tecnologica, libertà individuali e necessità di protezione.
Indice degli argomenti
Verifica dell’età online e rischi per i minori nei servizi digitali
In particolare, il problema dell’accesso da parte dei minori a contenuti dannosi o inappropriati – pornografia, gioco d’azzardo, violenza esplicita, incitamento all’odio – ha spinto l’Unione europea a sviluppare un quadro normativo sempre più strutturato per prevenire i rischi connessi a un uso incontrollato delle tecnologie digitali.
La recente regolamentazione adottata dall’AGCOM italiana in materia di verifica dell’età per l’accesso ai servizi online a rischio si inserisce precisamente in questo contesto.
L’evoluzione delle regole Ue sui dati personali e l’età digitale
Negli ultimi anni, l’Unione europea ha compiuto importanti sforzi per armonizzare gli standard di tutela dei minori nell’ambiente digitale, rafforzando il concetto di “età digitale” e introducendo nuovi obblighi in capo ai fornitori di servizi online. Tali interventi mirano a proteggere i minori dai rischi derivanti dall’accesso a contenuti inappropriati o pericolosi, senza tuttavia trascurare la necessità di garantire, in ogni caso, la tutela della privacy.
Il GDPR e i limiti normativi per la verifica dell’età online
Il principale riferimento normativo in materia di protezione dei dati personali è il Regolamento generale sulla protezione dei dati (GDPR), che, all’articolo 8, fissa una soglia d’età per il consenso al trattamento dei dati personali dei minori nel contesto dei servizi della società dell’informazione. In linea generale, tale soglia è stabilita a 16 anni, ma ogni Stato membro può abbassarla fino a un minimo di 13 anni. Il Regolamento richiede inoltre che le richieste di consenso siano formulate in modo chiaro e comprensibile anche per i minori, al fine di consentire loro di compiere scelte consapevoli.
Tuttavia, questa disposizione ha una portata limitata. Il GDPR, infatti, non disciplina in modo diretto l’accesso a contenuti specifici da parte dei minori, né impone l’adozione di particolari soluzioni tecniche per la verifica dell’età. In altre parole, pur fissando un quadro giuridico generale per il trattamento dei dati personali dei minori, il Regolamento non affronta compiutamente la questione dell’identificazione dell’età come strumento di controllo degli accessi.
La disciplina italiana e il consenso digitale a 14 anni
In Italia, il limite di età per il consenso digitale è fissato a 14 anni, come previsto dall’articolo 2-quinquies del Codice della privacy (d.lgs. n. 196/2003, come modificato dal d.lgs. n. 101/2018). Anche nel nostro ordinamento, dunque, si recepisce la possibilità offerta dal GDPR di abbassare la soglia, con un approccio che cerca di bilanciare la protezione dei minori con la loro progressiva autonomia digitale.
Digital services act: obblighi per le piattaforme digitali
È proprio in questo spazio normativo aperto che si collocano gli interventi regolatori nazionali, i quali, pur tenendo conto delle prerogative sovranazionali in materia di libertà digitali e trattamento dei dati, possono introdurre misure specifiche di protezione per i minori, purché rispettose del principio di proporzionalità. In tale cornice si inserisce il ruolo della Digital Services Act (DSA), il nuovo regolamento europeo sui servizi digitali, entrato pienamente in vigore nel febbraio 2024, che rappresenta oggi l’architrave del diritto europeo in materia di regolazione delle piattaforme online.
Il DSA impone ai fornitori di piattaforme digitali obblighi articolati in funzione della loro dimensione e del rischio sistemico connesso ai servizi offerti. In particolare, agli intermediari digitali di grandi dimensioni (le cosiddette VLOPs – very large online platforms) è richiesto di adottare misure proattive per limitare la diffusione di contenuti illeciti e dannosi, anche attraverso strumenti di verifica dell’età. L’art. 28 del DSA stabilisce che tali piattaforme devono adottare misure adeguate e proporzionate per garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori sul loro servizio.
Direttiva media audiovisivi e protezione minori online
Accanto al DSA, è utile richiamare anche la Direttiva sui servizi di media audiovisivi (Direttiva 2018/1808/UE), che ha modificato il precedente quadro del 2010, estendendo l’ambito di applicazione anche alle piattaforme di condivisione video. L’art. 28-ter della direttiva impone agli Stati membri di garantire che tali piattaforme adottino misure adeguate a proteggere i minori da contenuti nocivi. Tali misure possono comprendere strumenti di verifica dell’età, controllo parentale, sistemi di segnalazione e classificazione dei contenuti. Anche in questo caso, tuttavia, la direttiva lascia ampio margine agli Stati membri per definire modalità e tecnologie da impiegare, generando un quadro frammentato a livello europeo.
Le sfide della verifica dell’età tra privacy e sicurezza
Proprio questa frammentazione è al centro del dibattito attuale, sia a livello normativo che giurisprudenziale. Da un lato, vi è una crescente domanda sociale e politica per l’introduzione di strumenti di verifica dell’età più efficaci, soprattutto in relazione all’accesso a pornografia e contenuti violenti.
Dall’altro, permangono forti preoccupazioni relative al rispetto della privacy, al rischio di sorveglianza generalizzata e all’esclusione digitale di fasce vulnerabili. In particolare, l’uso di tecnologie intrusive, come l’intelligenza artificiale per il riconoscimento facciale o la richiesta di documenti ufficiali per accedere a contenuti online, è spesso ritenuto incompatibile con il principio di minimizzazione dei dati sancito dal GDPR.
Iniziative europee per sistemi di verifica dell’età non invasivi
A fronte di tali tensioni, la Commissione europea ha promosso iniziative di soft law e orientamento. Un esempio rilevante è il “Code of conduct on age-appropriate design”, che promuove l’adozione di soluzioni tecnologiche non invasive, come sistemi basati su metadati, intelligenza artificiale etica o dichiarazioni di età corroborate da verifiche indirette, per garantire un’esperienza online sicura e al tempo stesso rispettosa dei diritti degli utenti.
In parallelo, sono in corso sperimentazioni su meccanismi di age assurance interoperabile, ossia strumenti che permettano la verifica dell’età attraverso provider certificati terzi, senza dover trasmettere dati sensibili al fornitore del contenuto. Nello specifico, è in sviluppo un’applicazione cosiddetta “white label”, cioè un software, che viene sviluppato e poi rivenduto alle aziende, le quali possono personalizzarlo con il proprio logo o marchio.
L’approccio del Regno Unito alla tutela dei minori online e il confronto europeo
Nel Regno Unito, dove il dibattito è particolarmente avanzato, l’Online Safety Act ha introdotto un regime vincolante che impone obblighi specifici di verifica dell’età per l’accesso a contenuti pornografici. L’approccio britannico è ritenuto tra i più stringenti in Europa e ha alimentato un confronto a livello continentale sull’opportunità di adottare una disciplina analoga anche nei Paesi dell’Unione. Tuttavia, la Corte di giustizia dell’UE ha più volte ribadito che qualsiasi misura nazionale che comporti restrizioni all’accesso a Internet o alla libera circolazione dei servizi digitali deve essere giustificata, proporzionata e conforme ai diritti fondamentali dell’Unione.
L’intervento Agcom per la protezione effettiva dei minori nel contesto europeo della verifica dell’età
Alla luce di questo contesto, l’intervento dell’Agcom si inserisce come tentativo di bilanciare due esigenze concorrenti: da un lato, garantire la protezione effettiva dei minori nel quadro delle direttive e dei regolamenti europei; dall’altro, evitare che la verifica dell’età si traduca in una sorveglianza sistemica o in una discriminazione digitale. Il riferimento ai principi di interoperabilità, minimizzazione dei dati, trasparenza e accountability, così come la ricerca di una soluzione tecnologicamente neutra e rispettosa dei diritti dell’utente, riflettono chiaramente l’allineamento dell’Autorità italiana con le migliori pratiche europee.
Il nodo ancora aperto resta quello dell’effettiva efficacia dei sistemi di verifica dell’età e della loro accettazione sociale. L’assenza di standard europei vincolanti lascia spazio a una pluralità di soluzioni tecniche, alcune delle quali molto eterogenee in termini di affidabilità, protezione dei dati e inclusività. È dunque probabile che, nei prossimi anni, la Commissione europea sarà chiamata a definire parametri comuni più stringenti, anche alla luce dell’evoluzione tecnologica in materia di identità digitale e wallet europei, che potrebbero offrire strumenti sicuri e standardizzati per l’age assurance.
La sperimentazione italiana come modello europeo
Nel frattempo, gli interventi nazionali come quello dell’AGCOM rappresentano un banco di prova per verificare la compatibilità tra protezione dei minori e rispetto dei diritti digitali. L’Italia si muove in una direzione che, pur tra molteplici sfide, appare in linea con il trend europeo verso una regolazione responsabile, proporzionata e, soprattutto, coerente con l’ambizione dell’Unione di rendere il cyberspazio uno spazio sicuro anche per i più giovani.