tutela dei minori

Verifica dell’età online, il caso Meta davanti alla Commissione UE



Indirizzo copiato

Le valutazioni preliminari della Commissione europea contro Meta riaccendono il confronto sulla verifica dell’età, sulla tutela dei minori online e sugli obblighi previsti dal Digital Services Act per le piattaforme digitali di grandi dimensioni

Pubblicato il 15 mag 2026

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



tutela minori online
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

L’ecosistema digitale europeo sta vivendo un momento di trasformazione costituzionale che non ha precedenti nella storia del diritto tecnologico. La pubblicazione delle valutazioni preliminari della Commissione europea riguardo al procedimento formale contro Meta Platforms non rappresenta solo un passaggio procedurale, ma un vero e proprio manifesto della sovranità digitale europea.

Le indagini UE su Meta e la gestione dei minori online

Dopo due anni di indagini serrate, avviate nel maggio del 2024, Bruxelles ha scoperchiato il “vaso di Pandora” della gestione dei minori da parte del colosso di Menlo Park. Non siamo più nell’ambito delle speculazioni o dei richiami etici: i rilievi della Commissione descrivono un quadro di negligenza sistematica che mina le fondamenta stesse del Digital Services Act.

Il DSA è stato concepito per porre fine all’era dell’irresponsabilità dei giganti del web, e il caso Meta è diventato il banco di prova definitivo per testare la capacità della legge di piegare gli interessi commerciali alla tutela dei diritti fondamentali.

Il fulcro del dibattito si è spostato dalla semplice rimozione di contenuti dannosi alla progettazione dell’infrastruttura sociale. Le valutazioni preliminari indicano che Meta non ha agito con la diligenza richiesta a una “Piattaforma Online di Dimensioni Molto Grandi” (VLOP), permettendo che le proprie interfacce diventassero varchi aperti per milioni di bambini, nonostante i divieti formali contenuti nelle condizioni d’uso.

Questo passaggio segna il tramonto definitivo della neutralità tecnologica: se una piattaforma costruisce uno spazio sociale, è pienamente responsabile della sicurezza di chi vi accede, e la pretesa “cecità” algoritmica di fronte all’età degli utenti non è più accettata come difesa legittima.

L’accusa di arbitrarietà e l’incompatibilità tra profitto e valutazione del rischio sistemico

Uno dei punti più duri e discussi dell’atto di accusa della Commissione riguarda la qualifica della valutazione dei rischi effettuata da Meta come “incompleta e arbitraria”. Si tratta di una terminologia giuridica pesante, che suggerisce una condotta che va oltre la semplice imperizia tecnica. Secondo i dati raccolti da Bruxelles e presentati in questi giorni, Meta avrebbe presentato report di valutazione dei rischi che ignorano apertamente la realtà empirica dell’Unione europea. Le indagini hanno rivelato che circa il 10-12% dei bambini europei sotto i tredici anni accede regolarmente a Instagram e Facebook, una statistica che Meta non poteva ignorare ma che, stando ai rilievi della Commissione, avrebbe omesso di analizzare adeguatamente nei propri piani di mitigazione.

L’arbitrarietà risiede nel fatto che Meta possiede le tecnologie più avanzate al mondo per profilare i gusti, le abitudini d’acquisto e le inclinazioni politiche degli utenti a fini pubblicitari, ma sostiene di non poter identificare l’età di un bambino che dichiara il falso all’iscrizione. Per la Commissione, questa è una scelta operativa deliberata: una forma di “ignoranza strategica” finalizzata a non ridurre la massa critica di utenti.

La violazione del dovere di diligenza sancito dal DSA emerge proprio da questa sproporzione: se l’algoritmo è abbastanza intelligente da vendere un prodotto a un preadolescente, deve esserlo altrettanto per riconoscerne la vulnerabilità e impedirne l’accesso non autorizzato.

La burocrazia dell’ostacolo: il labirinto delle segnalazioni e il fallimento della fiducia

Un dettaglio tecnico che ha suscitato particolare sdegno nelle valutazioni preliminari della Commissione riguarda la struttura dei sistemi di segnalazione per gli account di minori sotto i tredici anni. L’esecutivo UE ha descritto il processo di reporting di Meta come un vero e proprio esercizio di dissuasione psicologica.

Le indagini hanno accertato che per un utente o un genitore sono necessari fino a sette clic all’interno di menu annidati solo per raggiungere il modulo di segnalazione. Inoltre, contrariamente ai principi di semplicità e trasparenza imposti dal DSA, tali moduli non risultano precompilati con le informazioni dell’utente, rendendo l’esperienza frustrante e inefficiente. Ma la critica più grave riguarda l’assenza di un “follow-up” effettivo: la Commissione ha rilevato che, anche dopo segnalazioni documentate, molti account di minori rimanevano attivi per settimane o mesi senza alcun controllo ispettivo da parte di Meta.

Questo comportamento configura una violazione della fiducia sistemica. Il diritto europeo richiede che le piattaforme siano alleate degli utenti nella protezione dei minori, non avversarie che frappongono barriere burocratiche per scoraggiare la conformità. La Commissione sta dicendo a Meta che la “sicurezza digitale” non è un tasto nascosto in fondo a una pagina di assistenza, ma un processo proattivo che deve essere integrato nativamente nell’architettura del servizio.

Il design additivo e il “Rabbit Hole”: la correlazione tra verifica dell’età e salute mentale

L’indagine di Bruxelles non si ferma alla porta d’ingresso delle piattaforme, ma analizza ciò che accade una volta che il minore è riuscito a eludere il debole controllo dell’età. La Commissione ha stabilito un legame diretto tra l’inefficacia dell’age assurance e l’esposizione dei più giovani ai cosiddetti “effetti tana del coniglio” (rabbit hole effects). Poiché la piattaforma non identifica il minore come tale, i suoi algoritmi di raccomandazione lo trattano come un adulto, somministrando flussi ininterrotti di contenuti progettati per massimizzare l’engagement attraverso stimoli psicologici aggressivi.

Questi design additivi, che includono lo scorrimento infinito e la gratificazione intermittente dei like, sono stati giudicati dalla Commissione come fattori che sfruttano l’inesperienza e la vulnerabilità cognitiva dei bambini. Il risultato è un impatto devastante sulla salute mentale, che si manifesta in disturbi dell’immagine corporea, ansia sociale e isolamento.

Giuridicamente, Meta è accusata di non aver previsto barriere interne per limitare questi rischi per gli utenti la cui età non è stata accertata con sicurezza. Il DSA impone che, in caso di dubbio, prevalga la protezione della persona. Il fatto che Meta continui a profilare aggressivamente soggetti che “potrebbero” essere minori è una scommessa commerciale giocata sulla pelle della salute pubblica, una scommessa che la Commissione intende far perdere alla multinazionale attraverso l’imposizione di misure correttive strutturali.

Lo spettro delle sanzioni e la sfida tecnologica dell’app europea di verifica dell’età

Il procedimento in corso non è una pura schermaglia accademica, ma una procedura sanzionatoria che potrebbe culminare nella multa più alta della storia della tecnologia europea.

Il Digital Services Act prevede sanzioni fino al 6% del fatturato annuo globale per violazioni gravi degli obblighi di gestione del rischio. Per Meta, sulla base dei ricavi del 2025, parliamo di una cifra astronomica, nell’ordine di svariati miliardi di dollari. Tuttavia, la Commissione sta usando questo potere non solo come punizione, ma come leva per imporre un nuovo standard tecnologico. Nelle comunicazioni di questi giorni, Bruxelles ha ribadito l’invito ad accelerare l’adozione di soluzioni di verifica dell’età robuste e rispettose della privacy, citando esplicitamente il progetto dell’App europea per l’age verification che dovrebbe entrare a pieno regime entro la fine del 2026.

La difesa di Meta, incentrata sulla presunta violazione della privacy derivante da controlli più severi, è stata definita “strumentale” dalla Commissione. Esistono oggi protocolli crittografici e di intelligenza artificiale on-device che permettono di verificare l’età senza raccogliere documenti d’identità. Il verdetto preliminare suggerisce che il tempo delle scuse è scaduto: Meta deve scegliere se investire nella sicurezza o continuare a pagare ammende che, nel lungo periodo, diventeranno insostenibili anche per un colosso della sua portata.

L’umanizzazione del digitale: il dovere morale del diritto di fronte alla fragilità infantile

In ultima analisi, ciò che emerge dalle migliaia di pagine del dossier della Commissione europea è una profonda preoccupazione per la dimensione umana e sociale dell’infanzia digitale. Le valutazioni preliminari non parlano solo di codici e algoritmi, ma di vite reali. La critica all’inefficacia dei sistemi di controllo di Facebook e Instagram è la risposta del diritto al grido di allarme di milioni di famiglie che si sentono assediate da una tecnologia che sembra non avere più limiti morali. Il DSA, nell’interpretazione rigorosa fornita in questi giorni da Bruxelles, rivendica il diritto di ogni bambino a crescere in uno spazio digitale che non ne manipoli i desideri o ne sfrutti le insicurezze. La “incompletezza” dei report di Meta è vista come una ferita al contratto sociale che lega i cittadini alle imprese che operano nel mercato unico. Il messaggio della Commissione è cristallino: non esiste progresso tecnologico accettabile se esso avviene a scapito dell’integrità psichica dei più piccoli. L’umanizzazione del digitale passa per la responsabilità delle piattaforme, che devono smettere di essere spettatori passivi dei propri danni sistemici per diventare custodi attivi della sicurezza. Il caso Meta rappresenta il primo capitolo di una nuova era in cui la legge non si limita a inseguire l’innovazione, ma ne definisce i parametri etici, garantendo che il futuro della rete sia un luogo di opportunità e non una trappola per i più vulnerabili.

Digital Services Act, Meta e nuova governance digitale

Mentre Meta ha ora la possibilità di rispondere formalmente alle valutazioni preliminari della Commissione e di proporre rimedi vincolanti, il panorama giuridico è ormai irreversibilmente mutato. Il Digital Services Act ha dimostrato di avere denti affilati e una vista acuta, capace di penetrare le complesse architetture di dati per scovare le omissioni colpevoli. Le “valutazioni preliminari” pubblicate alla fine di aprile 2026 sono un monito non solo per Meta, ma per l’intera industria dei social media: la verifica dell’età non è un dettaglio tecnico, ma la precondizione per la partecipazione al discorso pubblico europeo. Il rigore di Bruxelles segna la fine della stagione degli esperimenti sociali incontrollati e l’inizio di una governance digitale matura, dove la sicurezza dei minori è l’unità di misura del valore di un’azienda. Se Meta vorrà continuare a essere un attore centrale nella vita dei cittadini europei, dovrà dimostrare che i suoi algoritmi possono essere messi al servizio della protezione tanto quanto lo sono stati per la monetizzazione dell’attenzione. La posta in gioco non è solo una sanzione del 6% del fatturato, ma la sopravvivenza stessa di un modello di internet che deve decidere se essere uno strumento di emancipazione o una minaccia per le generazioni che verranno.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x