il confronto

Tutela dei minori online: come viene gestita nel mondo



Indirizzo copiato

L’Italia spinte sulla tutela dei minori online. Dal 2023 le SIM a loro intestate dovranno impedire l’accesso a contenuti inappropriati. Scatta anche la verifica età per il porno. Siamo tra i primi paesi europei ad adottare una misura restrittiva del genere. Vediamo come funziona nel resto del mondo

Aggiornato il 12 dic 2025

Alessandro Longo

Direttore agendadigitale.eu

Carmelina Maurizio

Università degli Studi di Torino



children-internet

Tema caldo e in costante evoluzione quello della tutela dei minori online, tra misure locali, internazionali e globali.

Gli Stati, Italia compresa, si muovono sempre più in tre direzioni:

Si tratta, come vedremo seppure in modo non esaustivo, di una crescita senza precedenti di attenzione al fenomeno, che ha a che vedere con la protezione relativa ai contenuti per adulti, all’uso di specifiche piattaforme, all’accesso a determinati social media e a divieti globali che si riferiscono alle aree appena citate.

Le limitazioni e i criteri di accesso sono determinati spesso dall’età dell’utente, dalla necessità di permessi da parte degli adulti e dalle capacità di verifica di piattaforme e siti specifici.

Si tratta, come detto, di un mondo in cambiamento costante, pertanto anche lo stato dell’arte che verrà qui presentato potrebbe mutare e arricchirsi.

Va inoltre detto in premessa che seppure in alcuni Paesi l’attenzione è alta e modifiche a provvedimenti in essere vengono attuate in itinere, in altri casi la normativa si adegua più lentamente al mutare dell’ingresso di sempre maggiori e innovative risorse, tecnologiche, considerando in questo senso anche l’Intelligenza artificiale.

Verifica dell’età: dove e come

I Paesi che impongono verifica dell’età online per proteggere i minori sono quelli che intendono prima di tutto rendere impossibile l’accesso dei minori a contenuti per adulti di tipo pornografico: questi Stati hanno una base legale nazionale che obbliga i siti per adulti (o piattaforme che mostrano pornografia) a verificare l’età degli utenti in modo più robusto del semplice “clicca se hai 18 anni”.

Com’è fatta la verifica dell’età

Il modo più diffuso per la verifica dell’età utilizza terze parti specializzate che chiedono un selfie (con riconoscimento facciale dell’età) e/o invio di documenti.

Negli Usa i social, laddove non c’è una regola più stringente, si limitano a dedurre l’età con approssimazione algoritmica basata su attività e caratteristiche del profilo utente e solo in caso di dubbi chiedono una verifica.

Europa

Danimarca: ha annunciato un accordo storico per porre fine all’accesso ai social media per i bambini di età inferiore ai 15 anni, poiché i genitori potrebbero garantire l’accesso ai loro figli di 13 e 14 anni.

Il ministro danese per gli affari digitali, Caroline Stage, ha affermato che il divieto non entrerà in vigore immediatamente e che i legislatori di diversi partiti politici impiegheranno probabilmente mesi per approvare le leggi pertinenti.

Francia: la legge SREN (Sécuriser et Réguler l’Espace Numérique, 2024[1]) e gli standard ARCOM obbligano i siti porno a usare sistemi di verifica età ritenuti “robusti” (ID, provider terzi, ecc.), con possibilità di blocco del sito per chi non si adegua. Nel 2023 è stata approvata una legge che richiede il consenso dei genitori per l’iscrizione ai social degli under-15, con sanzioni fino all’1% del fatturato globale per le piattaforme inadempienti. La legge presuppone meccanismi di age verification/age assurance per distinguere under-15, ma l’entrata in vigore pratica e i decreti applicativi sono ancora in itinere.

Germania: dal 2021 il diritto tedesco sui media (JMStV + §184 StGB[2]) vieta l’accesso dei minori ai contenuti pornografici; la soluzione pratica è l’obbligo di sistemi di age verification “forti” per i siti che vogliono essere accessibili legalmente dalla Germania.

Italia: il “Decreto Caivano” (art. 13-bis) vieta l’accesso dei minori ai contenuti pornografici e impone ai fornitori di tali contenuti di verificare la maggiore età degli utenti. Le regole tecniche AGCOM (2025) richiedono sistemi di age verification “a doppia anonimizzazione”, integrabili con vari sistemi come app dedicate o app IO.

Dal mese di novembre 2025 il quadro normativo prevede che chiunque diffonda contenuti pornografici non assicurandosi che l’utente sia maggiorenne rischia multe fino a 250 mila euro e l’oscuramento del sito da parte dell’Agcom. La norma scatta a febbraio 2026.

Norvegia: il governo ha annunciato l’aumento dell’età minima per i social a 15 anni, con una “barriera di age verification” da implementare dai provider. Il disegno di legge è stato messo in consultazione nel 2025 e il testo definitivo è in corso di finalizzazione. La Norvegia è impegnata a creare un Internet più sicuro per i bambini, riconoscendo il grave impatto che l’uso degli schermi e dei social media può avere sul sonno, sulla salute mentale, sull’apprendimento e sulla concentrazione dei bambini.

Regno Unito: l’Online Safety Act 2023 (Part 5[3]) obbliga i servizi che mostrano pornografia a implementare “age assurance altamente efficace” per evitare che i bambini possano “normalmente” incontrare pornografia. Ofcom ha pubblicato codici di pratica e linee guida: dal 25 luglio 2025 i servizi in scope devono avere sistemi di AV operativi (ID, face-age estimation). Le tutele più forti previste dalla legge sono state progettate per i bambini, per cui saranno necessarie piattaforme per impedire loro di accedere a contenuti dannosi e inappropriati per l’età e fornire a genitori e bambini modi chiari e accessibili per segnalare problemi online quando si presentano.

L’Online Safety Act impone alle piattaforme “user-to-user” (in pratica i social media) di prevenire l’accesso dei minori a contenuti “harmful”, spingendo piattaforme come Reddit, Bluesky, ecc. a implementare qualche forma di stima o verifica dell’età per gli utenti UK.

Parlamento europeo: il Parlamento europeo[4] ha espresso il suo sostegno a protezioni online più severe, affermando che i minori sono sempre più vulnerabili. Una bozza del provvedimento, pubblicata in ottobre 2025, sollecita “l’istituzione di un limite di età digitale europeo di 16 anni come soglia predefinita al di sotto della quale l’accesso alle piattaforme di social media online non dovrebbe essere consentito a meno che genitori o tutori non abbiano autorizzato diversamente i propri figli”

L’ età minima di 13 anni si applicherebbe alle piattaforme di condivisione video e ai cosiddetti “compagni di intelligenza artificiale”, la cui popolarità tra gli adolescenti ha sollevato preoccupazioni in diversi stati dell’UE.

La risoluzione non è giuridicamente vincolante e non crea né modifica la politica, infatti qualsiasi legislazione futura richiederebbe una proposta completa da parte della Commissione europea. Il Digital Services Act (DSA)[5] e la direttiva AVMSD impongono alle grandi piattaforme e ai servizi media di proteggere i minori da contenuti dannosi, incluse la pornografia, e citano esplicitamente la possibilità/necessità di usare strumenti di age verification per farlo.

La Commissione ha pubblicato nel 2025 un “Age Verification Blueprint”[6] interoperabile con il futuro EU Digital Identity Wallet, per permettere prove di età privacy-preserving oltre frontiera.

La strategia europea per un Internet migliore per i bambini (strategia BIK+,) mira a migliorare i servizi digitali adeguati all’età e a garantire che ogni bambino sia protetto, potenziato e rispettato online.

Spagna: la scelta del 2024 è quella di un modello di “portafoglio digitale” (Cartera Digital Beta, soprannominato “pajaporte[7]) che genera credenziali anonime da usare sui siti porno. La base normativa prevede che i provider di contenuti per adulti impediscano l’accesso ai minori tramite sistemi di AV; il wallet nazionale è in fase di test ma parte dell’obbligo di AV esiste già nel quadro di protezione dei minori.

Asia

Cina: la Cina ha alcuni dei controlli Internet più severi al mondo, con decine di migliaia di siti web, siti di social media stranieri e contenuti bloccati sia per gli adulti che per i bambini.

Il governo ha inoltre introdotto alcune politiche volte a limitare l’uso della tecnologia da parte dei bambini, ad esempio limitando il gioco d’azzardo a un’ora in determinati giorni per i minori di 18 anni.

Sono state inoltre introdotte nuove norme che regolano il tempo che i giovani trascorrono online e sui siti di social media.

Alcune app di social media, come TikTok, sono realizzate in Cina da una società chiamata ByteDance; su Douyin, la versione cinese dell’app, c’è un limite di tempo sullo schermo di 40 minuti al giorno per gli utenti di età inferiore ai 14 anni, a cui è anche impedito di utilizzare l’app tra le 22:00 e le 6:00.

Corea del Sud: i contenuti per adulti sono pesantemente filtrati a livello nazionale; per sbloccare l’accesso è richiesto un meccanismo di verifica età/identità (legato al sistema di registrazione reale).

In Corea del Nord, gli adolescenti sopra i 14 anni possono creare un proprio account Instagram; nelle impostazioni Account adolescenti, tutti i nuovi account di adolescenti di età compresa tra 14 e 18 anni saranno impostati su privati per impostazione predefinita; gli adolescenti sotto i 17 anni avranno bisogno del permesso dei genitori o del tutore per rendere pubblici i propri account; quelli di età compresa tra 17 e 18 anni possono rendere pubblici i propri account senza autorizzazione, a meno che non abbiano una supervisione esistente stabilita con il genitore o tutore.

India: nel 2025 la Fondazione ZEP[8] ha presentato una petizione alla Corte Suprema dell’India per la regolamentazione dei social media. La corte ha respinto la richiesta di vietare l’uso dei social media ai bambini di età inferiore ai 13 anni, affermando che spettava al parlamento e non ai tribunali, tuttavia ha accolto la richiesta delle fondazioni di proporre al governo centrale di richiedere la verifica dell’età per i social media e di vietarne l’uso ai minori di 16 o 18 anni e di stabilire una scadenza di 8 settimane tuttavia fino ad ora non è stata approvata alcuna legge che assomigli a quella richiesta dalla petizione in India.

Indonesia: un regolamento del marzo 2025 (GR 17/2025) classifica i bambini di età inferiore ai 18 anni in fasce d’età (13-15, 16-17) e richiede alle piattaforme di indicare l’età minima, verificare gli utenti, ottenere il consenso dei genitori entro 24 ore per i minori di 17 anni ed effettuare valutazioni del rischio per caratteristiche ad alto rischio come interazioni con sconosciuti o contenuti di sfruttamento. Le piattaforme devono consentire la segnalazione di abusi e limitare l’accesso in base a livelli di rischio bassi o alti.

Malesia: i leader politici in Malesia hanno dichiarato che intendono vietare ai minori di 16 anni di avere account aperti sui social media.

Sebbene i piani siano ancora nelle fasi iniziali, il ministro delle Comunicazioni ha affermato di sperare che possano entrare in vigore nel 2026.

L’Online Safety Act malese prevede che dal 1° gennaio 2026 tutte le piattaforme social debbano:

– bloccare gli under-16;

– implementare age verification via eKYC (documento + controlli biometrici).

America del Nord – USA

Sino ad ora 25 Stati USA hanno approvato leggi di age verification per i siti porno o servizi con contenuti sessualmente espliciti; negli USA i singoli Stati hanno normative e prendono decisioni, soprattutto nel caso di siti pornografici/commerciali con contenuti “harmful to minors”. Gli Stati dove vi è già una legge sono l’Arizona, la Louisiana, il Missouri, il Texas, dove le misure contro gli Adult Video sono in atto. In questi Stati si impone ai siti commerciali con una certa quota di contenuti espliciti di verificare che i visitatori abbiano almeno 18 anni, tramite ID o provider di AV. Altri Stati hanno leggi approvate sul fronte social/age-assurance (ma spesso contestate, parzialmente o totalmente sospese): Utah, Arkansas, Texas, Louisiana, Ohio, Florida, New York, Virginia, Nebraska, Vermont, ciascuno con vari requisiti di age verification, parental consent, limiti alle funzioni per i minori o design “age-appropriate”.

America del Sud

Brasile[9]

A settembre 2025 è stata approvata una legge che richiede ai social di:

– verificare l’età degli utenti;

– collegare gli account under-16 ai genitori;

– richiedere il consenso dei genitori per scaricare app ai minori 12-18;

– vietare loot box nei videogiochi.

La legge entrerà in vigore a marzo 2026, ma l’obbligo di AV è già nella legge approvata. Il successo del Brasile potrà essere un punto di partenza per replicare le migliori pratiche e stabilire standard coerenti per le aziende tecnologiche in America Latina e nei Caraibi.

Oceania

Australia

Con l’Online Safety Amendment (dicembre 2024)[10] il governo ha approvato un bando dei social per under-16, imponendo alle piattaforme di “prendere misure ragionevoli” per impedire loro di aprire account. In pratica ciò implica sistemi di age verification/age assurance; il divieto è entrato in vigore il 10 dicembre 2025. Il divieto comporta multe fino a 50 milioni di dollari australiani (32,5 milioni di dollari; £25,7 milioni di dollari) per le aziende tecnologiche che non si adegueranno.

Dal 27 dicembre, Google e Microsoft dovranno utilizzare forme di tecnologia di garanzia dell’età per gli utenti al momento dell’accesso.

I risultati di ricerca degli utenti registrati di età inferiore ai 18 anni saranno filtrati per pornografia, violenza ad alto impatto, materiale che promuove disturbi alimentari e una serie di altri contenuti.

Papua Nuova Guinea

La social media policy 2025 impone agli utenti di dimostrare, tramite il sistema di identità digitale SevisPass, di avere almeno 14 anni per usare social come TikTok o Instagram; si tratta di una vera e propria age verification centralizzata.

Nuova Zelanda

Il governo ha depositato il Social Media (Age-Restricted Users) Bill, che – modellato sull’Australia – vieta i social sotto i 16 anni e prevede che i provider verifichino l’età; il testo è in discussione parlamentare (non ancora in vigore).

Africa

Kenya

La Communications Authority ha pubblicato nel 2025 linee guida che richiedono a Application e Content Service Provider di avere meccanismi di age verification per limitare l’accesso dei minori a contenuti dannosi; parallelamente è stato presentato un emendamento di legge che renderebbe obbligatoria l’AV sui social, ma il suo status applicativo non è ancora chiaro.

Sud Africa

Il Sudafrica potrebbe presto seguire la stessa strada degli Stati Uniti e del Regno Unito quando si tratta di regolamentare i contenuti online. Una nuova bozza di politica del Dipartimento delle comunicazioni e delle tecnologie digitali, pubblicata a luglio 2025, propone obblighi più severi per “le piattaforme di condivisione video” e “le piattaforme online di grandi dimensioni.”

Tra i cambiamenti principali c’è l’introduzione di sistemi di verifica dell’età per i contenuti che potrebbero danneggiare i minori e delinea inoltre norme sui sistemi di controllo parentale per i contenuti dannosi e un divieto generale della pubblicità rivolta ai bambini.


Limiti cellulari ai minori con parental control

Dal 21 novembre 2023, grazie alla delibera 9/23/Cons dell’’Agcom, in Italia le SIM intestate ai minori sono preimpostate per bloccare l’accesso a “contenuti inappropriati”.

L’Agcom ha identificato otto categorie di siti considerati nocivi per i minori, dopo aver scoperto che diverse compagnie di telefonia non fornivano adeguati servizi di parental control, o li offrivano a pagamento, violando le norme stabilite nel 2020.

Tutela dei minori online: Italia pioniera

Durante lo sviluppo adolescenziale, le regioni cerebrali associate al desiderio di attenzione, feedback e rinforzo da parte dei coetanei diventano più sensibili. Nel frattempo, le regioni cerebrali coinvolte nell’autocontrollo non sono ancora completamente maturate. “Il bisogno di dare la priorità ai coetanei è una parte normale dello sviluppo adolescenziale e i giovani si rivolgono ai social media per ottenere il tanto desiderato contatto con i coetanei”, ha dichiarato la psicologa clinica Mary Ann McCabe, PhD, ABPP, membro del Consiglio di Amministrazione dell’APA, professore associato aggiunto di pediatria presso la George Washington University School of Medicine, Il desiderio originario è di tipo sociale, ma i bambini possono accidentalmente finire in contenuti dannosi.

L’Italia si pone come uno dei primi paesi in Europa ad attivare un provvedimento di limitazione, altrove misure e provvedimenti sono ancora soggetti a ricerca sull’impatto che i dispositivi e la rete possono avere sui minorenni.

Stati Uniti

Negli Stati Uniti, il possesso di un telefono cellulare sembra iniziare in età sempre più giovane.

In un rapporto Nielsen pubblicato a febbraio 2023, circa il 45% dei bambini statunitensi di età compresa tra i 10 e i 12 anni possedeva un proprio smartphone con un piano di servizio, invece di utilizzare solo il Wi-Fi: circa il 22% ha avuto un piano personale di servizio intorno ai 10 anni, il 15% a 9 o 11 anni e il 16% intorno agli 8 anni. Nello Utah la scorsa primavera è stata approvata una normativa che proibisce ai minori di usare i social media senza il consenso dei genitori, nella più ampia regolamentazione nazionale che riguarda l’uso di Internet da parte di bambini e ragazzi, mentre le critiche alle piattaforme di social media raggiungono un livello elevato a livello nazionale. In Louisiana il disegno di legge, HB61, vieta ai “servizi informatici interattivi” di consentire ai minori di 18 anni di iscriversi ai propri account senza il consenso dei genitori, impedendo ai minori di creare account di social media su siti come Instagram, di accedere a giochi online popolari come Roblox e Fortnite o persino di registrare un indirizzo e-mail.

Nel 2024 e 2025 il trend si è ulteriormente consolidato. L’Arkansas ha rilanciato con un nuovo Social Media Safety Act, che rende obbligatoria la verifica dell’età attraverso provider terzi e trasferisce parte della responsabilità legale sulle piattaforme. La Florida ha approvato una normativa che vieta ai minori sotto i 14 anni di avere account social e consente ai genitori di richiederne la rimozione anche per i figli fra i 14 e i 15 anni. Il Texas ha introdotto requisiti più severi per le piattaforme digitali in materia di trasparenza degli algoritmi e protezione dei minori, mentre la California sta discutendo un rafforzamento del già esistente Age-Appropriate Design Code, dopo la sospensione parziale decisa da un tribunale federale nel 2023.

Parallelamente, a livello federale sono tornate sul tavolo proposte come il Kids Online Safety Act (KOSA), oggi sostenuto in maniera bipartisan e aggiornato per imporre alle piattaforme obblighi più chiari sulla protezione dei minori, sulla moderazione dei contenuti dannosi e sull’uso dei dati sensibili. Nonostante il dibattito sulla libertà di espressione e sulla praticabilità della verifica dell’età, il clima politico e culturale sembra orientato verso un controllo crescente dell’ecosistema digitale frequentato dai più giovani.

Negli Stati Uniti la disponibilità precoce di smartphone convive dunque con un’ondata normativa che tenta di fissare nuovi limiti sulla vita online dei minori. È un processo ancora in evoluzione, in cui le esigenze di protezione, autonomia e privacy della fascia più giovane della popolazione stanno ridisegnando il rapporto tra tecnologia, famiglie e responsabilità delle piattaforme.

Cina

Uno studio del 2022 condotto da ricercatori della canadese McGill University ha rilevato che la Cina, insieme alla Malesia e all’Arabia Saudita, si è classificata al primo posto tra 24 Paesi per l’uso problematico degli smartphone.

Il quotidiano statale cinese Global Times ha riconosciuto il problema, citando un’indagine che ha mostrato che il 21,3% dei bambini sotto i 16 anni, i cui genitori si allontanano dalla loro città per lavorare, sono diventati seriamente dipendenti dagli smartphone.

La dipendenza dai telefoni è stata collegata non solo a improduttività e comportamenti antisociali, ma anche a livelli di stress più elevati, scarsa qualità del sonno e disturbi dell’umore. Già nel 2021, il governo cinese ha imposto un coprifuoco per i giocatori di videogiochi di età inferiore ai 18 anni. Dal 2019, piattaforme di condivisione video come Bilibili, Kuaishou e ByteDance offrono “modalità adolescenti” che limitano l’accesso degli utenti ai contenuti e la durata dell’utilizzo. Douyin, l’app di ByteDance simile a TikTok, impedisce agli adolescenti di utilizzarla per più di 40 minuti. Quasi due anni dopo, le autorità hanno vietato ai bambini di giocare per più di tre ore alla settimana.

Le regole proposte dalla Cyberspace Administration of China (CAC) prevedono anche il divieto per i bambini di accedere a Internet su dispositivi mobili dalle 22:00 alle 06:00 ora locale.

La proposta della CAC prevede che gli operatori del settore, tra cui i produttori di dispositivi di telefonia mobile, le applicazioni e gli app store, sviluppino una funzione chiamata “modalità minori” per impostare limiti di utilizzo che variano a seconda dell’età.

Mentre ai ragazzi di età compresa tra i 16 e i 18 anni sono consentite due ore di schermo al giorno, a quelli di età inferiore agli otto anni 40 minuti.

Corea del Sud, Taiwan

In Corea del Sud, circa il 72% dei bambini possedeva uno smartphone all’età di 11-12 anni e vi trascorreva fino a 5,4 ore al giorno, secondo uno studio pubblicato lo scorso anno sulla rivista Computers in Human Behavior. In confronto, gli adulti hanno riferito di trascorrere circa 3,8 ore sui loro telefoni, secondo lo studio.

Tra i bambini taiwanesi, il numero di coloro che usano il cellulare è aumentato costantemente dal 45% degli undicenni a circa il 71% dei quindicenni, secondo uno studio pubblicato nel 2015 sul Journal of the Formosan Medical Association.

Turchia

In Turchia, secondo uno studio pubblicato sull’Interactive Journal of Medical Research, non c’è consenso tra i genitori sul momento migliore per l’uso del cellulare da parte dei figli. Lo studio ha coinvolto 333 partecipanti: circa il 19,5% dei genitori ha risposto tra i 6 e gli 11 anni, mentre il 59,8% ha risposto tra i 12 e i 17 anni; il 3,3% ha indicato che non è necessaria la presenza di un telefono cellulare per i bambini fino ai 18 anni.

Africa subsahariana

Secondo un rapporto pubblicato dall’UNICEF già nel 2013, per esempio, circa quattro studenti su cinque (81%) della scuola secondaria in Sudafrica possedevano o avevano accesso a un telefono cellulare e circa il 31% aveva una propria pagina su un social network, o in Ghana tra i bambini dai 9 ai 18 il 18,8% dei ragazzi e il 12,9% delle ragazze possedevano un telefono cellulare. In generale, secondo lo studio, il possesso di telefoni cellulari è aumentato tra il 2007 e il 2014 da circa lo 0,6% all’8,4% in Malawi, dal 2,4% al 16,2% in Ghana e dal 21% al 50,8% in Sudafrica.

La Nigeria è uno dei Paesi africani in cui la penetrazione di Internet e dei media digitali è aumentata a passi da gigante. Il Paese rappresenta quasi il 30% della penetrazione di Internet in Africa. Secondo un rapporto globale sul digitale, a gennaio 2020 gli utenti di Internet in Nigeria erano 85 milioni e si stima che il 60% della popolazione sia costituito da giovani, e poco si sa poco di come questi utilizzino quotidianamente la tecnologia digitale. Due terzi (63,7%) dei giovani, per lo più tra i 14 e i 18 anni, nei centri periurbani e urbani possedevano un proprio telefono cellulare e quasi il 60% aveva un telefono abilitato all’uso di Internet. I risultati dei dati qualitativi e quantitativi indicano che i giovani che accedono a Internet passano la maggior parte del tempo sui social media: in Tanzania l’82% della fascia di età compresa tra i 15 e i 19 anni trascorre la maggior parte del tempo sui social media, contro il 64% della coorte di età compresa tra i 20 e i 24 anni.

Australia

In uno studio condotto su bambini del quarto anno della scuola primaria in Australia già nel 2012, quasi il 31% possedeva o utilizzava un telefono cellulare all’inizio dello studio; un anno dopo, il 43% lo possedeva, secondo quanto dichiarato dai genitori.

Nel 2022 sono state pubblicate nuove raccomandazioni sull’uso dei media da parte dei bambini, tra cui quella secondo la quale quelli in età inferiore ai 18-24 mesi evitino di usare regolarmente i media digitali, tranne che per le videochiamate;

per quelli dai 2 ai 5 anni il tempo trascorso sullo schermo sia limitato a un’ora al giorno e si raccomanda di evitare di usare i media come unico modo per calmare il bambino, di monitorare i contenuti multimediali del bambino e le app utilizzate o scaricate, di evitare gli schermi un’ora prima di andare a letto e di non utilizzare lo schermo durante i pasti.

Francia

In Francia, a partire da settembre 2023, è vietato ai bambini di usare gli smartphone a scuola.

Il divieto si applica ai bambini di età compresa tra i 3 anni e i 15 anni. In una nuova legge volta a combattere il cyberbullismo e a ridurre altri effetti dannosi dei social media sui minori, le piattaforme di social media dovranno verificare l’età e ottenere il consenso dei genitori per i minori di 15 anni.

Giappone

Lo studio Relationship between problematic Internet use and age at initial weekly Internet use del 2020 mostra come gli studenti maschi delle scuole medie hanno mostrato una solida relazione tra l’uso iniziale settimanale di Internet e la PIU – Problematic Internet Use, mentre le studentesse delle scuole medie hanno mostrato una relazione particolarmente forte tra il possesso di smartphone e la PIU. Si chiede a livello di norme una necessaria un’educazione preventiva longitudinale fin dalla più tenera età.

Unesco

Un rapporto delle Nazioni Unite del 2023 raccomanda di vietare l’uso degli smartphone nelle scuole per contrastare i disagi in classe, migliorare l’apprendimento e proteggere i bambini dal cyberbullismo. L’Unesco, l’agenzia delle Nazioni Unite per l’istruzione, la scienza e la cultura, ha dichiarato che è dimostrato che l’uso eccessivo del telefono cellulare è legato a una riduzione del rendimento scolastico e che alti livelli di tempo trascorso sullo schermo hanno un effetto negativo sulla stabilità emotiva dei bambini.

Limiti dei social ai minori

Un altro fronte sono le leggi per impedire l’accesso dei minori, tipicamente di 16 anni, ai social, anche in questo caso con verifica dell’età.

Australia

L’Australia, prima al mondo, ha deciso di vietare ai minori di 16 anni l’apertura di account sui social media a partire dal 10 dicembre 2025. Una promessa accolta con entusiasmo da chi vede nei social una minaccia per la salute mentale dei più giovani, ma anche con forte inquietudine da parte di molti adolescenti. Alcuni hanno raccontato online di sentirsi improvvisamente isolati, tagliati fuori dalle proprie relazioni digitali quotidiane, con effetti collaterali inattesi come la perdita di playlist musicali o di intere community costruite negli anni.

L’Australia è però solo il caso più netto e simbolico di una tendenza globale. In molti Paesi sta prendendo forma l’idea che l’accesso dei minori al web sociale non possa più essere lasciato alla sola autoregolazione delle piattaforme o alla responsabilità individuale delle famiglie. Le preoccupazioni spaziano dal cyberbullismo all’esposizione precoce a contenuti disturbanti, fino agli effetti degli algoritmi sull’attenzione, sull’autostima e sulla salute mentale.

Europa

In Europa il movimento è meno drastico, ma altrettanto significativo. Danimarca e Norvegia hanno annunciato l’intenzione di innalzare a 15 anni l’età minima per la creazione di account sui social media; la Spagna ha dichiarato di voler portare il limite a 16. In Francia il tema è da tempo al centro del dibattito pubblico, intrecciandosi con una riflessione più ampia sul ruolo degli algoritmi e sull’impatto dei social sul benessere psicologico degli adolescenti. L’Italia, pur senza introdurre un divieto generalizzato, ha rafforzato negli anni il ruolo del consenso genitoriale e dell’intervento del Garante per la protezione dei dati personali, soprattutto nei casi di uso improprio dei dati dei minori.

Il passaggio politico più rilevante, però, è arrivato a Bruxelles. Nel novembre 2025 il Parlamento europeo ha approvato una risoluzione che chiede di fissare a 16 anni l’età minima per l’accesso ai social media in tutta l’Unione europea, consentendo l’uso tra i 13 e i 16 anni solo con il consenso esplicito dei genitori. Non si tratta di una legge vincolante, ma di un segnale politico forte: per la prima volta l’Europarlamento indica una soglia anagrafica comune come possibile standard europeo.

La risoluzione va oltre il semplice tema dell’età. I deputati chiedono di limitare o vietare per i minori le pratiche considerate più dannose, come lo scorrimento infinito, la riproduzione automatica dei contenuti e i meccanismi di ricompensa pensati per massimizzare il tempo di permanenza sulle piattaforme. Nel mirino finiscono anche gli algoritmi di raccomandazione basati sull’engagement, ritenuti uno dei principali fattori di uso compulsivo. Il Parlamento invita inoltre a rafforzare l’applicazione del Digital Services Act e a sviluppare sistemi di verifica dell’età basati su strumenti europei di identità digitale, in grado di dimostrare l’età senza esporre altri dati personali.

Questa posizione colloca l’Unione europea in una traiettoria intermedia tra il modello australiano, fondato sul divieto, e quello statunitense, frammentato a livello statale.

Stati Uniti

Negli Stati Uniti, infatti, diversi Stati hanno irrigidito le regole imponendo il consenso dei genitori per l’iscrizione dei minori ai social network, mentre il Congresso discute da anni proposte come il Kids Online Safety Act, senza però arrivare a una soglia federale unitaria.

I limiti di questi controlli

L’esperienza australiana mostra comunque quanto sia complesso tradurre questi principi in norme efficaci. Stabilire cosa rientri nella definizione di “social media” è tutt’altro che semplice. In Australia il divieto include piattaforme di condivisione video come YouTube e TikTok, ma esclude i servizi di messaggistica come WhatsApp. I videogiochi online, come Roblox, restano per ora fuori dal perimetro, nonostante le pressioni di molte famiglie. Distinzioni simili emergono anche nel dibattito europeo, dove la socialità digitale dei ragazzi passa sempre più da ambienti ibridi difficili da classificare giuridicamente.

C’è poi il rischio degli effetti collaterali. In Australia, con l’entrata in vigore delle restrizioni, le classifiche delle app più scaricate hanno visto salire rapidamente piattaforme alternative e meno conosciute, non sempre incluse nella normativa.

La legge australiana vieta ai minori di avere account sui social media, ma essi rimangono liberi di utilizzare le app senza effettuare il login. Su alcune piattaforme, come Instagram, non è possibile andare molto lontano senza registrarsi. Altre invece, come YouTube e TikTok, consentono agli utenti di navigare in modo anonimo. I minori australiani che utilizzano queste app potrebbero ora essere più esposti a contenuti non adatti alla loro età.

Un’altra preoccupazione è che i bambini che sono stati espulsi dalle principali app di social media possano registrarsi ad altre meno conosciute e forse meno regolamentate. Il giorno in cui sono entrate in vigore le restrizioni di età, tra i download più popolari in Australia sull’App Store di Apple figuravano Lemon8, un social network di ByteDance, la società madre di TikTok, e Yope, un’app di messaggistica fotografica privata riservata agli amici. Nessuna delle due è attualmente soggetta al divieto.

Un fenomeno analogo si osserva nel settore della pornografia online, dove le leggi sulla verifica dell’età introdotte nel Regno Unito e in discussione o applicazione in Francia, Spagna e Italia hanno ridotto il traffico dei grandi siti, ma hanno favorito la proliferazione di una lunga coda di siti minori che ignorano le regole.

Anche l’uso delle VPN, strumenti che permettono di aggirare i blocchi geografici e anagrafici, è aumentato sensibilmente nei Paesi che hanno introdotto controlli più severi. È uno degli argomenti principali di chi teme che i divieti rigidi finiscano per colpire soprattutto gli utenti meno esperti, lasciando ampi margini di elusione a chi ha maggiori competenze digitali.

Resta infine aperta la questione di chi debba farsi carico dell’applicazione delle regole. L’Australia, come il Regno Unito per i siti pornografici, attribuisce la responsabilità direttamente alle piattaforme, prevedendo sanzioni elevate in caso di controlli inefficaci. Le aziende tecnologiche spingono invece per un modello in cui la verifica dell’età venga gestita a monte, a livello di sistema operativo o di app store, da soggetti come Apple e Google. È una direzione che trova spazio anche nel dibattito europeo, soprattutto in relazione allo sviluppo dell’identità digitale UE.

Il quadro che emerge è quello di un grande laboratorio normativo globale. Governi e istituzioni cercano di rispondere a un disagio reale e crescente, ma si muovono in un ecosistema fluido, dove ogni intervento rischia di produrre conseguenze inattese. L’iniziativa del Parlamento europeo mostra che Bruxelles sta preparando il terreno per un intervento più incisivo. Resta da capire se il risultato sarà un divieto esplicito, sul modello australiano, o una ridefinizione profonda delle regole del gioco, capace di cambiare dall’interno l’architettura dei social media frequentati dai più giovani.

Note

[1] https://www.cnil.fr/fr/sren-loi-securiser-reguler-lespace-numerique-nouvelles-missions-cnil

[2] https://www.bundestag.de/resource/blob/1063866/WD-8-015-25-pdf.pdf

[3] https://www.gov.uk/government/publications/online-safety-act-explainer/online-safety-act-explainer

[4] https://www.europarl.europa.eu/news/en/press-room/20251013IPR30892/new-eu-measures-needed-to-make-online-services-safer-for-minors

[5] https://www.agendadigitale.eu/mercati-digitali/digital-services-act-cose-e-cosa-prevede-la-legge-europea-sui-servizi-digitali/

[6] https://digital-strategy.ec.europa.eu/en/factpages/blueprint-age-verification-solution-help-protect-minors-online

[7] https://espanadigital.gob.es/actualidad/cartera-digital-beta-la-aplicacion-que-incluye-el-sistema-de-verificacion-de-la-mayoria

[8] https://zepindia.in/PrivacyPolicy.html

[9] https://5rightsfoundation.com/brazil-is-first-latin-american-country-to-enshrine-age-appropriate-design-standards-into-law/

[10] https://www.esafety.gov.au/newsroom/whats-on/online-safety-act

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati