Negli ultimi anni l’Unione europea ha costruito uno degli ecosistemi normativi sul digitale più articolati e ambiziosi al mondo. Il GDPR, il Digital Services Act e l’AI Act stanno disegnando un perimetro avanzato di tutele: dati personali, piattaforme online, sistemi di intelligenza artificiale.
Eppure, guardando a quanto sta accadendo nello Stato di New York sul rapporto tra social media e minori, con regole che cominciano a diventare operative quest’anno, emerge una mancanza tanto banale quanto importante. Non riguarda la quantità delle regole, ma la loro impostazione ed efficacia: l’Europa regola molto, ma “avverte” poco. Emette leggi che devono essere applicate, ma che non arrivano direttamente, immediatamente e semplicemente nella percezione (e spesso nella lettura) degli utenti, soprattutto dei minori.
Indice degli argomenti
Social e minori, regole UE efficaci? Perché il GDPR tutela il dato, non il tempo online
Il GDPR è, doverosamente, ancorato al dato personale. L’articolo 8 disciplina il consenso dei minori ai servizi della società dell’informazione, mentre il Considerando 38 riconosce che i bambini meritano una protezione specifica, soprattutto rispetto a marketing e profilazione. I principi di liceità, correttezza e trasparenza (art. 5) e la logica del data protection by design e by default (art. 25) completano un impianto solido e coerente.
Ma il GDPR, per sua natura, non può occuparsi dell’uso eccessivo delle piattaforme, né degli effetti dell’architettura dell’attenzione sulla salute mentale. Il suo oggetto resta, e deve restare, la liceità del trattamento del dato personale, non il tempo trascorso online, né i meccanismi che catturano minori e non, incollandoli agli schermi.
DSA e minori: protezione avanzata, ma senza avvisi espliciti
Il passaggio dal dato al comportamento trova il suo alveo naturale nel DSA. L’articolo 28 rafforza la tutela dei minori vietando la pubblicità basata sulla profilazione e imponendo misure “appropriate e proporzionate”. Gli articoli 34 e 35 fanno un passo ulteriore, introducendo l’obbligo di valutare e mitigare i rischi sistemici, inclusi quelli per il benessere fisico e mentale.
Il DSA, tuttavia, si ferma un attimo prima del punto cruciale: non impone obblighi espliciti di avvertimento verso gli utenti. Le misure su autoplay, notifiche push e loop di engagement restano affidate a linee guida e buone pratiche. Sono norme importanti, ma non diventano vincoli giuridici puntuali e concreti.
AI Act e “zona grigia”: dimostrare il danno ai minori è difficile
L’AI Act intercetta il tema della nocività di un eccesso di tempo trascorso in rete in modo ancora più indiretto. L’articolo 5 vieta i sistemi di IA che sfruttano vulnerabilità legate all’età, causando danni significativi. È una norma forte sul piano dei principi, ma applicarla ai social media è tutt’altro che semplice.
Gli algoritmi di raccomandazione vengono spesso presentati come strumenti neutri o come espressione di legittime finalità di business. Il risultato è una zona grigia, in cui l’onere della prova per le autorità resta elevato.
Il quadro UE si completa, ma non colma il vuoto dell’efficacia
Altre fonti europee completano il quadro, senza però colmare davvero il vuoto, rischiando così di cristallizzare — nell’epoca della rivoluzione dell’IA generativa, che cambia approcci e offerte a velocità ipersonica — migliaia di bellissime pagine sconosciute agli utenti e quindi a forte rischio di inefficacia, se non di inutilità.
La Carta dei diritti fondamentali impone che l’interesse superiore del minore sia preminente. La direttiva sui servizi di media audiovisivi tutela i minori sulle piattaforme di video-sharing, ma resta concentrata sul contenuto nocivo, non sul funzionamento delle piattaforme. Anche la disciplina sui dark patterns colpisce singole pratiche scorrette, ma non l’architettura complessiva della piattaforma che crea dipendenza nociva.
Le leggi di New York: design e warning obbligatori a confronto, per tutela dei minori sui social
Ed è in questo spazio che si collocano le due leggi dello Stato di New York, spesso citate insieme ma molto diverse tra loro.
SAFE for Kids Act: intervento sul design, ma tempi lunghi
Il SAFE for Kids Act, firmato nel giugno 2024, interviene direttamente sul design delle piattaforme: limita i feed algoritmici che creano dipendenza e vieta le notifiche notturne ai minori senza consenso genitoriale verificabile. È una legge strutturale, ma ancora non applicata perché subordinata ai regolamenti attuativi.
Il suo primo limite, quindi, è il tempo: il diritto, anche in questo caso, arriva dopo il design.
S4505/A5346: warning non skippabili, ma sanzioni contenute
La legge S4505/A5346, invece, firmata nel dicembre 2025 ed efficace dal 2026, sceglie un’altra strada per la tutela dei minori. Introduce warning obbligatori, chiari, non skippabili, basati su evidenze scientifiche aggiornate dall’autorità sanitaria.
Il social media viene trattato come un prodotto potenzialmente nocivo per la salute mentale. Il messaggio è semplice, diretto, comprensibile. I limiti, però, sono evidenti: i warning non modificano l’architettura che genera dipendenza e le sanzioni previste sono modeste, facilmente assorbibili da piattaforme globali. Negli Stati Uniti il segnale culturale è forte; l’enforcement economico, molto meno.
Le sanzioni UE sono alte: manca l’obbligo di “verità” in chiaro
Il confronto con l’Europa, tuttavia, è istruttivo. Le sanzioni massime previste da GDPR, DSA e AI Act arrivano fino al 4%, 6% e 7% del fatturato globale annuo. La forza giuridica non manca.
Quello che manca, oggi, è l’uso di questa forza per imporre obblighi semplici ed evidenti di “verità” verso gli utenti.
Come portare warning obbligatori sui social per i minori nel diritto UE
Partendo dalle norme, ancorché limitate allo Stato di New York, potrebbe prendere il via un’evoluzione importante del diritto europeo, senza strappi né rivoluzioni, ma con aggiustamenti tesi a renderlo immediato, comprensibile e prontamente attuabile.
Nel DSA, i warning potrebbero diventare vere misure obbligatorie di mitigazione dei rischi sistemici per i minori, ad esempio dopo un certo tempo di utilizzo continuativo.
Nell’AI Act, linee guida vincolanti potrebbero chiarire che i sistemi di raccomandazione orientati alla massimizzazione del tempo online dei minori sfruttano vulnerabilità legate all’età, alleggerendo in tal modo l’onere probatorio per le autorità e ponendolo in capo ai fornitori dei servizi.
Nella disciplina audiovisiva, la tutela potrebbe estendersi dalle tipologie di contenuto alle modalità di fruizione: ripetizione automatica, raccomandazioni sequenziali, assenza di interruzioni.
Sul piano della soft law, infine, l’Europa potrebbe promuovere veri standard di health-by-design, coinvolgendo anche le autorità sanitarie.
Copiare New York o fare meglio con gli strumenti che già ci sono
L’Europa ha bisogno di copiare New York? Perché no, avendo già tutto ciò che serve per fare meglio? Occorrerebbe, però, un cambio di prospettiva: accanto alla protezione dei dati e alla regolazione degli algoritmi, sarebbe indispensabile riconoscere il diritto dei minori — e delle famiglie — a essere avvertiti, semplicemente.
Dire la verità sul prodotto non è un eccesso regolatorio o una limitazione alla libertà d’impresa: è il tassello che oggi manca a una tutela che, altrimenti, rischia di rimanere, in molte occasioni, lettera morta. E il tempo che scorre non gioca a nostro, umano, favore.












