proposte di legge

Regole social in Italia: il male è nell’architettura, non nell’accesso



Indirizzo copiato

Tante proposte di legge, nuove e vecchie, ora cercano di correggere gli impatti negativi di social su minori e opinione pubblica, ma divergono profondamente negli strumenti da adottare. Sarebbe meglio concentrarsi sull’architettura o design dei social, non sulle regole di accesso o l’età minima

Pubblicato il 3 apr 2026

Tania Orrù

Data Protection, Compliance & Digital Governance Advisor



regole social italia
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Sette proposte di legge volte a regolamentare social network e piattaforme digitali segnala di un’accelerazione politica e culturale sul tema. Le iniziative, provenienti da diversi schieramenti, condividono la preoccupazione per l’impatto dei social su minori e opinione pubblica, ma divergono profondamente negli strumenti: si va dal divieto di accesso per determinate fasce d’età, a modelli di navigazione protetta, fino a interventi più ambiziosi sull’architettura delle piattaforme e sugli algoritmi di raccomandazione, ritenuti responsabili di dinamiche di dipendenza e manipolazione.

Pesano sia i recenti fatti di cronaca (su giovani e social) che le sentenze statunitensi che hanno messo in discussione la neutralità delle big tech.

Regolare i social non è più un tabù. Resta però aperta la questione su come farlo in modo efficace e coerente.

Un’accelerazione della regolazione dei social in Italia senza precedenti

Negli ultimi giorni il dibattito italiano sulla regolazione dei social network ha registrato un’accelerazione inusuale, tanto sul piano politico quanto su quello simbolico.

Sono quattro le principali proposte di legge attualmente in discussione in Parlamento, alcune già avviate, altre presentate quasi simultaneamente. Un dato che, di per sé, rappresenta un nuovo corso rispetto al passato.

Il tema, in realtà, non è del tutto nuovo. Già nel 2023 erano state presentate iniziative legislative, tra cui una proposta del gruppo Azione, che interveniva sull’accesso ai social da parte dei minori, prevedendo divieti sotto i 13 anni, consenso genitoriale fino ai 15 e sistemi di verifica dell’età basati su identità digitale. L’attuale proliferazione di disegni di legge segna quindi più un’accelerazione e una sorta di convergenza politica che un vero punto di partenza.

A spiegare questa accelerazione concorrono più fattori: la reazione emotiva ai gravi fatti di cronaca come gli episodi di violenza che hanno coinvolto minori, le recenti sentenze statunitensi che hanno riconosciuto la responsabilità delle piattaforme nel favorire dinamiche di dipendenza e un probabile cambiamento del clima politico e culturale rispetto alla regolamentazione digitale. Se prima regolare le big tech era percepito come atto ostile o ideologicamente “sospetto”, oggi sta diventando, nel discorso pubblico, un terreno legittimo e persino trasversale.

Questa mutazione si traduce in un proliferare di iniziative legislative che, pur muovendosi nello stesso campo semantico (tutela dei minori, contrasto alla dipendenza, controllo delle piattaforme) divergono significativamente per approccio, strumenti e presupposti.

Quattro proposte di legge in Italia sui social e quattro modelli di regolazione

Il quadro delineato è frammentato.

Tra le proposte, quella Nicita-Basso rappresenta forse il tentativo più avanzato di intervenire sull’architettura delle piattaforme, poiché oltre a disciplinare l’accesso a queste, mira a incidere direttamente sul funzionamento degli algoritmi e sulle logiche di design. L’idea di fondo è che elementi come lo scroll infinito o la profilazione sono scelte aziendali che producono effetti sulla salute pubblica e sulla qualità del dibattito democratico. Da qui la previsione di opzioni “non profilate” come default e l’introduzione di limiti anche per i sistemi di intelligenza artificiale, inclusa la gestione della memoria nei chatbot.

La proposta Carfagna si colloca su un terreno parzialmente diverso, pur condividendo alcune preoccupazioni rispetto alla proposta Nicita. Qui il focus è sulla protezione dei minori attraverso una combinazione di divieti (under 13), regimi differenziati per fasce d’età e interventi sul design delle piattaforme. Vengono presi di mira meccanismi specifici, quali autoplay, notifiche notturne e scroll infinito, considerati funzionali alla cattura dell’attenzione. Centrale è anche il rafforzamento del parental control, con un ruolo attivo riconosciuto ai genitori e una supervisione tecnica affidata all’Agcom.

Diversa ancora l’impostazione della proposta Madia-Mennuni, che introduce un divieto netto di accesso ai social per i minori di 15 anni. Una soluzione apparentemente più semplice, che in realtà non è nuova e aveva già incontrato uno stop politico significativo in sede governativa nel 2024, nonostante il sostegno bipartisan. Le ragioni del blocco, non chiarite ufficialmente, oscillano tra considerazioni geopolitiche (l’intervento diretto nei confronti delle grandi piattaforme avrebbe potuto avere riflessi nei rapporti con gli Stati Uniti) e scelte di opportunità normativa (nello specifico, non sovraccaricare il decreto Caivano, provvedimento già fortemente esposto sul piano mediatico e politico).

Infine, la proposta della Lega introduce un modello ibrido: divieto per gli under 15 e consenso genitoriale per gli altri, accompagnato da obblighi stringenti in materia di verifica dell’età, identità digitale e limitazioni alla profilazione dei minori.

Quattro proposte che, pur condividendo il medesimo oggetto, non hanno una visione comune del problema.

La regolazione dei social passa dalle architetture algoritmiche: la proposta Nicita-Basso si distingue

Tra le iniziative in discussione, il disegno di legge Nicita-Basso si distingue per un’impostazione più organica rispetto alle altre, oltre che per la scelta di intervenire direttamente sulle architetture algoritmiche anziché limitarsi a disciplinare l’accesso o i contenuti.

La proposta parte da un presupposto netto: il problema è il modo in cui i contenuti vengono distribuiti, personalizzati e utilizzati per orientare il comportamento degli utenti, dove scroll infinito, autoplay, notifiche intermittenti e sistemi di gamification sono dispositivi progettati per comprimere la scelta consapevole e incentivare un uso reiterato.

Il testo costruisce un impianto che combina divieti mirati, obblighi di progettazione (qualificati come un vero e proprio “duty of care algoritmico”) e diritti dell’utente, tra cui la possibilità di fruire dei servizi in modalità non profilata attiva per default.

A questo si affianca un sistema di enforcement tutt’altro che marginale: sono previste sanzioni fino al 4% del fatturato mondiale annuo per le violazioni più gravi, oltre alla responsabilità civile con inversione sostanziale dell’onere della prova e accesso alla documentazione tecnica delle piattaforme.

Ne emerge un tentativo esplicito di trattare dipendenza, influenza e manipolazione come esiti di una stessa matrice progettuale, spostando il baricentro della regolazione dalla superficie dei contenuti alla struttura dell’ambiente digitale.

La proposta prevede inoltre una clausola di adeguamento automatico alla normativa europea futura, richiamando espressamente anche il Digital Fairness Act, segno della volontà di collocarsi in continuità (e in parte in anticipo) rispetto all’evoluzione della regolazione europea.

Il testo Nicita-Basso, pur più strutturato, presenta tuttavia criticità legate alla difficoltà di tradurre concetti come dipendenza e manipolazione in criteri applicativi chiari, con un ruolo molto ampio affidato all’Agcom. Restano inoltre interrogativi sul coordinamento con il diritto europeo e sulla concreta applicabilità di un impianto così ambizioso a livello nazionale.

Dall’accesso all’architettura: il nuovo passo per regolare bene i social, in Italia e altrove

Se si guarda oltre le differenze, emerge tuttavia una convergenza significativa tra le proposte: il bersaglio della regolazione è ormai l’architettura stessa delle piattaforme e non più il singolo contenuto o l’accesso.

L’idea che l’algoritmo non sia neutro, ma incorpori scelte progettuali orientate alla massimizzazione del tempo di permanenza e dell’engagement, rappresenta una rottura rispetto alla tradizionale impostazione giuridica. Le piattaforme sono attori (e non più meri intermediari) che modellano comportamenti, influenzano opinioni e, nel caso dei minori, incidono direttamente sul loro sviluppo psicofisico.

Il tentativo di vietare lo scroll infinito o di limitare la profilazione può essere quindi letto come un intervento diretto sul modello di business delle piattaforme, fondato sull’economia dell’attenzione.

Il punto tecnico nella regolazione dei social: verificare l’età

Un altro terreno di convergenza (e al tempo stesso di criticità) è quello della verifica dell’età.

Tutte le proposte riconoscono che senza un sistema affidabile di age verification ogni divieto è facilmente aggirabile. Divergono però sulle modalità: alcune affidano il compito alle piattaforme, altre immaginano un’infrastruttura a livello di sistema operativo o di identità digitale, sotto la supervisione dell’Agcom.

Qui si apre una tensione irrisolta tra esigenze di tutela e rischi per la privacy, poiché centralizzare la verifica dell’età significa creare nuovi punti di raccolta e gestione di dati sensibili, con implicazioni che vanno ben oltre il perimetro dei social network.

Il confronto internazionale tra divieti e responsabilità delle piattaforme

In Europa, la Francia ha già adottato una legge che vieta l’accesso ai social sotto i 15 anni senza consenso genitoriale, inserendola in un quadro più ampio di politiche pubbliche sulla protezione dei minori online. La Spagna si muove lungo una direttrice analoga, ma con un’impostazione ancora in evoluzione: il dibattito riguarda l’innalzamento dell’età minima fino a 16 anni e, soprattutto, il rafforzamento degli obblighi per le piattaforme in materia di design e trasparenza, in linea con l’impianto del Digital Services Act. Oltre alle soglie anagrafiche, c’è dunque un progressivo e sostanziale allineamento tra livello nazionale ed europeo.

Il Portogallo offre un esempio diverso, meno centrato sul divieto e più sulla responsabilizzazione e sull’educazione digitale. Qui gli interventi normativi tendono a inserirsi in strategie coordinate che coinvolgono scuola, autorità di regolazione e piattaforme, con un’attenzione maggiore alla costruzione di competenze e alla prevenzione piuttosto che alla sola restrizione dell’accesso. Il risultato è un approccio meno visibile sul piano mediatico, ma più coerente nella distribuzione degli strumenti.

Fuori dall’Europa, l’Australia rappresenta uno dei contesti più avanzati nella regolazione delle piattaforme, anche se con una logica diversa rispetto al dibattito italiano. Negli ultimi anni ha infatti costruito un sistema di intervento progressivo attraverso autorità indipendenti, codici obbligatori e poteri di enforcement incisivi, intervenendo su sicurezza online, contenuti dannosi e responsabilità degli operatori. Più che moltiplicare iniziative legislative parallele, il legislatore australiano ha seguito una traiettoria cumulativa ma coordinata, in cui ogni intervento si innesta su un impianto già definito.

Negli Stati Uniti, invece, il cambiamento passa prevalentemente attraverso i tribunali. Anche se le recenti decisioni che hanno riconosciuto il ruolo degli algoritmi nella creazione di dipendenza non hanno ancora prodotto una riforma organica, stanno comunque ridefinendo progressivamente il perimetro della responsabilità delle piattaforme, mettendo in discussione l’idea della loro neutralità.

Dove gli altri costruiscono sistemi, l’Italia accumula interventi

Il confronto internazionale mostra una differenza che riguarda soprattutto il metodo.

Negli altri ordinamenti, anche quando le soluzioni sono diverse, si osserva infatti una maggiore tendenza alla convergenza attorno a un impianto riconoscibile, spesso collegato a strategie di medio periodo o a cornici sovranazionali.

In Italia, al contrario, le proposte si sviluppano in parallelo, senza un chiaro punto di raccordo; mentre altrove le differenze si compongono in un disegno, qui restano, almeno per ora, giustapposte.

La regolazione dei social in Italia resta senza visione unitaria

Le proposte in campo riflettono concezioni diverse (e talvolta incompatibili) della regolazione digitale: alcune puntano sul divieto, altre sulla progettazione, altre ancora sulla responsabilizzazione dei genitori.

L’Italia, dunque, non solo oscilla tra approcci diversi, ma lo fa attraverso un processo legislativo che fatica a costruire coerenza. Ed è forse proprio questa la principale debolezza: molte idee, senza un disegno regolatorio unitario.

Interventi non coordinati restano facilmente aggirabili e incidono poco sulle dinamiche che intendono regolare. Si rischia inoltre l’incertezza regolatoria per le piattaforme, per gli utenti e per gli stessi regolatori, poiché un quadro normativo disomogeneo rende difficile comprendere quali siano esattamente le regole del gioco.

In ultima analisi, l’urgenza politica (amplificata dalla cronaca e dal mutato clima culturale) rischia di tradursi in un attivismo legislativo privo di una visione coerente e, in ultima istanza, di moltiplicare le norme senza aumentare la capacità di regolazione.

Tuttavia, su temi come quello dei social network, che intrecciano profili tecnologici, economici e di tutela dei diritti fondamentali, sarebbe necessario un approccio organico, capace di tenere insieme accesso, design delle piattaforme e responsabilità degli operatori. In assenza di una visione unitaria, si rischia di appesantire il processo legislativo e, soprattutto, di arrivare a soluzioni parziali, difficilmente applicabili e, in ultima analisi, inefficaci.

Regolare l’attenzione, non solo l’accesso

In filigrana, il dibattito italiano lascia emergere un passaggio più radicale di quanto appaia a prima vista: la regolazione dei social network riguarda ormai l’attenzione come risorsa economica e politica, e non si limita più soltanto a disciplinare l’accesso. Stabilire chi può entrare sulle piattaforme e a quali condizioni è, in fondo, una misura preliminare; il vero tema è ciò che accade una volta dentro.

Le diverse proposte di legge sembrano intuirlo, soprattutto quando intervengono su elementi come lo scroll infinito, l’autoplay o la profilazione, strumenti che organizzano il tempo, orientano il comportamento e strutturano l’esperienza cognitiva degli utenti. Regolare il design delle piattaforme significa infatti tentare di incidere su un’infrastruttura invisibile che governa l’attenzione in modo continuo e automatizzato.

Intervenire su scroll infinito o profilazione non basta se resta invariato il modello che organizza e monetizza il tempo degli utenti. Senza una riflessione su questo livello, la regolazione dell’attenzione potrebbe restare una regolazione dei suoi effetti più visibili, senza però incidere sulle condizioni che li producono.

La fine del tabù regolatorio rappresenta, quindi, solo un primo passaggio; il passo successivo (ben più complesso) consiste nel riconoscere che il potere algoritmico è una questione che riguarda la distribuzione dell’attenzione nella sfera pubblica e, quindi, il funzionamento stesso dei processi sociali e democratici. Senza questo salto, la politica continuerà a inseguire le forme del problema, lasciandone intatta la sostanza e l’attuale attivismo normativo resterà una sequenza di interventi disallineati, più visibili che incisivi.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x