ddl 1859

Social, la minaccia: come l’Italia prova a cambiare le regole del gioco



Indirizzo copiato

Il DDL 1859 Basso-Nicita introduce in Italia una regolazione degli algoritmi dei social media che va oltre i contenuti: punta al design delle piattaforme, alle tecniche di dipendenza, alla responsabilità civile e alla tutela dei minori e della democrazia digitale

Pubblicato il 10 apr 2026

Lorenzo Basso

Senatore della Repubblica italiana (PD), vicepresidente VIII commissione Ambiente, Trasporti, Innovazione tecnologica, Informatico e imprenditore ICT

Antonio Nicita

PD, Professore ordinario di Politica economica presso Università LUMSA, già commissario Agcom



tutela minori social
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Il dibattito italiano sulla regolazione dei social media si è acceso nelle ultime settimane, anche per effetto delle prime battute d’arresto giudiziarie di Meta e Google negli Stati Uniti e di una serie di proposte legislative presentate in Parlamento in ordine sparso.

In un clima simile, il rischio è sempre lo stesso: intervenire sull’emergenza e lasciare intatto il meccanismo che la produce. Il DDL 1859 parte invece da una scelta precisa. Sposta il fuoco dai contenuti ai sistemi che li selezionano, li spingono, li rendono pervasivi.

Perché la regolazione degli algoritmi parte dal design

Il quadro normativo europeo è stato costruito con rigore.

Il GDPR ha fissato diritti fondamentali sulla raccolta e sull’uso dei dati personali. Il Digital Services Act ha introdotto obblighi di trasparenza sui sistemi di raccomandazione e di audit sui rischi sistemici per le piattaforme di maggiori dimensioni. Il Digital Markets Act è intervenuto sulle distorsioni strutturali della concorrenza. L’AI Act ha classificato i sistemi di intelligenza artificiale in base al rischio, vietando anche tecniche subliminali e forme di sfruttamento delle vulnerabilità.

Sono strumenti importanti e necessari. Ma si fermano prima del punto decisivo. Regolano i dati, regolano i contenuti, regolano alcuni obblighi di trasparenza. Molto meno, però, il modo in cui il sistema viene progettato per massimizzare reazioni, permanenza e coinvolgimento emotivo. Una piattaforma può risultare conforme al GDPR, al DSA e al DMA e continuare comunque a organizzare il proprio feed in modo da incentivare il rinforzo compulsivo, amplificare l’indignazione, alimentare dinamiche di dipendenza ormai ampiamente documentate.

È qui che si apre il vuoto. Il cuore del problema, cioè la logica di progettazione dell’algoritmo e delle interfacce che lo accompagnano, è rimasto finora in larga parte fuori dalla regolazione. Il Digital Fairness Act, atteso nel 2027, proverà a intervenire anche su questo terreno, ma lo farà soprattutto dal punto di vista della tutela del consumatore. Il tema che il DDL 1859 mette al centro è più largo: non solo il danno al singolo utente, ma l’impatto che queste architetture possono produrre sullo spazio pubblico, sui minori, sulla qualità della democrazia.

Il confine tra libertà di parola e progettazione delle piattaforme

Qui sta il punto politico e giuridico insieme. Regolare il design non significa regolare ciò che le persone pensano o dicono. Significa fissare un limite alle pratiche con cui le piattaforme costruiscono l’ambiente in cui tutti gli altri parlano, si informano, reagiscono.

La differenza è sostanziale. È la differenza tra decidere che cosa può essere detto in una piazza e decidere come quella piazza viene progettata, amplificata, distorta.

Non si tratta neppure di un terreno senza precedenti. L’ordinamento europeo conosce già casi in cui non viene colpito il contenuto in sé, ma la tecnica con cui esso viene veicolato. È il caso della pubblicità subliminale. L’Unione europea ha vietato, per esempio, forme di esposizione del marchio del tabacco non perché quel contenuto fosse di per sé sempre illecito, ma perché la modalità di comunicazione aggirava la capacità critica del destinatario. Oggi scroll infinito, notifiche a rinforzo variabile, autoplay e gamification operano con una logica analoga, ma su scala immensamente più ampia e continua.

Come la regolazione degli algoritmi distingue i rischi

Il DDL 1859 interviene innanzitutto sulla dipendenza algoritmica. Si tratta di tutte quelle scelte di design che rendono più difficile interrompere la fruizione e sfruttano meccanismi di rinforzo ben studiati, gli stessi che stanno alla base di molte dipendenze comportamentali. In questo ambito rientrano, per esempio, lo scroll infinito non disattivabile, l’autoplay come impostazione predefinita, le notifiche a intermittenza variabile, la gamification della permanenza. L’articolo 3, comma 1, individua in modo tassativo queste pratiche.

Influenza su attenzione e priorità informative

C’è poi un secondo livello, più sottile ma altrettanto rilevante: l’influenza algoritmica. Il feed non si limita a ordinare contenuti. Li seleziona sulla base di profilazione passiva, premia alcuni segnali emotivi, ne penalizza altri, e così facendo orienta progressivamente l’attenzione, le priorità informative, perfino il senso di ciò che appare importante o marginale. Una ricerca pubblicata su Science nel 2025 ha mostrato che modificare il ranking del feed può produrre effetti causali anche sulle opinioni politiche in tempi molto rapidi.

Manipolazione selettiva e interferenze digitali

Infine c’è il livello più grave, quello della manipolazione algoritmica selettiva: quando il gestore interviene intenzionalmente per amplificare certi contenuti o silenziarne altri per finalità politiche o commerciali. Che non si tratti di un’ipotesi astratta lo si è visto in modo clamoroso con il caso delle elezioni presidenziali rumene del dicembre 2024, annullate per interferenze digitali coordinate attraverso TikTok. E non è un episodio isolato.

Responsabilità civile, consenso e tutela dei minori

Sul piano del diritto europeo, il DDL si muove in uno spazio che oggi non è ancora interamente armonizzato e prevede una clausola di adeguamento automatico al diritto sopravvenuto, all’articolo 13. Il DSA lascia agli Stati membri margini di intervento più stringenti in materie come la tutela della salute pubblica e dei minori. L’AI Act, all’articolo 5, vieta i sistemi che sfruttano vulnerabilità psicologiche: il DDL rende più concreto quel principio quando viene applicato al design dei social media. A sua volta, la direttiva UE 2024/2853 sulla responsabilità per i prodotti difettosi, estesa anche al software, offre un ancoraggio preciso per il modello di responsabilità civile previsto dall’articolo 12.

Non profilazione come regola di base

La novità più netta riguarda il principio della non profilazione come regola di base. La fruizione senza profilazione comportamentale deve essere gratuita e attiva per default; la profilazione può intervenire solo in presenza di un consenso espresso. Non è una semplice ripetizione del consenso previsto dal GDPR. È un obbligo che riguarda la progettazione del servizio, e cambia l’assetto di partenza.

Duty of care e crisi psicologiche

Un secondo elemento riguarda il duty of care algoritmico dell’articolo 4. Non si chiede alle piattaforme di limitarsi a gestire i danni una volta che si sono prodotti, ma di progettare i propri sistemi in modo da ridurre il rischio all’origine. Nel caso dell’intelligenza artificiale conversazionale questo significa, tra le altre cose, introdurre obblighi specifici di rilevazione delle crisi psicologiche. È un passaggio rilevante anche per una ragione molto semplice: oggi un operatore umano che lavora su linee di supporto o di crisi è sottoposto a regole stringenti; un sistema di IA che può instaurare relazioni emotivamente intense con milioni di adolescenti, invece, non lo è in misura comparabile.

Onere della prova e opacità tecnica

Il terzo aspetto è la responsabilità civile con inversione dell’onere della prova, prevista dall’articolo 12 e modellata sull’articolo 2050 del codice civile. Quando il danno appare verosimilmente collegato al design algoritmico, non può essere il solo utente a doversi misurare con l’opacità tecnica della piattaforma. Il nesso causale viene presunto e spetta al gestore dimostrare di avere adottato tutte le misure idonee a evitare il danno. In questo quadro, il segreto industriale non può essere opposto rispetto alla documentazione tecnica rilevante. Lo standard di prova indicato è quello del “più probabile che non”, con ammissibilità anche di evidenze epidemiologiche.

I limiti del divieto anagrafico

Il Social Media Minimum Age Act australiano del novembre 2024 si comprende bene come risposta emergenziale. Ma una misura di quel tipo, da sola, non interviene sul modello che produce il problema. Tiene fuori una fascia di utenti, ma lascia intatto il design che genera dipendenza e pressione emotiva per tutti gli altri.

Anche per questo un approccio esclusivamente proibizionista presenta limiti evidenti. Come ha ricordato UNICEF nel 2024, esiste il rischio di spingere gli adolescenti verso ambienti digitali meno regolati e meno trasparenti, oppure di escludere proprio i soggetti più fragili da spazi che talvolta rappresentano anche luoghi di relazione e supporto. La domanda, allora, non può ridursi a un sì o a un no ai social. La domanda vera è a quali condizioni possano operare e con quale design. Il DDL 1859 non esclude strumenti di tutela differenziati per età, anzi: l’articolo 6 prevede configurazioni protettive per i minori attive per default. Ma colloca queste misure dentro un impianto che prova a intervenire sulla causa e non solo sugli effetti.

Perché la regolazione degli algoritmi pesa sulla democrazia

Anche il regime sanzionatorio previsto dall’articolo 11 segue questa logica. Le sanzioni arrivano fino al 2 per cento del fatturato mondiale per le violazioni in materia di dipendenza algoritmica e duty of care, e fino al 4 per cento per i casi di influenza e manipolazione selettiva. È prevista inoltre un’aggravante obbligatoria del 50 per cento quando le violazioni riguardano minori o si collocano in prossimità di consultazioni elettorali.

Controlli, fondo e alfabetizzazione digitale

L’autorità competente è AGCOM, con poteri di adozione di linee guida tecniche vincolanti, ispezioni algoritmiche e provvedimenti inibitori urgenti da assumere entro 120 giorni.

Una scelta importante riguarda poi la destinazione degli introiti: l’80 per cento delle sanzioni confluisce in un Fondo per l’alfabetizzazione digitale. Non è un dettaglio accessorio. La formazione degli utenti resta decisiva, ma da sola non può bastare. Continuare a parlare soltanto di educazione digitale senza intervenire anche sui modelli di business e sulle tecniche di progettazione significa, in fondo, scaricare il peso del problema su chi lo subisce. Servono entrambe le cose: regole più forti e cittadini più consapevoli.

Dal piano nazionale al confronto europeo

Il DDL 1859 non riguarda soltanto un problema nazionale. Si inserisce in una fase in cui il DSA è sottoposto a un attacco politico sempre più esplicito da parte di chi considera la regolazione delle piattaforme un ostacolo, non una garanzia democratica. In questo contesto, la proposta italiana contribuisce a mettere a fuoco un punto che nei prossimi anni diventerà inevitabile anche a livello europeo: non basta chiedere trasparenza, non basta correggere qualche abuso, non basta sanzionare ex post. Occorre entrare nella progettazione dei sistemi che organizzano visibilità, permanenza e pressione emotiva nello spazio pubblico digitale.

È qui che il DDL 1859 prova a spostare il terreno della discussione. Non sulla libertà di parola, ma sulle condizioni tecniche che oggi ne influenzano concretamente l’esercizio. Regolare gli algoritmi non significa stabilire quali opinioni possano circolare. Significa chiedere conto dei meccanismi che determinano che cosa vediamo, per quanto tempo lo vediamo e con quale intensità ci viene spinto addosso. Se non si parte da qui, si continuerà a discutere dei contenuti senza toccare davvero il motore che li governa.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x