ssocial

TikTok dà dipendenza: che vuol dire l’indagine UE



Indirizzo copiato

La Commissione europea contesta a TikTok, nel quadro del DSA, un design capace di favorire comportamenti compulsivi e quindi dipendenza: scroll infinito, autoplay, notifiche e raccomandazioni personalizzate. Le conclusioni preliminari parlano di “autopilot mode”, con rischi accentuati per i minori. Il futuro è il Digital Fairness Act

Pubblicato il 9 feb 2026

Tania Orrù

Privacy Officer e Consulente Privacy Tuv Italia



TikTok dipendenza

TikTok dà dipendenza by design ai propri utenti. C’è una prima conferma ed è un passaggio significativo per il futuro che l’UE vuole preparare per le norme sui social..

Il 6 febbraio 2026 Bruxelles ha pubblicato conclusioni preliminari nel procedimento formale avviato per presunta violazione del Digital Services Act (DSA), sostenendo che alcune scelte di interfaccia e raccomandazione possano generare comportamenti compulsivi e compromettere il benessere psicofisico degli utenti, soprattutto dei minori.

Secondo la Commissione, la combinazione di scroll infinito, autoplay, notifiche push e raccomandazione altamente personalizzata ridurrebbe la capacità di autodeterminazione, favorendo uno stato di uso automatico che l’istituzione definisce “autopilot mode”. Al centro non c’è un singolo “trucco”, ma un insieme di meccanismi che, agendo insieme, aumentano il tempo di permanenza e rendono più difficile interrompere l’uso.

TikTok’s Addictive Design Raises Risks for Children

TikTok dà dipendenza by design, le conclusioni preliminari UE nel quadro del DSA

L’analisi si fonda su un’ampia base istruttoria e, in particolare, su rapporti di risk assessment interni, dati aziendali, risposte formali alle richieste di informazioni della Commissione, letteratura scientifica sul comportamento compulsivo e interviste a esperti in ambito di dipendenze comportamentali. In questo contesto, Bruxelles contesta a TikTok di aver ignorato indicatori chiave di uso problematico, come il tempo di utilizzo notturno da parte dei minori o l’elevata frequenza di apertura dell’applicazione.

Particolarmente critico è anche il giudizio sulle misure di mitigazione adottate. Gli strumenti di gestione del tempo di utilizzo e i controlli parentali attualmente disponibili sono considerati inefficaci, facilmente eludibili e incapaci di introdurre una frizione reale nel comportamento dell’utente. Per la Commissione è necessario intervenire sul design di base del servizio, fino a ipotizzare la disattivazione progressiva di funzionalità strutturalmente “addictive” come lo scroll infinito o l’introduzione di pause obbligatorie, anche nelle fasce notturne.

Le conclusioni restano preliminari e TikTok potrà esercitare il proprio diritto di difesa. Tuttavia, qualora fossero confermate, la Commissione potrebbe adottare una decisione di non conformità con sanzioni ai sensi del Regolamento (UE) 2022/2065 (Digital Services Act). Quest’ultimo consente infatti alla Commissione di comminare multe fino al 6% del fatturato annuo globale in caso di violazione degli obblighi di gestione dei rischi sistemici da parte delle grandi piattaforme online.

Come il design additivo TikTok diventa un rischio sistemico

Nelle sue valutazioni nei confronti di TikTok, la Commissione è giunta a riconoscere un problema strutturale dell’economia digitale contemporanea, cioè l’evoluzione dei dark pattern da tecniche ingannevoli puntuali ad architetture di interazione fondate sulla dipendenza.

Negli ultimi anni, l’attenzione regolatoria si è concentrata soprattutto su pratiche come subscription traps, informazioni nascoste o finti messaggi di urgenza. Oggi il focus si sposta su qualcosa di più profondo: il design additivo, ovverosia la progettazione intenzionale di interfacce che sfruttano meccanismi neurocognitivi simili a quelli del gioco d’azzardo.

Lo scroll infinito, le ricompense intermittenti, la personalizzazione spinta dei contenuti sembrano semplici scelte di user experience, mentre sono in realtà strumenti che operano sulla capacità attentiva, sulla percezione del tempo e sulla soglia di autocontrollo, trasformando l’interazione digitale in una sequenza di micro-decisioni sempre meno consapevoli.

Design additivo TikTok e dark pattern invisibili

La difficoltà di intercettare questi fenomeni risiede anche nel fatto che i dark pattern contemporanei raramente si presentano come pratiche isolabili o apertamente ingannevoli.

Finché si trattava di pulsanti asimmetrici, timer fittizi o percorsi di disdetta deliberatamente complessi, era ancora possibile orientarsi; ora però, di fronte a configurazioni sistemiche dell’esperienza utente, il quadro si complica.

Meccanismi come lo scroll infinito (cioè la rimozione del punto di arresto naturale dell’interazione), l’autoplay automatico (l’eliminazione della necessità di una scelta attiva), le notifiche intermittenti (l’attivazione di ricompense imprevedibili) o la frizione selettiva (che rende più difficili eseguire le scelte indesiderate dalla piattaforma), pur non impedendo formalmente una scelta alternativa, la rendono progressivamente meno probabile.

Il risultato è un’architettura decisionale che non forza l’utente, ma lo conduce “per mano”, sfruttando bias cognitivi noti (come l’avversione alla perdita, la ricompensa variabile o l’inerzia comportamentale), fino a trasformare l’interazione in una sequenza di decisioni sempre meno consapevoli.

Nello slittamento dal singolo artificio alla combinazione di elementi apparentemente neutri, i dark pattern cessano di essere facilmente riconoscibili come tali, ma continuano a produrre effetti manipolativi rilevanti.

La metamorfosi (da pratica sleale puntuale a design strutturalmente orientato alla dipendenza) ha messo in crisi gli strumenti giuridici tradizionali, imponendo come non più procrastinabile una riflessione sulla responsabilità complessiva dell’architettura digitale.

Dipendenza TikTok, vulnerabilità e perdita di autonomia

Un elemento centrale di questa evoluzione è la personalizzazione predittiva. I sistemi algoritmici, infatti, oltre a suggerire contenuti in base alle preferenze dichiarate, apprendono e sfruttano stati emotivi e contesti di vulnerabilità, come stanchezza, stress, solitudine, orari notturni.

Il risultato è una forma di influenza che si esercita sull’intero ambiente decisionale: l’utente viene accompagnato verso scelte prevedibili in un contesto che riduce sistematicamente le alternative e amplifica gli impulsi.

È proprio questa dimensione sistemica che rende sempre meno adeguati gli strumenti tradizionali del diritto dei consumatori e della protezione dei dati.

Le evidenze del report “Deadly by Design”

Questo approccio regolatorio trova eco anche nelle evidenze indipendenti emerse già da qualche anno con il report “Deadly by Design” del Center for Countering Digital Hate (CCDH) nel Regno Unito: esperimenti con account “teen” su TikTok hanno mostrato come l’algoritmo raccomandi contenuti su suicidio e disturbi alimentari entro pochi minuti dalla registrazione, con frequenze che sfidano qualsiasi buona pratica educativa o di protezione dei minori.

Il CCDH mira da sempre a dimostrare che i sistemi predittivi, oltre a massimizzare il tempo di permanenza, identificano e amplificano vulnerabilità, richiedendo un safety by design strutturale delle piattaforme.

Da questa evidenza empirica il CCDH aveva già da tempo sottolineato l’urgenza di una normativa europea che riconosca sia il rischio di abuso di informazioni, sia i rischi algoritmici di danno psicologico e cognitivo.

Design additivo TikTok e tutela dei minori in Europa

La posizione della Commissione nei confronti di TikTok mostra con particolare evidenza perché c’è urgenza di correggere questa deriva. Quando il design additivo coinvolge i minori, la posta in gioco riguarda la loro salute mentale, il loro sviluppo cognitivo e la loro capacità di esercitare diritti fondamentali.

Non a caso, il DSA attribuisce alle piattaforme una responsabilità esplicita per gli effetti sistemici dei loro servizi.

Come dichiarato dalla vicepresidente esecutiva Henna Virkkunen, «il Digital Services Act rende le piattaforme responsabili per gli effetti che possono avere sui loro utenti».

TikTok e le nuove restrizioni nazionali ai social

La visione critica della Commissione europea nei confronti di TikTok e del design additivo rientra in un quadro più ampio di ridefinizione delle regole per proteggere i minori nelle piattaforme digitali.

Negli ultimi mesi, diversi Stati europei hanno adottato o proposto misure normative che vanno oltre la semplice trasparenza o gli obblighi informativi, arrivando a vietare l’accesso alle piattaforme social ai più giovani.

Il disegno di legge francese

In Francia, l’Assemblea nazionale ha approvato un disegno di legge che vieterebbe l’uso dei social media ai minori di 15 anni, in un testo sostenuto dal presidente Emmanuel Macron e pensato per mitigare i rischi psicologici e sociali dell’iperconnessione digitale. Il testo impone obblighi stringenti di verifica dell’età da parte delle piattaforme e proibisce l’accesso alle reti sociali ai più giovani, con il passaggio definitivo del provvedimento ora all’esame del Senato. In caso di approvazione, Parigi diventerebbe uno dei primi grandi Paesi europei ad adottare questa linea restrittiva nel contesto digitale.

Questa misura riflette una visione in cui si intende disciplinare l’accesso alle piattaforme stesse in funzione della capacità di autocontrollo e di sviluppo cognitivo dei minori, riconoscendo implicitamente che l’esposizione precoce agli ecosistemi algoritmici può produrre danni strutturali alla salute mentale.

L’iniziativa spagnola e altri Paesi europei

In Spagna il governo guidato da Pedro Sánchez ha annunciato una misura simile, che vieterebbe l’accesso ai social ai minori di 16 anni. L’iniziativa spagnola fa parte di una riforma più ampia sulla sicurezza digitale e la protezione dei minori, che include anche la possibilità di sanzionare penalmente dirigenti e piattaforme che non rimuovono contenuti illegali o che consentono abusi attraverso l’uso di algoritmi. Il provvedimento è attualmente all’esame del Congresso spagnolo nell’ambito di una legge di protezione dei minori negli ambienti digitali.

Altre nazioni, come la Danimarca, stanno definendo accordi politici per fissare limiti nazionali simili (per esempio 15 anni). Dibattiti su restrizioni analoghe sono aperti anche nel Regno Unito e in altri contesti europei, con proposte di legge e valutazioni politiche in corso.

Queste iniziative rappresentano una risposta normativa forte e preventiva alle pressioni esercitate dalle architetture di design additivo e dalle strategie di engagement algoritmico che la Commissione europea ha recentemente contestato a TikTok.

Le misure nazionali implicano una ridefinizione dell’accesso digitale stesso, con risvolti profondi su età minima di partecipazione all’ecosistema digitale, responsabilità delle piattaforme per il design delle loro interfacce e implementazione di sistemi di verifica dell’età robusti (non solo formali).

La tendenza normativa nazionale, pur non risolvendo da sola il problema strutturale dei modelli di business basati sull’attenzione, rappresenta comunque un tentativo di superare la mera regolazione di contenuti o informative di consenso, puntando piuttosto a proteggere attivamente le capacità decisionali dei minori, anche attraverso limitazioni all’accesso.

Il limite delle risposte nazionali: perché serve una cornice europea uniforme

Per quanto politicamente comprensibili, le iniziative nazionali che puntano a vietare o limitare l’accesso ai social media per i minori difficilmente possono rappresentare una soluzione strutturale a un problema che è, per sua natura, transnazionale e sistemico. Le piattaforme digitali operano senza confini e non modulano il proprio design in base alle frontiere nazionali. Il rischio è che misure frammentate producano un mosaico regolatorio disomogeneo, facilmente aggirabile e incapace di incidere sulle logiche profonde dei modelli di business basati sull’engagement.

In questo senso, il proliferare di divieti nazionali può essere letto come un segnale politico di urgenza più che come una risposta realmente efficace al fenomeno del design additivo. Vietare l’accesso ai minori non è una soluzione che interviene sulle architetture persuasive (che restano intatte per tutti gli altri utenti) e non affronta il nodo centrale evidenziato dalla Commissione stessa nei confronti di TikTok, cioè il design come fonte di rischio sistemico.

Proprio per questo, la responsabilità in capo alla Commissione è quella di dettare una cornice europea comune, capace di fissare principi uniformi di fairness, safety e lealtà del design applicabili a tutte le piattaforme operanti nel mercato unico.

In assenza di una presa di posizione armonizzata, si rischia infatti di scaricare sugli Stati membri l’onere politico di decisioni drastiche, oltre che di lasciare irrisolto il problema strutturale di un’industria che continua a progettare interfacce ottimizzate per la dipendenza, e non certo per l’autonomia dell’utente.

Dal design additivo TikTok alla svolta della digital fairness

Per anni la regolazione digitale europea si è concentrata sul consenso informato come presidio della libertà individuale e banner, informative e checkbox sono diventati il simbolo di un approccio formalmente garantista, rivelatosi però spesso sostanzialmente inefficace.

Oggi la Commissione europea sembra riconoscere il limite di questa impostazione, considerando che un’interfaccia può essere formalmente conforme (perché l’utente ha “accettato”) ma al tempo stesso intrinsecamente scorretta, perché progettata per orientare, trattenere o sfruttare.

Cosa dice il Digital Fairness Fitness Check

In questa prospettiva si collocano le conclusioni del Digital Fairness Fitness Check, pubblicate dalla Commissione europea a fine 2024. L’analisi parte da un presupposto esplicito: le normative esistenti (dal GDPR alla disciplina consumeristica) sono state costruite per correggere singole asimmetrie informative, ma non sono attrezzate per intervenire su modelli di business che fondano la propria redditività sulla manipolazione sistematica del comportamento degli utenti.

I dark pattern, il design additivo e le architetture persuasive, oltre a produrre effetti distorsivi sul piano dell’autonomia decisionale, generano un danno economico misurabile, che la Commissione stima in almeno 7,9 miliardi di euro l’anno a carico dei consumatori europei. È questo passaggio, dalla violazione individuale al pregiudizio strutturale, che segna il limite dell’attuale impianto regolatorio e rende necessaria una risposta politica.

Il progetto di Digital Fairness Act

La risposta politica è il Digital Fairness Act, annunciato come una delle iniziative chiave del mandato 2024–2029, con l’obiettivo di introdurre un principio generale di lealtà del design, rendendo la progettazione delle interfacce oggetto diretto di valutazione giuridica.

Così, tra risposte nazionali emergenziali e necessità di una governance europea coerente, si colloca il senso di questa nuova regolamentazione, quale tentativo di riportare l’architettura delle piattaforme dentro un perimetro giuridico comune, capace di garantire diritti effettivi anche (e soprattutto) agli utenti più vulnerabili. L’animo del Digital Fairness Act è stabilire se sia possibile conciliare sostenibilità economica e rispetto dell’autonomia dell’utente, superando l’idea che l’attenzione sia una risorsa da estrarre senza limiti.

Digital Fairness Act e rischio di proliferazione normativa in Europa

Se il caso TikTok mostra un problema reale e urgente, la risposta normativa proposta (il DFA) solleva un interrogativo più profondo: l’Europa ha davvero bisogno di un’altra legge, o piuttosto di una migliore applicazione e semplificazione di ciò che già esiste?

Alcune analisi critiche avvertono che la proposta rischia di generare sovrapposizioni normative in un quadro legislativo digitale europeo già estremamente denso, che comprende Digital Services Act, Digital Markets Act, GDPR e una serie di direttive consumeristiche. Secondo tali analisi, molte delle pratiche che il DFA si propone di colpire (dai dark pattern alla personalizzazione sleale, dalle subscription trap alle tecniche di marketing manipolativo) sono già soggette a normative esistenti. In questo senso, il problema sarebbe la scarsa applicazione e coordinazione delle regole già in vigore.

L’introduzione di una nuova legge rischia così di accrescere la complessità regolatoria, senza davvero affrontare la radice delle difficoltà interpretative e applicative.

Inoltre, alcune proposte all’interno della consultazione sul DFA (come un generico obbligo di fairness by design o la ridefinizione di alcuni concetti consolidati nel diritto dell’Unione, come consenso, pratiche sleali, responsabilità) potrebbero sostituire criteri di valutazione tipizzati, creando standard vaghi e incerti (per esempio valutazioni complessive di fairness difficilmente prevedibili). Ciò comprometterebbe la certezza del diritto, favorendo una compliance difensiva piuttosto che un reale adattamento delle piattaforme.

L’Unione europea, inseguendo una continua proliferazione normativa, rischia di non perseguire la semplificazione e l’efficacia, alternando nuovi regolamenti con successive semplificazioni, senza mai risolvere davvero il nucleo del problema, cioè tradurre responsabilità digitale e tutela dell’autonomia dell’utente in obblighi operativi, chiari e applicabili per chi progetta e gestisce sistemi digitali complessi.

Dal caso TikTok alla fairness europea del design

Il comunicato della Commissione sul design additivo di TikTok, da cui prende avvio questa analisi, rende evidente un punto ormai difficilmente contestabile: il design delle piattaforme è una fonte autonoma di rischio giuridico, sociale ed economico.

Il Digital Services Act ha fornito gli strumenti per intervenire ex post, individuando responsabilità e imponendo correttivi anche incisivi, ma piattaforme come TikTok mostrano i limiti di un approccio che arriva quando il danno si è già prodotto.

Il Digital Fairness Act non sembra una risposta risolutiva, ma un tentativo (ancora aperto e controverso) di spostare l’asse della regolazione dal controllo delle violazioni alla disciplina delle architetture. Il rischio, come visto, è quello di introdurre principi troppo vaghi o sovrapposti; l’alternativa, però, sarebbe continuare a trattare la manipolazione sistemica come una deviazione marginale, anziché come un tratto strutturale dell’economia dell’attenzione.

La vera soluzione sarà trasformare la fairness da slogan regolatorio in criterio giuridico operativo, capace di incidere sul modo in cui le piattaforme progettano, testano e monetizzano l’interazione con gli utenti.

Le conclusioni preliminari della Commissione nei confronti di TikTok suggeriscono comunque che il tempo delle ambiguità sta finendo. In fondo, l’Unione europea si sta finalmente chiedendo se possiamo continuare a chiamare “scelta” un comportamento indotto da un’architettura pensata per non farci smettere. Non sembra poco.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x