basi giuridiche

Signorini diffida Meta, TikTok e Youtube: che dicono le norme



Indirizzo copiato

La diffida dei legali di Alfonso Signorini a Meta, TikTok, YouTube e Google chiede rimozione e blocco dei contenuti diffusi da Fabrizio Corona e dal canale “Falsissimo”. Il tema è dirimente per la privacy e il la questione delle responsabilità delle piattaforme. Vediamo che dice il diritto in materia

Pubblicato il 7 gen 2026

Tania Orrù

Privacy Officer e Consulente Privacy Tuv Italia



signorini diffida

Il conflitto tra Alfonso Signorini e le principali piattaforme social (Meta, TikTok, YouTube), innescato dalla diffusione di contenuti privati veicolati da Fabrizio Corona, rischia di essere liquidato come l’ennesima controversia da cronaca rosa. Ma sarebbe un errore di prospettiva.

Signorini diffida Facebook, Instagram e Google e chiede di oscurare Falsissimo: può farlo?

La notizia sembra appartenere al repertorio delle dispute di spettacolo, ma che in realtà contiene un elemento potenzialmente dirompente per il diritto digitale europeo: gli avvocati del giornalista e conduttore televisivo Alfonso Signorini hanno formalmente diffidato Facebook, Instagram, YouTube e TikTok chiedendo la rimozione e il blocco dei contenuti diffusi da Fabrizio Corona e dal suo canale “Falsissimo”, poiché ritenuti illeciti e lesivi della sua reputazione e della sua sfera privata.

Signorini e social, responsabilità delle piattaforme: perché una diffida cambia la partita

La lettera di diffida, notificata alle grandi piattaforme social, oltre a contestare la presenza di immagini o conversazioni personali sul web, accusa i giganti del digitale di aver consentito la diffusione di materiale che “infanga la reputazione” di Signorini e di non aver adottato misure adeguate per impedirne la circolazione e le ricadute sulla sua immagine.

La richiesta è netta: rimozione immediata dei contenuti diffusi da Corona e oscuramento dell’account e del format “Falsissimo”, che li ha veicolati.

Nel testo della diffida, i legali sostengono che la diffusione delle conversazioni e delle immagini attinenti alla sfera privata sia “illecita, ripetuta e artefatta” e che abbia prodotto danni irreversibili alla reputazione di Signorini. I legali avvertono inoltre le piattaforme che, anche nel caso in cui i magistrati dovessero archiviare l’accusa a Corona di diffusione illecita di immagini a contenuto sessualmente esplicito, potranno sempre essere ritenuti responsabili di ricettazione di dati di provenienza illecita (in quanto i contenuti messi in rete da Corona resterebbero di fatto illegali perché violerebbero la legittima privacy di Alfonso Signorini).

Gli avvocati di Signorini starebbero valutando inoltre anche una citazione in giudizio civile contro Facebook, YouTube, Instagram, TikTok e Google, cioè contro “tutti coloro che hanno fatto da sua cassa di risonanza”, con richiesta di risarcimenti milionari, poiché calcolati sulla base della fama e del successo professionale di Signorini.

La linea difensiva adottata da Signorini appare strutturata e progressiva: alla contestazione penale dell’autore dei contenuti, si affianca la richiesta di rimozione e blocco rivolta ai social network, con la possibilità di estendere il conflitto sul piano civilistico nei confronti degli operatori tecnologici. La vicenda solleva questioni giuridiche di portata sistemica.

Dalla cronaca rosa ai rischi sistemici della viralità algoritmica

La domanda infatti è quanto siano responsabili le piattaforme quando la viralità algoritmica moltiplica la diffusione di materiale sensibile e, fino a che punto, il diritto dell’Unione europea (in particolare, Digital Services Act e GDPR) possa essere richiamato per imporre obblighi proattivi ai gatekeeper digitali.

Occorre prendere le mosse da queste domande per analizzare il cambio di prospettiva nel rapporto tra piattaforme, creatori di contenuti “borderline” e diritti della personalità, con l’obiettivo di guardare oltre la cronaca e indagare le implicazioni giuridiche, tecnologiche ed economiche del conflitto “Signorini–piattaforme”.

Al di là dello stabilire se un personaggio pubblico debba sopportare una soglia più elevata di esposizione mediatica, è opportuno comprendere che cosa accade quando la lesione della sfera privata da fatto isolato diventa fenomeno reiterato, amplificato e monetizzato da architetture tecnologiche che premiano il contenuto più polarizzante.

Il contesto Ue e la responsabilità delle piattaforme tra DSA, GDPR e Corte Ue

La vicenda si colloca in un momento storico in cui il legislatore europeo ha smesso di considerare le piattaforme come meri canali tecnici. Il DSA, insieme al GDPR e alla giurisprudenza più recente della Corte di Giustizia dell’Unione europea (vedi sentenza Russmedia), costruisce un quadro in cui l’intermediazione digitale è riconosciuta come attività dotata di un impatto sociale autonomo.

Non si tratta più soltanto di trasmettere informazioni: le piattaforme selezionano, ordinano, raccomandano. In altri termini, intervengono sulla visibilità. E la visibilità, nell’economia dell’attenzione, è potere.

È in questo contesto che una diffida come quella inviata dai legali di Signorini può essere letta come un tentativo di testare i confini di una responsabilità che il diritto europeo sta ancora faticosamente definendo.

DSA: dalla reazione alla diligenza qualificata

Dal punto di vista del diritto digitale, la posizione di Signorini non può dirsi priva di fondamento. In primo luogo, in quanto il DSA supera la logica del mere conduit ereditata dalla Direttiva e-Commerce: sotto quel regime, la responsabilità era esclusa salvo conoscenza effettiva e mancata rimozione dopo segnalazione.

Il DSA non abroga formalmente le esenzioni di responsabilità (mere conduit, caching, hosting), ma ridefinisce e amplia il regime complessivo, obbligando le piattaforme ad adottare misure proattive di gestione dei rischi e di trasparenza, in particolare per le Very Large Online Platforms. Pur escludendo un obbligo generale di sorveglianza, il DSA introduce una diligenza qualificata in presenza di contenuti manifestamente illegali.

Una volta ricevuta una segnalazione adeguatamente motivata, l’inerzia della piattaforma non è più neutra, ma diventa una scelta.

GDPR: sfera intima e diritti della personalità

Uno degli aspetti più rilevanti del caso riguarda la qualificazione giuridica del contenuto diffuso. Siamo infatti di fronte a una divulgazione di informazioni attinenti alla sfera privata e intima della persona. Si tratta di dati che, per contenuto e contesto, rientrano nelle categorie particolari di cui all’articolo 9 del GDPR, o comunque riguardano diritti della personalità costituzionalmente tutelati, quali identità, reputazione, riservatezza.

Re-victimization algoritmica e danno incrementale: il tempo non attenua l’offesa

La peculiarità dell’ambiente digitale è che la violazione non si esaurisce nell’atto originario di pubblicazione: ogni riproposizione del contenuto nei flussi algoritmici (Reels, For You Page, suggerimenti automatici) costituisce un nuovo trattamento del dato, orientato a massimizzare il coinvolgimento dell’utente.

Qui emerge il concetto di re-victimization algoritmica: la piattaforma, nel tentativo di ottimizzare l’engagement, contribuisce a rinnovare e amplificare il danno, trasformandolo in un processo continuo, anziché limitarlo a evento isolato.

Nel diritto tradizionale, il danno alla reputazione o alla riservatezza è concepito come un fatto delimitato nel tempo; nel contesto digitale, questa impostazione mostra tutta la sua inadeguatezza. Il danno diventa incrementale, poiché ogni visualizzazione, ogni ricondivisione, ogni nuova raccomandazione algoritmica aggiunge un ulteriore livello di lesione.

Il tempo così, anziché attenuare l’offesa, la consolida. Questo mutamento ontologico del danno impone una rilettura anche degli strumenti di tutela e dimostra che non è più sufficiente intervenire ex post. La persistenza del contenuto rende necessaria una riflessione sulla responsabilità sistemica di chi governa i meccanismi di diffusione.

Notice & takedown, monetizzazione e rischio di over-removal

In secondo luogo, rileva il profilo economico: se un contenuto lesivo genera traffico e tale traffico viene monetizzato attraverso la pubblicità, la piattaforma trae un beneficio diretto dalla violazione. Questo elemento può fondare una responsabilità per concorso, almeno sul piano civilistico.

Infine, il ricorso a strumenti cautelari, come l’articolo 700 c.p.c., appare coerente con la natura del danno digitale, che per sua struttura tende all’irreversibilità.

Le Big Tech, tuttavia, possono avvalersi di argomenti difensivi. L’articolo 8 del DSA ribadisce infatti l’assenza di un obbligo generale di monitoraggio e le piattaforme adducono che una rimozione estensiva potrebbe tradursi in una forma di censura privata, con effetti distorsivi sulla libertà di espressione.

Inoltre, il richiamo al diritto di cronaca resta centrale. In presenza di personaggi pubblici, il bilanciamento tra interesse pubblico e tutela della privacy è complesso e tradizionalmente affidato al giudice, non a un algoritmo.

Infine, c’è la questione della qualità delle segnalazioni: una rimozione efficace presuppone notifiche precise, circostanziate, giuridicamente fondate.

Nonostante questi argomenti di difesa, il modello notice & takedown mostra limiti evidenti, poiché scarica l’onere della tutela sul soggetto leso, che deve “inseguire” un contenuto replicato all’infinito. In un contesto di viralità, questo modello appare strutturalmente inadeguato, dal momento che la velocità della diffusione supera la capacità di reazione individuale, creando un’asimmetria difficilmente colmabile.

Verso una responsabilità delle piattaforme di fatto: cosa rende il caso un test europeo

Il nodo centrale, tuttavia, resta l’economia dell’illecito. Se un contenuto che viola diritti fondamentali genera traffico, viene amplificato dagli algoritmi e produce ricavi pubblicitari, allora il gatekeeper, da semplice intermediario, diventa inevitabilmente un attore economico vero e proprio, del tutto integrato nel processo lesivo.

Nonostante nessuno chieda di trasformare le piattaforme in editori tradizionali, ignorare il ruolo attivo che esse svolgono nella selezione e valorizzazione dei contenuti significa negare l’evidenza. La responsabilità che emerge è una responsabilità editoriale di fatto, ancora priva di una piena codificazione, ma sempre più difficile da eludere.

Questo caso rappresenta pertanto un passaggio di rilievo, poiché mostra quanto il diritto europeo sia chiamato a confrontarsi con una realtà in cui la violazione dei diritti della personalità può diventare un modello di business.

Se la giurisprudenza accoglierà l’impostazione della diffida, il messaggio sarà chiaro: la responsabilità delle piattaforme si misura, oltre che su ciò che sanno, anche (e soprattutto) su ciò che scelgono di monetizzare. In questo scarto, tra sapere e profitto, si gioca il futuro della regolazione digitale in Europa.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x