youtube, meta, tiktok

La censura big tech sui diritti umani: Palestina, Ucraina, Siria e gli altri casi



Indirizzo copiato

La rimozione di centinaia di video di ONG palestinesi da YouTube, per rispettare le sanzioni statunitensi, mostra come la compliance legale possa diventare censura sistemica, incidendo su diritti umani, memoria storica e accesso alle prove in contesti di conflitto digitale. E i casi analoghi sono numerosi, di altre big tech, ai danni dei diritti umani

Pubblicato il 28 nov 2025

Barbara Calderini

Legal Tech – Compliance Manager



big tech censura diritti umani

Negli ultimi mesi, la decisione di YouTube di cancellare oltre 700 video appartenenti a organizzazioni palestinesi per i diritti umani ha acceso un dibattito denso e complesso, in cui si intersecano libertà di espressione, politica estera, obblighi normativi e responsabilità delle piattaforme digitali[1].

Il punto è che le big tech sembrano sempre più propense a censurare temi scomodi, spesso sulla scorta di richieste degli Stati Uniti, leggi Donald Trump.

https://www.agendadigitale.eu/cultura-digitale/competenze-digitali/sanzioni-usa-a-francesca-albanese-perche-sono-un-test-per-la-sovranita-europea

Il caso Youtube e la palestina: censura sui diritti umani

Al-Haq, il Palestinian Centre for Human Rights e l’Al Mezan Center for Human Rights avevano caricato su YouTube inchieste, testimonianze, documentari che denunciavano demolizioni, torture, omicidi e violazioni dei diritti umani, contribuendo a costruire un archivio digitale visibile a scala globale.

La piattaforma ha giustificato la rimozione con l’obbligo di rispettare la normativa[2] sulle sanzioni statunitensi legate a tali organizzazioni, citando dunque precisi motivi di compliance legale[3].

Questo episodio non è un’anomalia isolata, certamente non riguarda solo contenuti palestinesi, ma rappresenta una forma emergente di censura ibrida e sistemica, dove le normative finiscono per orientare le decisioni di moderazione delle grandi piattaforme tecnologiche.

Quando piattaforme dominanti come YouTube si trovano a fare da “esecutori” di sanzioni statali, la distinzione tra obbligo legale e censura politica si fa labile, e i più vulnerabili possono essere esclusi dal dibattito pubblico.

YouTube, diritti umani: archivi digitali e sanzioni statunitensi

Il caso specifico si richiama al comunicato del Dipartimento di Stato statunitense del 4 settembre 2025 con il quale si annuncia l’imposizione di sanzioni nei confronti delle tre ONG palestinesi — Al‑Haq, Al Mezan Center for Human Rights e il Palestinian Centre for Human Rights — accusate di aver collaborato direttamente con la Corte Penale Internazionale (International Criminal Court- ICC) nell’indagine o nella persecuzione di cittadini israeliani, nonostante Stati Uniti e Israele non fossero parti dello Statuto di Roma. Le designazioni sono state adottate ai sensi dell’Executive Order 14203, che per l’appunto vieta il sostegno a indagini della ICC considerate “illegittime” da Washington.

La giustificazione fornita da YouTube — basata sulla necessità di conformarsi a sanzioni statunitensi rivolte a soggetti ritenuti coinvolti in procedimenti della Corte Penale Internazionale — evidenzia però una trasformazione sostanziale del ruolo della piattaforma: da semplice mediatore di contenuti a attore di compliance transnazionale.

In altre parole, la moderazione non è più motivata esclusivamente da criteri editoriali o da policy interne relative a disinformazione, hate speech o contenuti violenti, ma diventa lo strumento attraverso il quale l’azienda traduce vincoli normativi, in questo caso statunitensi, in azioni concrete di gestione dei contenuti a livello globale.

Tale evoluzione produce ricadute rilevanti: le scelte non risultano più orientate esclusivamente dalle dinamiche interne della comunità o da principi di “correttezza digitale”, ma si conformano a vincoli giuridici esterni, i cui effetti si estendono al di là dei confini della giurisdizione statunitense.

Dal punto di vista pratico, la conseguenza immediata non è limitata solo alla riduzione della visibilità di organizzazioni e attivisti. La rimozione dei video comporta, infatti, anche una diminuzione dell’archivio pubblico digitale, con impatti rilevanti sulla conservazione della memoria storica e sulla documentazione di violazioni dei diritti umani.

I contenuti eliminati non costituiscono meri strumenti di comunicazione, ma prove audiovisive potenzialmente idonee ad essere utilizzate per indagini, reportistica giornalistica e attività di advocacy internazionale.

Ed è proprio in tale prospettiva che la decisione di YouTube assume una dimensione politica e sociale pesante: eliminare o limitare l’accesso a informazioni che contribuiscono alla costruzione di un registro di elementi di accountability internazionale, essenziale per valutare eventuali responsabilità legali e politiche in contesti di conflitto, evidenzia come la compliance legale – in questo caso l’obbligo di rispettare misure statali – possa tradursi in una forma di censura sistemica.

Vale a maggior ragione quando la piattaforma decide di rimuovere interi archivi, non solo singoli video. Ciò significa non solo la perdita di un patrimonio documentale essenziale, ma anche una mutilazione del diritto all’informazione e della possibilità di rendere conto delle responsabilità internazionali: YouTube, in pratica, partecipa a un disegno più ampio che influenza la responsabilità di chi potrebbe aver commesso gravi violazioni.

Le big tech filtrano le informazioni: censura

L’impatto di tale rimozione si estende inoltre all’asimmetria di potere nella narrazione globale. Le organizzazioni in una posizione geopoliticamente marginale, vedono ridotta la loro capacità di incidere sul dibattito pubblico internazionale, mentre altre narrazioni, spesso supportate da Stati o attori con maggiore peso politico ed economico, rimangono intatte o privilegiate dagli algoritmi delle piattaforme. Così, un atto che formalmente risponde a obblighi di compliance commerciale produce effetti de facto di filtraggio selettivo delle informazioni, ponendo questioni critiche sul ruolo delle grandi piattaforme digitali come arbitri della memoria, della documentazione storica e della rappresentazione dei conflitti.

Oltretutto, la mancanza di preavviso nell’eliminazione dei canali e la motivazione generica (“violazione delle linee guida”) mettono in luce l’aspetto più inquietante di operazioni del genere: la discrezionalità e l’opacità delle piattaforme tecnologiche nel prendere decisioni che hanno un impatto diretto su diritti fondamentali. Ci si trova dunque di fronte a una tensione strutturale: da un lato, la necessità che le aziende tecnologiche rispettino le leggi internazionali, dall’altro, la loro responsabilità come custodi della memoria storica e delle testimonianze di violazioni.

La scelta di YouTube non può, certamente, essere interpretata come una specifica esecuzione tecnica di obblighi normativi. Al contrario, essa si configura come un passaggio cruciale nella governance globale dell’informazione, con ricadute etiche, giuridiche e politiche che travalicano i confini della piattaforma. Tale scelta solleva, invero, significative questioni in materia di libertà di espressione e di accesso alle prove e alle testimonianze in contesti di giustizia internazionale.

Per comprendere appieno la gravità e le implicazioni di quanto accaduto, è quindi necessario collocare il caso YouTube in un quadro più ampio di governance digitale e geopolitica.

Questo articolo esplorerà le radici giuridiche della decisione, il suo impatto, e i rischi che ne derivano per la libertà di espressione. Verranno menzionati casi paralleli, inclusi interventi di altre piattaforme (Meta, Telegram, X) e giustificazioni statali contrapposte, così da offrire una visione bilanciata e critica, non solo “filo-palestinese”, ma attenta alle dinamiche più ampie che governano l’informazione digitale globale.

Censura ibrida e potere informativo delle rimozioni di contenuti dalle big tech

L’intreccio tra obblighi di compliance e dinamiche politico-discorsive mostra come le decisioni delle piattaforme non siano mai pienamente riconducibili a un unico vettore causale. In tal senso, anche la rimozione dei contenuti prodotti da organizzazioni palestinesi per i diritti umani assume la forma di una censura ibrida, al crocevia fra vincoli giuridici, interessi economici e configurazioni geopolitiche. La logica prudenziale imposta dall’ordinamento sanzionatorio statunitense fornisce alle aziende una cornice formale di giustificazione, ma questa cornice opera in un ecosistema informativo già segnato da asimmetrie di potere, nel quale determinati attori risultano più facilmente esposti all’etichettamento come rischiosi, nocivi o problematici.

Al tempo stesso, la rimozione sistematica di materiale audiovisivo che documenta violazioni dei diritti umani produce effetti politici propri: limita la capacità delle ONG di costruire dossier probatori, altera la pluralità delle narrazioni disponibili sul conflitto e contribuisce, anche involontariamente, a consolidare quelle rappresentazioni che beneficiano di maggiore riconoscimento istituzionale o di un più ampio capitale geopolitico. Le due prospettive — quella regolatorio-sanzionatoria e quella discorsiva — non vanno quindi lette come dimensioni complementari di un meccanismo di filtraggio che, pur radicato in norme formali, agisce in modo selettivo e performativo, influenzando la stessa possibilità di rendere visibili le ingiustizie. Il risultato è un regime di visibilità che, pur privo dei tratti esplicitamente autoritari della censura statale, ne riproduce alcuni effetti sostanziali, soprattutto quando a essere oscurate sono narrazioni che documentano violenze strutturali già difficili da portare alla luce.

Per cogliere la reale portata politica di decisioni come quella assunta da YouTube che ha cancellato centinaia di video e chiuso canali riconducibili ad organizzazioni palestinesi per i diritti umani è necessario collocarla entro due linee interpretative tra loro intrecciate.

Il quadro normativo e narrativo delle big tech sui diritti umani

La prima riguarda il quadro normativo-sanzionatorio e gli obblighi di conformità che vincolano le imprese statunitensi e le loro controllate. La pratica regolatoria statunitense – sviluppata attraverso ordini esecutivi, normative federali e, soprattutto, l’azione dell’Office of Foreign Assets Control (OFAC) del Dipartimento del Tesoro[4] – impone alle aziende un elevato livello di due diligence nell’evitare qualsiasi forma di interazione con soggetti designati o con attività che possano essere considerate, anche indirettamente, una violazione del regime sanzionatorio. In tale prospettiva, la rimozione di contenuti o la disattivazione di account da parte delle piattaforme non discende solo da una scelta editoriale o politica, ma da una vera e propria strategia prudenziale finalizzata a minimizzare il rischio di sanzioni secondarie, congelamenti di beni, restrizioni operative o ulteriori conseguenze economico-legali.

Questa interpretazione trova riscontro in documenti ufficiali dell’OFAC e in varie dichiarazioni istituzionali che, nel corso degli anni, hanno ribadito come anche attività di pubblicazione, supporto tecnico o facilitazione di contenuti prodotti da entità sanzionate possano rientrare nel perimetro delle condotte vietate.

In altre parole, la logica di compliance tende a incentivare rimozioni “proattive o a monte”, soprattutto quando si tratta di materiali connessi a inchieste o documentazioni ritenute illegittime o destabilizzanti da parte delle autorità che hanno imposto le misure restrittive.

La dimensione politico-discorsiva della moderazione

La seconda linea interpretativa si concentra invece sulla dimensione politico-discorsiva della moderazione dei contenuti, mettendo in luce come le piattaforme digitali non siano semplicemente attori tecnici che applicano regole, ma nodi centrali nella costruzione e nella visibilità delle narrazioni globali. In questo senso, la rimozione dei video prodotti da organizzazioni per i diritti umani non può essere compresa solo come il risultato di un vincolo giuridico esterno: essa si inserisce in un più ampio processo di configurazione dell’agenda informativa, nel quale alcune rappresentazioni come quella del conflitto israeliano-palestinese risultano progressivamente marginalizzate o esposte a livelli di scrutinio più elevati.

La funzione epistemica delle piattaforme e la memoria pubblica

Le piattaforme, soprattutto quelle appartenenti al gruppo delle “Big Tech”, operano in un ambiente segnato da pressioni divergenti. Da un lato sono sollecitate da governi, gruppi di advocacy e alleati strategici a reprimere contenuti ritenuti pericolosi o destabilizzanti; dall’altro sono chiamate a garantire pluralismo, libertà di espressione e accesso a informazioni di rilevanza pubblica. La loro funzione di gatekeeper epistemici fa sì che ogni scelta di moderazione produca effetti immediati sulla circolazione delle prove audiovisive, sulla possibilità di documentare violazioni dei diritti umani e sul modo in cui gli eventi vengono ricordati e interpretati.

Come già evidenziato, la rimozione dei contenuti non si esaurisce nella semplice limitazione della visibilità di specifici attori, ma interviene sulla memoria collettiva del conflitto, determinando quali testimonianze meritino di rimanere disponibili e quali, invece, debbano essere oscurate o relegate ai margini dell’ecosistema informativo. La scelta di mantenere o oscurare determinati materiali assume dunque una valenza costitutiva: modella i confini del dicibile e dell’indicibile, del visibile e dell’invisibile, con effetti che si riverberano sulla possibilità stessa di valutare responsabilità, documentare violazioni dei diritti umani e costruire una memoria pubblica plurale. Non un semplice intervento tecnico, quanto piuttosto un’operazione eminentemente politica, che determina ciò che sopravvive all’oblio algoritmico e quali tracce del conflitto sono autorizzate a entrare nel circuito della testimonianza e della giustizia.

Oltre il caso YouTube: moderazione globale e filtraggio delle prove digitali

La moderazione automatica dei contenuti in contesti “critici” non è un fenomeno episodico, ma strutturale e piuttosto datato — non riguarda un solo conflitto o una sola piattaforma, ma emerge ogni volta che eventi traumatici, guerre o repressioni si intrecciano con la presenza di contenuti visivi sui social.

Crimini di guerra

L’ultimo caso di YouTube non rappresenta un’eccezione isolata. Il rapporto Human Rights Watch (HRW) del 2020 intitolato Video Unavailable: Social Media Platforms Remove Evidence of War Crimes documenta come foto e video che testimoniavano crimini di guerra, atrocità o repressioni – caricati da vittime, testimoni o civili – siano stati cancellati da piattaforme quali YouTube, Facebook o Twitter, impedendo l’uso di tali materiali come prova in inchieste nazionali o internazionali. Secondo HRW, molte di queste rimozioni avvengono con rapidità crescente, spesso tramite algoritmi che bloccano i contenuti “prima che un utente li veda”, ignorandone il potenziale valore probatorio e storico.

Ucraina

Altro caso emblematico si è verificato durante l’invasione russa dell’Ucraina nel 2022. A fronte di un’ondata massiccia di video, immagini e testimonianze caricate da utenti, giornalisti e cittadini — documentando bombardamenti, crimini di guerra, danni a civili e atrocità — molte piattaforme hanno rimosso contenuti ritenuti “violenti”, “sensibili” o “a rischio disinformazione”, con meccanismi che in alcuni casi hanno impedito la permanenza di prove video‑fotografiche. Alcuni legislatori statunitensi — membri della Camera dei Rappresentanti — hanno pubblicamente sollecitato le piattaforme come YouTube, TikTok, Facebook e Twitter affinché “conservino contenuti che potrebbero costituire prove di crimini di guerra in Ucraina”.

Siria

Parallelamente, la rimozione automatica o “soppressione preventiva” di contenuti legittimi è documentata in contesti di guerra e repressione meno dibattuti mediaticamente, come nel conflitto in Siria. Nel 2018, ad esempio, video legati ad attacchi con armi chimiche e bombardamenti — caricati su YouTube — sono scomparsi, prelevati dalle piattaforme in forza di politiche volte a rimuovere “contenuti violenti o estremisti”, nonostante rappresentassero documentazione autentica di crimini contro l’umanità.

Iran

Esistono fonti verificabili che documentano come, durante le proteste scatenate dalla morte di Mahsa Amini nel 2022‑2023 in Iran, il governo abbia imposto blackout Internet e blocchi su piattaforme come Instagram e WhatsApp. Un rapporto di NetBlocks (e la copertura giornalistica ad esso associata) ha segnalato che, il 21 settembre 2022, l’accesso a Instagram e WhatsApp è stato rimosso “su tutti i principali provider Internet” in Iran. Organizzazioni internazionali per la libertà di stampa come Reporters Without Borders (RSF) hanno condannato la restrizione come “un attacco senza precedenti” all’accesso all’informazione. Media internazionali documentano come la misura abbia comportato blackout su scala nazionale, interruzione dei servizi mobili, e blocco delle reti sociali, con l’intento dichiarato di «tagliare fuori» le testimonianze provenienti dalle proteste.

Tutti episodi che evidenziano e dimostrano come la moderazione dei contenuti sulle piattaforme non obbedisca a criteri neutri o uniformi, ma sia fortemente condizionata da pressioni politiche, considerazioni reputazionali e interessi economici, oscillando tra sollecitazioni provenienti dai governi e necessità di conformità normativa e strategica sul mercato.

Il fenomeno si amplifica se si considerano contesti più ampi e storici: nel corso degli anni, numerose organizzazioni per la tutela dei diritti umani hanno documentato come le piattaforme non si limitassero a rimuovere contenuti che attestano atrocità, crimini di guerra o gravi violazioni dei diritti fondamentali — materiale che, se conservato e accessibile, potrebbe costituire prova rilevante per inchieste o procedimenti giudiziari — ma lo facessero senza prevedere alcun meccanismo di archiviazione o conservazione, trasformando le decisioni di moderazione in atti con implicazioni legali, politiche ed etiche che travalicano la sfera puramente tecnica della gestione dei contenuti digitali.

In molti casi, la combinazione tra moderazione automatica (algoritmi), regole interne delle piattaforme, normative e pressioni esterne determina quella che abbiamo già definito una censura algoritmica strutturale: una selezione invisibile ma capillare delle informazioni che determina non solo cosa debba essere “conoscibile”, ma anche — e forse soprattutto — cosa entri nel novero delle testimonianze conservabili, documentabili e valutabili come prova.

Governance selettiva dell’informazione e interessi strategici

Governi e attori istituzionali che hanno sostenuto sanzioni o pressioni contro talune organizzazioni motivano le loro scelte con la necessità di proteggere la sicurezza nazionale, tutelare alleanze e impedire che giudizi internazionali diventino strumenti di delegittimazione politica. Da questa prospettiva, la cooperazione con la Corte Penale Internazionale, se percepita come un atto politico che mira a colpire un alleato, può facilmente legittimare misure restrittive e persino la richiesta alle aziende di interrompere servizi o rapporti commerciali. La posizione di alcuni governi che hanno emesso sanzioni contro attori coinvolti in procedimenti ICC non è dunque puramente un «atto arbitrario di censura», ma la risultante di scelte di politica estera contingente che considerano la tutela degli interessi strategici come priorità indiscussa a prescindere da qualunque forma di bilanciamento con altri diritti sebbene fondamentali.

Non bisogna però confondere questa giustificazione politica con la sua efficacia normativa. La rimozione sistematica di materiale audiovisivo documentante violazioni dei diritti umani genera infatti effetti politici autonomi: riduce la capacità delle ONG di elaborare dossier probatori, altera il pluralismo delle narrazioni sul conflitto e tende, anche involontariamente, a rafforzare le rappresentazioni che godono di maggiore riconoscimento istituzionale o di un più solido capitale geopolitico.

Le due prospettive esaminate — quella regolatoria-sanzionatoria e quella discorsiva — non vanno interpretate come alternative, ma come dimensioni complementari di un meccanismo di filtraggio che, pur fondato su norme formali, opera in maniera selettiva e performativa, influenzando direttamente la possibilità di rendere visibili le ingiustizie. Ne deriva un regime di visibilità che, pur privo dei caratteri esplicitamente autoritari della censura statale, ne riproduce effetti sostanziali, soprattutto quando a essere oscurate sono narrazioni che documentano violenze strutturali già difficili da portare alla luce.

Decisioni automatiche, errori operativi e discrezionalità delle piattaforme

I regimi sanzionatori e le linee guida di compliance non dicono sempre quali misure debbano essere adottate in termini di moderazione dei contenuti multimediali. Le aziende, per tutelarsi, adottano approcci conservativi e spesso non prevedono un vaglio specifico per il «potenziale valore probatorio» di contenuti legati a diritti umani; il risultato è che decisioni complesse vengono eseguite con procedure meccaniche.

Il caso della rimozione di materiale documentario solleva inevitabilmente la questione della proporzionalità: ad esempio, ci si potrebbe chiedere se non sia possibile limitare i flussi economici o interrompere i canali di fundraising senza dover cancellare integralmente gli archivi di documentazione. A ciò si aggiungono le numerose evidenze che dimostrano come le piattaforme siano suscettibili di errori operativi; cancellazioni per «operational error» sono state ammesse persino in contesti che coinvolgevano leader politici, mettendo in luce limiti concreti nella gestione dei contenuti.

La questione si complica ulteriormente considerando coerenza e selettività delle policy. Osservatori indipendenti hanno rilevato come regole apparentemente neutrali vengano applicate in modo disomogeneo: contenuti che esaltano la violenza possono rimanere online, mentre materiale documentario viene rimosso; pagine ufficiali di governi o soggetti statali spesso godono di protezioni dirette che attivisti e ONG devono invece aggirare attraverso canali alternativi. Queste dinamiche contribuiscono a fondare ulteriormente il sospetto — diffuso tra ricercatori e organizzazioni per i diritti umani — che le piattaforme non siano meri strumenti soggetti a normative complesse, ma attori dotati di un potere di governance ibrida (commerciale, tecnica, politica), capaci di modellare il discorso pubblico in modi poco trasparenti e difficilmente verificabili.

La creazione di organismi esterni di revisione, come l’Oversight Board di Meta, svela un debole impegno verso la terzietà, ma al contempo ne mette in luce i limiti pratici: alcune decisioni vengono effettivamente ribaltate, mentre la struttura di moderazione rimane sostanzialmente interna e frammentata.

È ormai acclarato che le risposte delle piattaforme digitali al conflitto e alla disinformazione non sono uniformi: ad esempio, nel corso del conflitto iniziato l’8 ottobre 2023 fra Hamas e Israele, Meta (attraverso Instagram e Facebook) ha cancellato o nascosto oltre 1.050 contenuti — in massima parte testimonianze pacifiche di solidarietà con la Palestina — identificati come «pro‑palestinesi». Il dato è stato raccolto da Human Rights Watch (HRW), che ha evidenziato come la policy interna di “Organizzazioni e Individui Pericolosi” venga applicata in modo estensivo, favorendo la rimozione sistematica delle voci critiche o alternative rispetto alla narrativa dominante.

Nel contempo, mentre Meta intensificava la sua moderazione — in alcuni casi arrivando a sospendere account o attivare meccanismi di “shadow banning” — altre piattaforme del cosiddetto ecosistema digitale hanno mostrato approcci differenti. In particolare, l’osservazione empirica del panorama moderazione nell’Unione Europea a seguito dell’entrata in vigore del Digital Services Act (DSA) evidenzia che la frequenza e la modalità di rimozione variano drasticamente da piattaforma a piattaforma: secondo uno studio recente, alcune piattaforme moderano contenuti sensibilmente più spesso rispetto ad altre, mentre la rilevanza della moderazione sui video e sulle immagini risulta assai inferiore rispetto a quella su testo.

Questo quadro conferma che non esiste una prassi comune o un bilanciamento condiviso tra la tutela della sicurezza, la libertà di espressione e il rispetto dei diritti umani: piuttosto, ogni piattaforma — in ragione del proprio assetto tecnico, normativo, economico e dei propri obiettivi commerciali — adotta strategie selettive e spesso opache, con conseguenze importanti e ormai note.

Il ruolo quasi costituzionale delle piattaforme sui diritti umani

Le risposte normative e le pressioni della società civile mettono in luce una tensione strutturale tra pluralismo informativo e sovranità statuale nel contesto digitale globale.

Da un lato, organizzazioni per la tutela dei diritti umani e gruppi di advocacy sottolineano l’urgenza di introdurre meccanismi obbligatori di trasparenza, evidenziando come la rimozione di contenuti con valore probatorio comprometta non solo l’accesso all’informazione, ma anche la possibilità di esercitare forme di responsabilità legale e politica rispetto alle violazioni dei diritti umani. Tali richieste comportano un ripensamento dei principi di accountability delle piattaforme, che dovrebbero assumere il ruolo di custodi neutrali dell’informazione quando questa riveste rilevanza pubblica o legale.

Il ruolo paracostituzionale delle piattaforme nella tutela dei diritti umani

Dall’altro lato, governi, e in particolare quello statunitense, legittimano sanzioni e altre misure restrittive come strumenti di politica estera, rafforzando l’idea che la compliance legale prevalga sulla circolazione di contenuti sensibili.

Ciò pone le piattaforme in una posizione di doppia dipendenza normativa: devono rispettare vincoli transnazionali spesso non armonizzati tra loro, pur operando come attori globali capaci di condizionare l’accesso all’informazione. La contraddizione diventa particolarmente evidente quando la documentazione ha valore probatorio, poiché l’applicazione automatica o prudenziale delle sanzioni può entrare in conflitto con principi del diritto internazionale e con la tutela dei diritti fondamentali, tra cui la libertà di espressione e il diritto all’informazione.

Le proposte emerse nel dibattito — come la trasparenza sulle motivazioni giuridiche, l’istituzione di canali di appello efficaci e la creazione di depositi digitali indipendenti — mirano a creare spazi di mediazione tra legittimità legale e funzione pubblica della memoria digitale, ma si scontrano con ostacoli sia tecnici sia giuridici. La definizione stessa di “documentazione rilevante” non è neutra: implica valutazioni su rilevanza probatoria, interesse pubblico e priorità geopolitiche, introducendo margini di discrezionalità e potenziali conflitti normativi. La sovrapposizione tra leggi nazionali, sanzioni internazionali e regolamentazioni interne alle piattaforme genera inoltre una complessità operativa tale da rendere estremamente difficile stabilire regole globali coerenti.

Ed è questo uno scenario che mette in luce un problema più profondo: l’assenza di istituzioni multilaterali capaci di definire standard condivisi per la protezione della documentazione sensibile sui diritti umani. In assenza di meccanismi internazionali di supervisione e di criteri chiari per bilanciare obblighi legali e valore probatorio, le piattaforme assumono de facto il ruolo di arbitri della visibilità delle informazioni, esercitando una funzione che, in linea di principio, spetterebbe agli Stati o a organismi giudiziari, con carattere costituzionale o quantomeno paracostituzionale. In questo contesto, la società civile rivendica non solo maggiore trasparenza, ma anche strumenti di controllo indipendente, in grado di garantire che la rimozione dei contenuti non comporti una cancellazione selettiva della memoria storica e delle evidenze documentali di rilevanza internazionale.

Sovranità digitale europea di fronte al filtro big tech e diritti umani messi alla prova online

Il caso delle rimozioni di contenuti da parte di YouTube evidenzia i limiti concreti anche della sovranità digitale europea. Sebbene infatti l’Unione Europea ambisca a esercitare controllo normativo sulle piattaforme globali non possedendo direttamente le infrastrutture tecnologiche dominanti, ma attraverso strumenti regolatori volti a garantire trasparenza, tutela dei diritti fondamentali e pluralismo informativo, tuttavia, quando le piattaforme devono conformarsi a sanzioni statunitensi, come nel caso di Al‑Haq, Al Mezan e del Palestinian Centre for Human Rights, l’autonomia normativa europea si trova decisamente compressa.

Quando YouTube rimuove centinaia di video di ONG per obbedire a sanzioni statunitensi, si verifica un esempio concreto della fragilità di questa sovranità normativa: le piattaforme che operano in Europa possono essere vincolate da regimi giuridici esterni — non solo da leggi UE — limitando la capacità europea di assicurare che la moderazione rispetti standard di trasparenza, pluralismo e tutela della memoria.

In altre parole, l’azione di YouTube, da sola, rivela i limiti della sovranità digitale europea: se la governance delle piattaforme è condizionata da soggetti extra‑europei, la definizione di che cosa sia «informazione sensibile» e meritevole di protezione rimane soggetta a influenze anche non europee.

Tanto contribuisce a sottolineare il rischio di una «sovranità digitale incompiuta»: l’UE può legiferare per promuovere un modello regolatorio autonomo, ma senza un meccanismo effettivo di controllo sulle piattaforme globali, non può garantire pienamente che contenuti rilevanti per i diritti umani o per la memoria storica non vengano rimossi per ragioni estranee alla sua visione normativa. Di conseguenza, il caso di YouTube si pone come uno specchio delle tensioni insite nel progetto europeo di sovranità digitale — tra aspirazione normativa, potere geopolitico e limiti operativi.

YouTube, diritti umani e governance globale

Il cuore della questione non è tecnico, ma politico e normativo: chi stabilisce cosa è accessibile e cosa viene nascosto nell’ecosistema digitale globale detiene un potere significativo sulla conoscenza e sulla memoria collettiva. Le piattaforme, attraverso strumenti di espulsione, demonetizzazione e de-indicizzazione, hanno dimostrato di poter agire come attori politici effettivi, capaci di modellare il flusso di informazioni e di influenzare percezioni pubbliche e dibattiti internazionali. Parallelamente, gli Stati utilizzano leve normative e sanzionatorie per orientare queste azioni, creando un intreccio complesso tra governance privata e intervento pubblico, che trasforma la gestione dei contenuti in un terreno di negoziazione politica.

In assenza di meccanismi multilaterali di supervisione e di procedure trasparenti, l’archivio digitale rischia di frammentarsi secondo criteri di potere geopolitico, anziché configurarsi come un bene pubblico globale. Tale frammentazione comporta effetti strutturali: la selezione dei contenuti visibili non riflette solo principi di sicurezza o legittimità legale, ma anche rapporti di forza tra attori internazionali, capacità di lobbying e influenza politica. Di conseguenza, la fruizione della documentazione diventa parziale e condizionata, incidendo sulla possibilità di ricostruire eventi storici, esercitare accountability internazionale o garantire un accesso equo a prove e testimonianze.

La sfida normativa e politica, quindi, non si limita alla gestione della piattaforma: richiede istituzioni e strumenti sovranazionali in grado di bilanciare diritti fondamentali, interesse pubblico e obblighi legali, stabilendo standard condivisi per la tutela dei contenuti digitali rilevanti. Senza tali strumenti, le decisioni delle piattaforme rimangono discrezionali, mentre la memoria digitale e l’informazione pubblica rischiano di essere orientate secondo logiche di potere e convenienza politica, più che secondo criteri di rilevanza documentaria o valore pubblico.

Il caso YouTube non deve essere letto soltanto come un problema di «parzialità filo-palestinese» o di «protezione degli interessi israeliani». Tanto sarebbe riduttivo: si tratta piuttosto di una nuova frontiera nella quale si intrecciano compliance sanzionatoria, logiche aziendali, governance algoritmica e diritti fondamentali. Il confronto tra i diversi casi mostra che la domanda decisiva non è «chi ha ragione» ma «quali istituzioni e procedure possiamo costruire perché decisioni così rilevanti per la memoria e la responsabilità non restino opache, discrezionali e suscettibili di abusi». Per questo motivo le soluzioni non possono essere tecniche o aziendali: richiedono interventi di policy a livello internazionale, strumenti di trasparenza obbligatori e meccanismi di tutela per il materiale, a maggior ragione poiché potrebbe avere valore di prova sui diritti umani.

Note


[1]Il comunicato del Dipartimento di Stato statunitense del 4 settembre 2025 annuncia sanzioni contro tre ONG palestinesi — Al‑Haq, Al Mezan Center for Human Rights e il Palestinian Centre for Human Rights — con l’accusa di aver collaborato direttamente con la Corte Penale Internazionale (ICC) per indagare o perseguire cittadini israeliani, nonostante gli Stati Uniti e Israele non aderissero allo Statuto di Roma. Queste designazioni sono state imposte nell’ambito dell’Executive Order 14203, che vieta il sostegno a indagini dell’ICC considerate “illegittime” da Washington. CRF. ofac.treasury.gov . Questa mossa ufficiale da parte dello Stato americano rafforza l’interpretazione secondo cui le decisioni delle piattaforme come YouTube — che hanno disattivato i canali delle stesse ONG — non sono solo azioni di moderazione: sono inserite in una strategia più ampia di pressione politica e giuridica. Collegando questo a quanto accaduto su YouTube, emerge chiaramente che la moderazione dei contenuti non è infatti un fenomeno isolato: è parte integrante di una rete di interazioni geopolitiche, in cui la compliance normativa delle piattaforme, la politica estera statunitense e la lotta per la memoria e la giustizia internazionale si sovrappongono e si condizionano reciprocamente.

[2]Si veda nota precedente relativa al comunicato del Dipartimento di Stato statunitense del 4 settembre 2025 che annuncia sanzioni contro le ONG palestinesi Al‑Haq, Al Mezan e il Palestinian Centre for Human Rights, accusandole di aver collaborato direttamente con la Corte Penale Internazionale per indagare su cittadini israeliani, considerati dagli Stati Uniti e da Israele soggetti a protezione speciale. Le designazioni si basano sull’Executive Order 14203, che vieta il sostegno a indagini ICC ritenute “illegittime” da Washington.

[3]La disattivazione degli account è stata effettuata senza alcun preavviso: per Al-Haq il 3 ottobre, per Al-Mezan il 7 ottobre. YouTube ha confermato l’intervento in una dichiarazione rilasciata a The Intercept, chiarendo che la decisione era motivata dall’esigenza di garantire il rispetto della normativa statunitense in materia di sanzioni. Nel settembre precedente, l’amministrazione Trump aveva infatti inserito le tre organizzazioni in un regime sanzionatorio, contestando il loro contributo alle indagini della Corte penale internazionale relative a Israele. “Google si impegna a rispettare le sanzioni applicabili e le leggi sulla conformità commerciale”, ha affermato il portavoce di YouTube, Boot Bullwinkle, in una nota riportata dalla testata.

[4]Il quadro sanzionatorio statunitense si fonda principalmente sull’International Emergency Economic Powers Act (IEEPA) e, in misura più storica e residuale, sul Trading with the Enemy Act (TWEA), che conferiscono al Presidente e al Dipartimento del Tesoro ampi poteri di intervento in materia di sanzioni economiche. L’azione dell’Office of Foreign Assets Control (OFAC) si concretizza poi nelle regolazioni contenute nel Titolo 31 del Code of Federal Regulations, che disciplinano i diversi programmi sanzionatori e danno forma agli obblighi di due diligence e alle limitazioni operative per le imprese. A questo impianto legislativo e amministrativo si sovrappongono gli executive orders presidenziali che attivano i singoli programmi e la SDN List, attraverso cui si realizza l’identificazione dei soggetti designati.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati