Il 3 febbraio 2026 la Commissione Giustizia della Camera dei Rappresentanti degli Stati Uniti ha diffuso un interim staff report dal titolo “The Foreign Censorship Threat, Part II”, con una tesi centrale: l’Unione europea, tramite un percorso decennale culminato nel Digital Services Act, avrebbe esercitato pressioni sistematiche sulle piattaforme digitali fino a incidere sulla definizione delle regole globali di moderazione e, per tale via, sulla libertà di espressione esercitata dagli utenti statunitensi sul territorio statunitense.
Indice degli argomenti
Il documento della Casa Bianca che accusa l’UE di censurare internet
Una lettura giuridica, attenta alla comparazione costituzionale e alla struttura del diritto dell’Unione, richiede un cambio di fuoco. Il documento parlamentare statunitense utilizza categorie proprie del costituzionalismo americano, in particolare una concezione della libertà di espressione come presidio tendenzialmente assoluto, e trasferisce tali categorie in un ordinamento, quello europeo, nel quale la libertà di manifestazione del pensiero vive in rapporto costitutivo con la dignità, l’eguaglianza sostanziale, la protezione dei gruppi vulnerabili, la salvaguardia dell’ordine democratico e la tutela del processo elettorale.
La differenza, prima ancora che normativa, investe l’antropologia giuridica dei due sistemi: negli Stati Uniti lo spazio della parola pubblica assume una fisionomia di conflitto regolato con minimi interventi; nell’Unione europea la parola pubblica integra un pezzo dell’architettura pluralista e pretende una disciplina capace di evitare la cattura del discorso pubblico tramite violenza verbale, manipolazione coordinata, campagne di interferenza, asimmetrie algoritmiche.
Digital Services Act e libertà di espressione: lo scarto tra due modelli
Da questo scarto nasce un primo slittamento argomentativo del report. La Commissione qualifica come “censorship” un insieme eterogeneo di strumenti europei, che includono codici di condotta, forum di cooperazione, linee guida elettorali, pratiche di confronto con le piattaforme e l’enforcement del Dsa, e li presenta come un medesimo dispositivo di controllo narrativo.
In realtà, il diritto europeo dei servizi digitali utilizza una grammatica prevalentemente procedurale: richiede trasparenza, motivazione delle decisioni di moderazione, canali di reclamo, audit, gestione dei rischi sistemici. L’oggetto primario riguarda processi, responsabilità organizzative, tracciabilità, accesso ai dati per finalità di ricerca e vigilanza.
Il report, invece, tratta quell’impianto come se coincidesse con un catalogo di contenuti vietati deciso dal potere pubblico, con una sovrapposizione tra governo delle procedure e definizione sostanziale della verità.
Co-regolazione e “decade-long campaign”: diagnosi o equazione con la censura?
Il passaggio chiave del documento insiste sulla natura “decade-long” di una campagna europea che avrebbe trasformato strumenti presentati come volontari in strumenti sostanzialmente obbligatori, con particolare enfasi sul Code of Conduct on Countering Illegal Hate Speech Online del 2016 e sul Code of Practice on Disinformation del 2018 e della revisione del 2022, descritti come ponti costruiti “to fill the regulatory gap” in attesa del Dsa.
Qui la questione diventa concettuale: il report legge la co-regolazione europea come coercizione mascherata. Eppure il diritto dell’Unione, da decenni, utilizza forme ibride tra hard law e soft law, con una logica di standardizzazione progressiva, dialogo regolatorio, responsabilizzazione degli operatori, costruzione di prassi verificabili.
La critica, in un’ottica scientifica, deve restare distinta dalla diagnosi: l’esistenza di pressioni reputazionali, economiche e di mercato sulle piattaforme appartiene alla fisiologia di un ecosistema regolato, e richiede analisi in termini di accountability e proporzionalità.
L’equazione automatica tra co-regolazione e censura presuppone un modello costituzionale che considera patologica ogni forma di orientamento pubblico delle condizioni di esercizio del discorso digitale.
Extraterritorialità: separare ambito Ue, scelte delle piattaforme ed effetti di rete
Un ulteriore nodo riguarda l’extraterritorialità, definita come minaccia diretta alla sovranità statunitense. Il report osserva che molte piattaforme applicano regole globali e, per ragioni tecniche e di privacy, evitano una segmentazione nazionale; da questo deriva l’idea che qualunque richiesta europea incida necessariamente sul discorso americano.
È bene dunque separare piani diversi. Il primo piano concerne l’ambito applicativo del diritto europeo: l’Unione regola servizi offerti nel proprio mercato e, come ogni grande ordinamento economico, utilizza la leva dell’accesso al mercato come incentivo alla conformità.
Il secondo piano concerne le scelte industriali delle piattaforme: uniformità globale delle policies, governance centralizzata, economie di scala, riduzione dei costi di compliance. Il terzo piano concerne gli effetti di rete: una modifica dei criteri di moderazione può riflettersi ovunque.
Il report attribuisce al legislatore europeo ciò che discende dalla combinazione di questi tre piani, e trasforma una conseguenza economico-organizzativa in un’azione giuridica extraterritoriale.
Una teoria costituzionale della sovranità regolatoria digitale, invece, richiede una prova più rigorosa: un comando normativo diretto verso condotte tenute in territorio terzo, con pretesa di imperio, e con mezzi di enforcement orientati oltre i confini.
Il documento, per come risulta nelle parti introduttive, preferisce una ricostruzione per suggestione, fondata sulla globalità delle piattaforme, più che su una dimostrazione dell’elemento imperativo extra-UE.
Perché l’UE censurerebbe internet? Disinformazione, pandemia e “mitigation”
Il testo insiste poi su esempi, presentati come evidenza di pressione europea su contenuti e regole, con particolare attenzione al contesto pandemico e alla governance della disinformazione.
In questo passaggio occorre precisione concettuale. Nel diritto europeo la categoria della disinformazione, soprattutto dopo il 2016, assume una funzione di protezione della sfera pubblica contro operazioni di manipolazione su larga scala, incluse interferenze straniere, campagne coordinate, monetizzazione opaca, amplificazione algoritmica.
L’intervento pubblico, in tale cornice, tende a rivolgersi a dinamiche sistemiche: accesso ai dati, trasparenza delle inserzioni, tracciabilità delle campagne, governance delle raccomandazioni, gestione delle crisi.
Il report interpreta il lessico della “mitigation” come comando di rimozione di opinioni; tuttavia la semantica giuridica della mitigazione dei rischi, in un regolamento di mercato digitale, guarda soprattutto a procedure, architetture di piattaforma, incentivi economici, design della fruizione, presidio delle manipolazioni.
Una riflessione scientifica richiede una domanda ulteriore: quali atti giuridici europei, quali clausole puntuali, quali ordini specifici avrebbero imposto la rimozione di contenuti leciti in territorio statunitense, con correlata sanzione?
Il report, nelle pagine iniziali, preferisce una costruzione narrativa centrata su meeting, readouts, workshop, agende, interpretati come prova di un potere di indirizzo sui contenuti.
In un paradigma costituzionale europeo, invece, l’interazione tra regolatore e regolato appartiene alla tecnica amministrativa contemporanea, specie nei settori ad alta complessità: energia, finanza, comunicazioni elettroniche, dati, IA.
La linea di frattura, allora, riguarda la qualificazione di tali interazioni come “coercizione” oppure come regolazione dialogica, sottoposta a legalità, proporzionalità e sindacato giurisdizionale.
Elezioni e linee guida 2024: integrità democratica o interferenza politica?
La sezione sulle elezioni accentua il punto, con riferimento alle Dsa Election Guidelines del 2024, descritte come best practices presentate come volontarie e vissute dalle piattaforme come standard minimi.
Orbene, le democrazie costituzionali proteggono il processo elettorale come bene strutturale, e l’ambiente digitale ha introdotto vulnerabilità nuove, legate a microtargeting, deepfakes, campagne coordinate, disintermediazione informativa, attacchi ibridi.
La regolazione europea tenta una risposta sistemica, coerente con una concezione del pluralismo che include condizioni materiali di formazione dell’opinione pubblica.
Il report legge tale risposta come interferenza politica; tuttavia la categoria giuridica pertinente riguarda l’integrità democratica, tema che nel lessico europeo rientra tra i rischi sistemici che le piattaforme devono valutare e gestire.
L’analisi, allora, richiede un discrimine: repressione del dissenso politico, da un lato; contrasto a manipolazioni strutturate e a vulnerabilità del sistema informativo-elettorale, dall’altro.
Il documento statunitense tende ad assimilare le due figure, anche tramite esempi di frasi politiche trattate come hate speech in guide di moderazione collegate a contesti elettorali nazionali.
La critica più forte a detta evidenza, in chiave scientifica, riguarda il rischio di semplificazione: una policy interna di piattaforma, anche influenzata da ambienti regolatori, resta distinta dalla norma giuridica europea; e un contesto nazionale, con proprie leggi penali e amministrative, resta distinto dal livello dell’Unione.
Il caso Breton–Musk: tra dialogo regolatorio e pressione impropria
Il capitolo più simbolico, nella costruzione del report, riguarda il caso della lettera di Thierry Breton a Elon Musk e la prospettiva di misure Dsa in relazione a “spillovers” verso l’Unione.
Questo episodio, per una riflessione giuridica, può funzionare come banco di prova del confine tra dialogo regolatorio e pressione impropria. Un costituzionalista europeo, tuttavia, tende a collocare il problema dentro una cornice di legalità amministrativa: competenza, forma, motivazione, base giuridica, proporzionalità, sindacabilità.
Un atto o una lettera politica, per quanto impropria sul piano comunicativo, acquista rilievo giuridico quando entra nella catena dell’enforcement, produce effetti, integra un procedimento, fonda un ordine.
Il report preferisce un uso emblematico dell’episodio come prova di interferenza; una lettura giuridica, invece, chiede l’innesto documentale: quale procedimento Dsa, quale articolo, quale contestazione, quale decisione finale, quale rimedio giurisdizionale.
Enforcement e sanzioni: distinguere critica politica e critica giuridica
Analogamente, la parte dedicata alla sanzione contro X, indicata come prima multa Dsa, viene utilizzata come conferma di un enforcement orientato a punire un modello di “free speech” e a rivendicare una portata globale, anche attraverso riferimenti all’accesso ai dati dei ricercatori.
Ricorsi e proporzionalità davanti alla Corte di giustizia: perché non è dettaglio
A tal proposito il diritto dell’Unione introduce un criterio decisivo: l’enforcement amministrativo europeo, specie in materia digitale, vive sotto il controllo della Corte di giustizia, con possibilità di ricorsi, misure cautelari, verifica della proporzionalità e della corretta qualificazione dei fatti.
Una riflessione scientifica distingue la critica politica di opportunità, legittima nel dibattito pubblico, dalla critica giuridica: la seconda richiede ricostruzione testuale della decisione, interpretazione delle norme applicate, controllo della coerenza logica tra condotte contestate e obblighi normativi, esame delle garanzie procedurali concesse al destinatario.
Il report, nella sua introduzione, privilegia un registro di qualificazione assiologica, con aggettivazioni forti e imputazioni di intento.
Un costituzionalista delle tecnologie tende a spostare l’asse sul disegno istituzionale: quale modello di regolazione delle piattaforme consente tutela effettiva dei diritti, riduzione dei rischi sistemici, preservazione del pluralismo, controllabilità delle decisioni pubbliche.
Oltre “control of global online speech”: complessità europea e geografia dei diritti
Da ultimo, il documento utilizza una categoria unificante: “control of global online speech”, come se l’Unione avesse acquisito un potere unitario sul discorso digitale.
Una ricostruzione europea osserva una realtà più frastagliata: pluralità di livelli, Unione e Stati membri; pluralità di fonti, regolamenti, direttive, linee guida, codici; pluralità di attori, Commissione, coordinatori nazionali, autorità indipendenti, giudici; pluralità di rimedi, reclami interni, ADR, giurisdizione.
Pluralità di livelli e rimedi nell’Ue: perché l’idea di “centro unico” scricchiola
L’idea di un centro unico di controllo narrativo fatica a reggere davanti alla complessità ordinamentale europea e davanti alla struttura del contenzioso, che moltiplica sedi e argomenti, e rimette alla legalità e al giudice il confine tra dovere di protezione e compressione indebita della libertà di espressione.
Il punto decisivo, allora, riguarda la domanda che il report, per come risulta nelle sue parti introduttive, tratta come già risolta: l’equivalenza tra regolazione dei rischi informativi e censura.
Una riflessione costituzionale comparata mantiene aperta la tensione e la trasforma in problema tecnico: quali garanzie procedurali proteggono l’utente contro rimozioni arbitrarie; quale definizione di rischio sistemico evita un’espansione indeterminata; quale trasparenza consente controllo democratico delle pratiche di moderazione; quale equilibrio tra autonomia privata delle piattaforme e doveri pubblici di tutela dei diritti fondamentali.
In questo spazio, la critica più solida al modello europeo nasce dal suo stesso orizzonte: un diritto dei servizi digitali orientato ai diritti richiede proporzionalità sostanziale, motivazione robusta, rimedi accessibili, audit credibili, e un lessico normativo capace di distinguere manipolazione coordinata e conflitto democratico.
Il report statunitense, invece, adotta un lessico che comprime la complessità, e trasforma una costruzione amministrativa europea, fatta di procedure e responsabilità, in una figura unica di “censura” esportata.
In controluce resta una questione più ampia, che merita attenzione scientifica: la globalità delle piattaforme ha mutato la geografia dei diritti. Ogni grande ordinamento, quando regola i nodi infrastrutturali del digitale, produce effetti di mercato e incentivi che attraversano confini.
Compatibilità tra standard e limiti alle pretese regolatorie: la sfida comune
La sfida autentica riguarda il modo in cui i sistemi costituzionali gestiscono tali effetti, con strumenti di cooperazione, con tecniche di compatibilità tra standard, con limiti chiari alla portata delle pretese regolatorie.
Non è un caso, in questa temperie di forti tensioni geopolitiche, che il report di matrice parlamentare, oggi a maggioranza repubblicana, interpreti tale sfida come conflitto tra Europa e Stati Uniti; una lettura costituzionale delle tecnologie la tratta come problema di architettura della sfera pubblica digitale, nel quale libertà di espressione, dignità, integrità elettorale, trasparenza e responsabilità delle piattaforme richiedono una composizione, diversa nei due ordinamenti, eppure riconducibile a una medesima domanda: quali condizioni istituzionali rendono il discorso pubblico libero, pluralista e resistente alle catture, sia pubbliche sia private?


















Tante interessanti elucubrazioni giuridiche che però lasciano intatto il punto nodale: in democrazia non si può e non si deve proteggere i cittadini (sovrani) dalle loro scelte e contro il loro volere. Preferire la disinformazione all’informazione di buon livello è una scelta insindacabile. Il cittadino (il sovrano) ha diritto di scegliere la cattiva informazione, se vuole, e soprattutto nessuno dovrebbe poter stabilire che cosa sia la buona e la cattiva informazione. Tanto meno di censurare quest’ultima giustificandosi con il bene pubblico come fanno tutti i regimi.
La deriva autoritaria europea purtroppo è lastricata di buone intenzioni (o scuse?), ma punta a gestire il dissenso come avvenuto tante volte nella nascita dei regimi. Dimostra ed esplicita una intrinseca sfiducia nel cittadino e nella sua capacità di scelta, ossia sfiducia nella democrazia. Oggi diciamo che i cittadini non hanno gli strumenti per difendersi dalla disinformazione, ma intendiamo che non siano capaci di esercitare autonomamente la propria sovranità. Cioè intendiamo che la democrazia non funziona e va corretta da qualcuno che “ne capisce di più”, il censore appunto.
Da autentico democratico rilevo che ciò conduce a forme di democratura molto efficienti, ma che di fatto cestinano secoli di progresso nei diritti civili e democratici occidentali.