informazione

Media Freedom Act: nuove regole Ue per libertà di stampa e Big Tech



Indirizzo copiato

L’European Media Freedom Act introduce nuove regole per garantire pluralismo e indipendenza dei media, ma solleva dubbi sul ruolo delle piattaforme digitali e sui poteri dell’Unione Europea in materia di libertà d’informazione

Pubblicato il 31 ott 2025

Diego Fulco

Direttore Scientifico Istituto Italiano per la privacy e la valorizzazione dei dati



New media pluralismo media e antitrust European Media Freedom Act

Dall’8 agosto 2025, è esecutivo il Regolamento UE 2024/1083 (European Media Freedom Act, o “EFMA”), normativa di ampia portata volta a creare un quadro comune per i servizi di media nell’ambito del mercato interno dell’UE.

Il contesto normativo e gli obiettivi del regolamento europeo

Fra l’altro, l’EFMA mira a rafforzare l’indipendenza degli editori dei media dalla loro proprietà, la trasparenza sulla proprietà dei media, la protezione dei giornalisti e delle loro fonti ed affida a ciascuno Stato membro dell’UE il compito di designare un’autorità di controllo con funzioni di indirizzo e presidio sui media e istituisce il Comitato europeo per i servizi media, organo collegiale che riunisce le autorità nazionali.

Secondo il legislatore europeo, gli Stati membri non possono avere o potrebbero non avere incentivi per conseguire l’armonizzazione e la cooperazione necessarie agendo da soli. Vista la natura sempre più digitale e transfrontaliera della produzione, della distribuzione e del consumo dei contenuti mediatici, e considerato il ruolo unico dei servizi di media, questi obiettivi possono essere conseguiti solo con una disciplina europea.

Le contestazioni ungheresi e le due novità della sezione digitale

Quest’impostazione non è stata condivisa all’unanimità. L’Ungheria, dopo essersi opposta all’emanazione dell’EFMA, lo ha impugnato dinanzi alla Corte di Giustizia affermando che l’UE non ha competenza legislativa sui media e che non può far valere la base giuridica dell’armonizzazione del mercato interno.

Noi ci concentreremo su due novità della Sezione 4 dell’EFMA, che disciplina la fornitura di servizi di media in ambiente digitale e all’accesso agli stessi. La prima è nell’art. 18 e riguarda il rapporto fra i media tradizionali (stampa quotidiana e periodica, servizi televisivi di informazione, approfondimento e dibattito) e le piattaforme online di grandi dimensioni (Facebook, Instagram, YouTube, TikTok, X, ecc.). Questa novità suscita in noi riserve, che si sommano a quelle già espresse in un nostro precedente contributo per Agenda Digitale a proposito del Regolamento UE 2022/2065 (Digital Services Act, o “DSA”) al quale l’EFMA è espressamente collegato. La seconda è nell’art. 20 e consiste nell’introduzione di un nuovo diritto: quello alla personalizzazione dell’offerta di media nell’ambiente digitale. Questa ci sembra apprezzabile e promettente.

La visione europea sui media di qualità e il ruolo delle piattaforme

Secondo l’EFMA, gli utenti dovrebbero accedere a servizi media di qualità che siano: a) prodotti da giornalisti in modo indipendente, b) in linea con gli standard giornalistici ed etici, c) portatori di informazioni affidabili. Ciò significa che quanto più l’opinione pubblica apprende le notizie e i contenuti di attualità dai servizi media tradizionali della stampa quotidiana e della TV, meglio è. E siccome ormai i servizi media sono veicolati anche attraverso le piattaforme online di grandi dimensioni, vanno protetti anche in quel contesto.

La visione europea sui media di qualità e il ruolo delle piattaforme

Più precisamente, l’EFMA prende atto che le piattaforme online di grandi dimensioni sono ormai la piazza virtuale dei loro utenti e fungono da punti di accesso non solo a informazioni e commenti di altri utenti, ma anche ai contenuti mediatici. Il legislatore europeo osserva che le Big Tech gestiscono le piattaforme online secondo un modello di business fondato sulla disintermediazione dell’accesso ai media. La trasformazione digitale ha ridotto la capacità delle imprese di tutti i settori dei media, in particolare di quelle di dimensioni minori nel settore della radio e della stampa, di competere in condizioni di parità con le piattaforme online, che hanno un ruolo fondamentale nella distribuzione online dei contenuti.

Secondo l’EFMA, questo modello di business tende non solo ad amplificare la polarizzazione dei contenuti (giacché l’algoritmo privilegia i contenuti più estremi e più vicini ai giudizi o pregiudizi che l’utente già ha), ma anche a favorire la «disinformazione» (giacché la viralità dell’informazione può essere canale di propagazione di informazioni intenzionalmente false). Nei considerando (4), (6) e (53), il legislatore europeo dichiara in modo esplicito la sua preoccupazione per operatori del mercato dei media che si dedicano in modo sistematico ad attività di «disinformazione o manipolazione delle informazioni e ingerenze da parte di attori stranieri» (solo i famigerati trolls di Putin nei social media, o anche opinion makers digitali critici verso la narrazione mainstream?). Contemporaneamente, manifesta fiducia verso tutti i servizi di media «di qualità» (quotidiani, riviste, documentari, talk-show) resi dai fornitori di servizi media (di qualsiasi orientamento) che sono un «antidoto alla disinformazione e alla manipolazione delle informazioni e alle ingerenze da parte di attori stranieri».

L’intreccio tra EFMA e Digital Services Act

L’art. 18 dell’EFMA detta norme specifiche per la casistica ormai frequentissima in cui i media tradizionali (come i TG e i quotidiani) hanno anche un account Instagram, Facebook, X, ecc. Quando ciò accade, i fornitori di piattaforme online di dimensioni molto grandi distribuiscono i contenuti dei fornitori di servizi di media.

Prima di affrontare l’art. 18, riepiloghiamo i contenuti essenziali dell’altra recente disciplina europea cui l’EFMA s’intreccia: Regolamento UE 2022/2065, o DSA. Quest’ultima ha ridefinito il regime di responsabilità di tutti gli intermediari di servizi digitali (fornitori di hosting, cloud provider, marketplace, motori di ricerca, ecc.) con l’obiettivo di prevenire e contrastare adeguatamente gli illeciti online, ed ha introdotto nuovi obblighi di collaborazione con le Autorità che contrastano gli illeciti, di organizzazione interna, di trasparenza.

Anche il DSA prevede che ogni Stato membro designi un’autorità di controllo e introduce un organo collegiale che raccoglie tutte le autorità: il Comitato europeo per i servizi digitali.

I rischi sistemici e i poteri della Commissione europea

Tuttavia, per i fornitori di piattaforme online di grandi dimensioni (Very Large Online Platforms o “VLOP” come Meta per Instagram e Facebook, Google per YouTube, e poi X, TikTok, ecc.) il DSA detta regole speciali giacché, per la loro capillare presenza, queste piattaforme presentano rischi sistemici (cioè rischi associati alla diffusione di contenuti illegali; rischi per la dignità umana, per l’esercizio della libertà di espressione e di informazione, compresi la libertà e il pluralismo dei media, del diritto alla vita privata, della protezione dei dati personali e dei consumatori, del diritto alla non discriminazione, dei diritti del minore; rischi per i processi democratici, per il dibattito civico, per i processi elettorali e per la sicurezza pubblica; rischi per la salute pubblica e dei minori, per il benessere fisico e mentale della persona o per la violenza di genere). Nell’ottica di far governare ai VLOP i rischi sistemici, il DSA impone a questi ultimi di affrontare specifici adempimenti (valutazione dei rischi sistemici, misure attenuazione dei rischi sistemici, ecc.) così da presidiare la veridicità delle informazioni e la legittimità delle opinioni veicolate dalle piattaforme e da salvaguardare la libera formazione dell’opinione pubblica. Inoltre, il DSA affida funzioni di indirizzo (o “pressione” sui VLOP?) e di controllo alla Commissione UE, organo politico.

Le criticità nel contrasto alla disinformazione

Guardati nel loro insieme, in termini di postura, DSA ed EFMA non presenterebbero una discontinuità rispetto alla tradizione europea, almeno sulla carta rispettosa di tutte le opinioni. Viceversa, nelle norme volte a contrastare la cosiddetta “disinformazione” e le «ingerenze da parte di attori stranieri» sull’opinione pubblica, DSA ed EFMA introducono elementi potenzialmente in contrasto con l’art. 11 (libertà di espressione) e con l’art. 52 (portata e interpretazione dei diritti e dei principi) della Carta dei diritti fondamentali dell’UE. Paradossalmente, lo fanno in nome della libertà e del pluralismo dei media. Nati per aggiornare normative già esistenti all’evoluzione digitale, DSA ed EFMA si presentano come uno strumento con cui l’UE si attrezza a esigere la collaborazione dei VLOP per contrastare uno “straniero” (la Russia?) sospettato di destabilizzare psicologicamente l’opinione pubblica europea con fake news e operatori media da lui prezzolati.

Gli obblighi di dichiarazione per i fornitori di servizi media

Anzitutto, l’EFMA impone ai fornitori di piattaforme online di dimensioni molto grandi di: a) fornire una funzionalità tramite cui i fornitori di servizi media e gli operatori del mercato dei media che creano un account e che – loro tramite – divulgano propri contenuti forniscano una serie di garanzie (conformità all’EFMA, controllo editoriale e personalizzazione di contenuti creati con l’ausilio dell’intelligenza artificiale, indipendenza editoriale da Stati, compresi i Paesi terzi ed entità finanziate e controllate da Paesi terzi, ecc.); b) rendere queste garanzie disponibili al pubblico in modo facilmente accessibile sulla loro interfaccia online. Niente di strano, si direbbe. Tuttavia, considerato che uno degli obiettivi dichiarati dell’EFMA è il contrasto alla «disinformazione o manipolazione delle informazioni e ingerenze da parte di attori stranieri», non entusiasmante. Si vuole, forse, che i media che tramite i loro account Instagram, Facebook, X, ecc. diffondono informazioni od opinioni su cause, andamento e prospettive della guerra in Ucraina critiche verso UE e NATO, dichiarino di essere indipendenti da Paesi terzi (tradotto: dalla Russia e da entità ad essa affiliate)?

I poteri di sospensione e limitazione delle piattaforme

I VLOP possono decidere: i) di sospendere la fornitura dei propri servizi di intermediazione online in relazione a contenuti forniti da un fornitore di servizi di media che ha presentato una dichiarazione che a loro avviso non dimostra la conformità all’EFMA, oppure II) di limitare la visibilità di tali contenuti, nella misura in cui tali contenuti sono incompatibili con i propri termini e condizioni. Circa il punto ii), è bene tenere presente che termini e condizioni devono indicare le politiche, le procedure, le misure e gli strumenti utilizzati ai fini della moderazione dei contenuti, compresi il processo decisionale algoritmico e la verifica umana, nonché le regole procedurali del sistema interno di gestione dei reclami e possono contenere restrizioni (proporzionate) a tutela della libertà di espressione e della libertà e del pluralismo dei media (art. 14 del DSA).

Le garanzie procedurali e il meccanismo di risposta alle crisi

Se un VLOP decide di sospendere la fornitura dei suoi servizi verso determinati operatori media o se limita la visibilità dei suoi contenuti, deve comunicare al fornitore di servizi di media la motivazione della decisione di sospendere o limitare la visibilità e dargli la possibilità di rispondere alla motivazione entro 24 ore dalla sua ricezione oppure entro un termine più breve (che gli dia tempo sufficiente per rispondere) laddove, a fronte di circostanze eccezionali che possono comportare una minaccia grave per la sicurezza pubblica o la salute pubblica, la Commissione UE abbia attivato il meccanismo di risposta alle crisi ai sensi dell’art. 36 del DSA. Quest’ultimo permette alla Commissione UE di imporre ai VLOP, in caso di “crisi” (geopolitica), di

1) valutare l’eventualità e, in caso affermativo, la portata e il modo in cui il funzionamento e l’uso dei loro servizi contribuiscano in maniera significativa a una minaccia grave;

2) individuare e applicare misure specifiche, efficaci e proporzionate per prevenire, eliminare o limitare tale contributo alla grave minaccia individuata;

3) di presentare una relazione su quanto fatto per 1) e 2).

La scelta delle misure specifiche da adottare spetta al VLOP destinatario della decisione della Commissione UE, ma la Commissione UE può aprire un dialogo con il VLOP per stabilire se, alla luce delle circostanze specifiche, le misure previste o attuate siano efficaci e proporzionate. Se ritiene che le misure specifiche previste o attuate non siano efficaci o proporzionate, previa consultazione del Comitato europeo per i servizi digitali, la Commissione UE può adottare una decisione che richieda al fornitore di riesaminare l’identificazione o l’applicazione di tali misure specifiche.

Apparentemente, ci troviamo di fronte a un meccanismo bilanciato, dove l’eventuale decisione della piattaforma online di grandi dimensioni di bloccare un account può essere contestata dal fornitore di servizi media con una sorta di procedura d’urgenza che gli permetta, se viene ascoltato, di non perdere pubblico. L’impressione che si vogliano evitare arbitrii potrebbe essere rafforzata dal fatto che le piattaforme online di dimensioni molto grandi – nella tempistica di moderazione dei contenuti – devono riservare ai fornitori di servizi media un trattamento di favore rispetto ad altri utenti. I fornitori di piattaforme online di dimensioni molto grandi devono adottare tutte le misure tecniche e organizzative necessarie per garantire che eventuali reclami presentati dai fornitori di servizi di media contro decisioni dei fornitori delle piattaforme online di grandi dimensioni di “censura” di loro contenuti siano trattati e risolti in via prioritaria e senza indebito ritardo.

Il dialogo tra piattaforme e media: tutela o subordinazione?

Tuttavia, il conforto delle garanzie procedurali viene meno quando l’art. 18.4 dice che i fornitori di piattaforme online di dimensioni molto grandi non devono seguire la procedura di comunicazione appena descritta se la decisione della sospensione della fornitura dei servizi di intermediazione online è a norma degli articoli 28 (protezione online dei minori), 34 (valutazione dei rischi sistemici) e 35 (misure di attenuazione dei rischi).

Cosa significa? Immaginiamo che nell’ambito dell’analisi periodica dei rischi sistemici connessi a YouTube ai sensi dell’art. 34 del DSA, Google concluda che i contenuti diffusi da determinati operatori media (ad esempio riviste online di geopolitica) possono produrre effetti negativi sulla libertà e sul pluralismo dei media o sul dibattito civico. Vuol dire, forse, che Google potrebbe decidere di sospendere l’account YouTube di uno o più operatori media? Se sì, potrebbe farlo nonostante quell’operatore media abbia dichiarato per iscritto di essere conforme all’EFMA e di non essere al soldo di «attori stranieri». In altri termini, Google non dovrebbe né comunicare all’operatore media la motivazione della decisione prevista né dargli la possibilità di replicare entro 24 ore.

Unico temperamento certo a una possibile censura: un fornitore di servizi di media che ha presentato le dichiarazioni richieste dall’art. 18.1 dell’EFMA può ritenere che un fornitore di una piattaforma online di dimensioni molto grandi limiti o sospenda ripetutamente e senza motivi sufficienti la fornitura dei propri servizi in relazione ai contenuti da lui forniti e chiedere al fornitore della piattaforma online di dimensioni molto grandi di avviare con lui un «dialogo significativo ed efficace», in buona fede, al fine di trovare entro un lasso di tempo ragionevole una soluzione amichevole per porre fine a limitazioni o sospensioni ingiustificate ed evitarle in futuro. Chi scrive prova disagio di fronte a istituti come il «dialogo», di una certa vaghezza procedurale. Si vuole forse intendere che se il fornitore di servizi media si presenta col cappello in mano e dà segni di voler fare il bravo, si trova una quadra e l’account viene ripristinato?

Le alternative extragiudiziali

Comunque, in assenza di una soluzione amichevole a seguito del «dialogo», il fornitore di servizi di media può ricorrere alla mediazione di cui all’articolo 12 di un altro Regolamento (quello su equità e trasparenza per gli utenti commerciali dei servizi di intermediazione online) o alla risoluzione extragiudiziale delle controversie davanti a un organismo certificato dal coordinatore dei servizi digitali dello Stato membro (art. 21 del DSA).

Trasparenza e rendicontazione dei comportamenti delle piattaforme

Infine, il fornitore di una piattaforma online di dimensioni molto grandi deve rendere disponibili al pubblico, con cadenza annuale, informazioni dettagliate riguardanti:

a) il numero di casi in cui ha imposto limitazioni o sospensioni perché i contenuti forniti da un fornitore di servizi di media che ha presentato una dichiarazione di conformità all’EFMA con le relative garanzie sono incompatibili con i termini e le condizioni del fornitore;

b) i motivi per cui ha imposto tali limitazioni o sospensioni, comprese le clausole specifiche contenute nei termini e nelle condizioni del fornitore con cui i contenuti dei fornitori di servizi di media sono stati ritenuti incompatibili;

c) il numero di dialoghi con i fornitori di servizi di media;

d) il numero di casi in cui ha respinto le dichiarazioni presentate da un fornitore di servizi di media e i relativi motivi;

e) il numero di casi in cui ha invalidato una dichiarazione presentata da un fornitore di servizi di media e i relativi motivi.

Il diritto alla personalizzazione dell’offerta mediatica

Il considerando (57) dell’EFMA osserva che gli utenti (destinatari dei servizi di media) dovrebbero poter scegliere realmente il contenuto che desiderano guardare o ascoltare in base alle loro preferenze. Tuttavia, la loro libertà di scegliere il contenuto potrebbe essere limitata da pratiche commerciali del settore dei media, quali accordi per la prioritizzazione di contenuti tra i fornitori di servizi di media e i fabbricanti di dispositivi o i fornitori di interfacce utente che controllano o gestiscono l’accesso ai servizi di media che forniscono programmi e il loro utilizzo, come televisioni connesse o sistemi audio su automobili.

Spesso, software, applicazioni e aree di ricerca influenzano il comportamento degli utenti, incentivandoli a scegliere determinate offerte di media rispetto ad altre. Talvolta, la scelta dell’utente potrebbe anche essere limitata da circuiti chiusi di applicazioni preinstallate. Invece, gli utenti dovrebbero avere la possibilità di decidere da soli la prioritizzazione di contenuti dei contenuti media di loro gradimento (anche in ragione delle loro fonti) e di cambiare in qualsiasi momento la configurazione, in modo semplice, facilmente accessibile e intuitivo, incluse le impostazioni predefinite di un dispositivo, come il telecomando, o un’interfaccia utente.

Le modalità di attuazione del diritto alla personalizzazione

L’art. 20 dell’EFMA introduce un diritto di nuova generazione, su misura per l’ambiente digitale: il diritto degli utenti «di modificare facilmente la configurazione, comprese le impostazioni predefinite, di qualsiasi dispositivo o interfaccia utente che controlla o gestisce l’accesso ai servizi di media che forniscono programmi e il loro utilizzo, al fine di personalizzare l’offerta di media in linea ai loro interessi o preferenze».

La personalizzazione deve essere favorita by default. I fabbricanti (es. Apple), gli sviluppatori e gli importatori devono fare in modo che i dispositivi e le interfacce utente includano una funzionalità che consenta agli utenti di modificare liberamente e facilmente, in qualsiasi momento, la loro configurazione, comprese le impostazioni predefinite che controllano o gestiscono l’accesso ai servizi di media offerti e il loro utilizzo. Inoltre, devono fare in modo che sia costantemente e chiaramente visibile agli utenti l’identità visiva dei fornitori di servizi di media a cui servizi tali dispositivi e interfacce utente danno accesso. Il considerando (58) spiega che la “identità visiva” comprende i marchi, i loghi, i marchi commerciali o altri tratti caratteristici che consentono agli utenti di identificare facilmente i responsabili editoriali del servizio media.

Conclusioni: fiducia nella scelta degli utenti

Questo nuovo diritto ci sembra all’altezza delle sfide che la democrazia ha davanti a sé nel contesto digitale e va nella direzione giusta: avere fiducia nella capacità dell’utente di scegliere e – perché no – di cambiare idea.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati