Digital Services Act, il “rebus” dei contenuti illeciti: la Ue rischia di aumentare il caos | Agenda Digitale

mercato unico digitale

Digital Services Act, il “rebus” dei contenuti illeciti: la Ue rischia di aumentare il caos

Il Digital Services Act non ha definito con adeguata chiarezza l’esatta nozione di “contenuto illecito”. Ciò comporta che l’hosting provider, nel valutare l’opportunità di rendere inaccessibili taluni contenuti, dovrà tener conto di un corpus normativo assai vasto e disomogeneo e il rischio di generare ulteriore incertezza

14 Mag 2021
Maria Romana Allegri

Professoressa aggregata di Diritto pubblico, dell’informazione e della comunicazione, Sapienza Università di Roma, Dip. di Comunicazione e Ricerca Sociale

Nella proposta di Regolamento sul mercato unico dei servizi digitali (Digital Services Act), attraverso il quale la Ue introduce l’obbligo, per prestatori di servizi di hosting, di agire immediatamente per rimuovere o oscurare i contenuti illeciti diffusi dagli utenti, non appena acquisita la conoscenza di tali attività o contenuti illeciti o la consapevolezza di tali fatti o circostanze, non sembra essere stato definito con abbastanza chiarezza il concetto di “contenuto illecito”.

Una mancanza che potrebbe allontanare l’obiettivo di armonizzazione perseguito dalla Commissione per favorire il mercato unico digitale europeo.

DSA e DMA, l’Ue prova a regolare le Big Tech: obiettivi, limiti e rischi delle proposte

Il “pacchetto digitale” Ue

Fra novembre e dicembre 2020 la Commissione europea ha presentato il cosiddetto “pacchetto digitale”. Si tratta di tre proposte di regolamenti, rispettivamente sulla governance dei dati (Data Governance Act, COM(2020) 767 del 25 novembre 2020), sui mercati equi e contendibili nel settore digitale (Digital Markets Act, COM(2020) 842 del 15 dicembre 2020) e sul mercato unico dei servizi digitali (Digital Services Act, COM(2020) 826 del 15 dicembre 2020).

Attraverso lo strumento del regolamento, la Commissione mira ad ottenere un quadro normativo uniforme in tutti gli Stati membri dell’Unione relativamente agli ambiti considerati dalle proposte, in modo da favorire lo sviluppo del mercato unico digitale riducendo gli ostacoli causati dalle difformità legislative. In particolare, uno degli aspetti trattati nel Digital Services Act (d’ora innanzi DSA) riguarda l’introduzione dell’obbligo, per prestatori di servizi di hosting, di agire immediatamente per rimuovere o oscurare i contenuti illeciti diffusi dagli utenti, non appena acquisita la conoscenza di tali attività o contenuti illeciti o la consapevolezza di tali fatti o circostanze. Ciò fuga ogni dubbio sul fatto che il fornitore di servizi di hosting, se e quando la proposta di DSA entrerà in vigore, avrà l’obbligo di attivarsi con prontezza per contrastare la diffusione di contenuti illeciti, indipendentemente dalla modalità tramite le quali abbia acquisito conoscenza o consapevolezza della loro illiceità. Tra l’altro, proprio per facilitare l’acquisizione di conoscenza dei contenuti illeciti da parte degli hosting provider, l’art. 14 della proposta di regolamento introdurrebbe una apposita procedura di notice-and-take-down di facile accesso e uso per gli utenti, i quali potranno così segnalare la presenza di contenuti illeciti nella piattaforma.

Tuttavia, una questione che la proposta di regolamento non pare aver definito con sufficiente chiarezza è quella dell’esatta nozione di “contenuto illecito”. Per la verità, il considerando n. 12 ne dà un’interpretazione assai ampia: «tale concetto dovrebbe in particolare intendersi riferito alle informazioni, indipendentemente dalla loro forma, che ai sensi del diritto applicabile sono di per sé illegali, quali l’illecito incitamento all’odio o i contenuti terroristici illegali e i contenuti discriminatori illegali, o che riguardano attività illegali, quali la condivisione di immagini che ritraggono abusi sessuali su minori, la condivisione non consensuale illegale di immagini private, il cyberstalking, la vendita di prodotti non conformi o contraffatti, l’utilizzo non autorizzato di materiale protetto dal diritto d’autore o le attività che comportano violazioni della normativa sulla tutela dei consumatori. A tale riguardo è irrilevante che l’illegalità delle informazioni o delle attività sia sancita dal diritto dell’Unione o dal diritto nazionale conforme al diritto dell’Unione e quale sia la natura esatta o l’oggetto preciso della legge in questione». A parte il fatto che nessuna informazione è illegale “di per sé” (come recita il considerando), ma lo è solo se viola una norma giuridica, in base a quanto espresso nel considerando l’art. 2 lett. g della proposta di regolamento DSA qualifica come contenuto illegale «qualsiasi informazione che, di per sé o in relazione ad un’attività, tra cui la vendita di prodotti o la prestazione di servizi, non è conforme alle disposizioni normative dell’Unione o di uno Stato membro, indipendentemente dalla natura o dall’oggetto specifico di tali disposizioni».

Le difficoltà dell’armonizzazione normativa

Ciò significa che l’hosting provider, nella valutazione che dovrà compiere circa l’opportunità di rendere inaccessibili taluni contenuti, dovrà tener conto di un corpus normativo assai vasto di livello tanto europeo quanto nazionale, cosa che può rivelarsi piuttosto complicata, se si considera, da un lato, la natura transfrontaliera dell’attività di gran parte degli intermediari digitali e, dall’altro, la variabilità con cui le legislazioni nazionali tipizzano le varie categorie di illeciti. Si pensi, ad esempio, ad alcune fattispecie di reato presenti nell’ordinamento giuridico italiano, ma non in quello di altri Stati membri dell’Unione europea: l’apologia del fascismo (legge Scelba n. 645/1952, legge Reale n. 152/1975, legge Mancino n. 205/1993), cioè la propaganda di organizzazioni o movimenti di stampo fascista o l’esaltazione pubblica di esponenti, principi, metodi, fatti o finalità antidemocratiche del fascismo; oppure il cosiddetto reato di “negazionismo” introdotto in Italia dalla legge n. 115/2016, che comprende la propaganda, l’istigazione e l’incitamento alla discriminazione o all’odio razziale, etnico o religioso, se commessi in modo che ne derivi un concreto pericolo di diffusione e fondati in tutto o in parte sulla negazione della Shoah o dei crimini di genocidio, dei crimini contro l’umanità e dei crimini di guerra. Il provider, dunque, dovrebbe conoscere la normativa in vigore nei diversi Stati membri in cui opera e adottare policies più o meno restrittive a seconda del contesto nazionale di riferimento. È evidente come questo possa complicare non poco l’attività degli intermediari digitali, oltre al fatto che una disparità di trattamento per il medesimo contenuto, giustificata in base alla diversità della legislazione nazionale applicabile, potrebbe determinare l’insorgere di controversie fra operatori digitali, da un lato, e utenti o autorità nazionali, dall’altro. Proprio per ovviare a questo tipo di problemi, l’ordinamento giuridico dell’Unione sta mostrando una iniziale tendenza a raggiungere un certo livello di armonizzazione normativa fra tutti gli Stati membri almeno in relazione ad alcuni tipi di contenuti illeciti online considerati particolarmente gravi o frequenti, attraverso l’emanazione di una legislazione settoriale a livello europeo che imponga ai provider l’adozione di misure di contrasto alla loro diffusione.

Un primo passo in tal senso è stato compiuto con la decisione quadro 2008/913/GAI del Consiglio del 28 novembre 2008 sulla lotta contro talune forme ed espressioni di razzismo e xenofobia mediante il diritto penale. Con tale atto gli Stati membri dell’UE si sono impegnati a prevedere nel proprio ordinamento giuridico sanzioni penali per i comportamenti di stampo razzista e xenofobo. Tali comportamenti riguardano, in particolare, «l’istigazione pubblica alla violenza o all’odio nei confronti di un gruppo di persone, o di un suo membro, definito in riferimento alla razza, al colore, alla religione, all’ascendenza o all’origine nazionale o etnica», nonché «l’apologia, la negazione o la minimizzazione grossolana dei crimini di genocidio, dei crimini contro l’umanità e dei crimini di guerra», quando però tali comportamenti non consistano nella mera manifestazione di opinioni, ma siano posti in essere in modo atto a istigare alla violenza o all’odio nei confronti di gruppo – o di un suo membro – «definito in riferimento alla razza, al colore, alla religione, all’ascendenza o all’origine nazionale o etnica». Questi stessi comportamenti sono stati presi in considerazione nel Codice di condotta per contrastare lo hate speech online, promosso dalla Commissione europea nel giugno del 2016, cui hanno aderito le principali piattaforme digitali. L’adesione al Codice comporta l’impegno volontario dell’hosting provider a rimuovere prontamente i contenuti di odio segnalati dalle autorità competenti o dagli stessi utenti, nonché ad impedirne il successivo ricaricamento. È evidente, quindi, che nell’ottica della Commissione europea, la proposta di regolamento sui servizi digitali dovrebbe in primo luogo servire a contrastare più efficacemente questo tipo di contenuti, per i quali già da alcuni anni si fa ricorso al sistema della self-regulation.

Tuttavia, la definizione di hate speech di cui alla decisione quadro del 2008 non può dirsi esaustiva. Per esempio, già da molti anni il Parlamento europeo conduce una battaglia contro altre forme di odio e discriminazione, fra cui l’omofobia e l’antisemitismo, approvando in tal senso numerose risoluzioni (da ultimo, la risoluzione dell’11 marzo 2021 sulla proclamazione dell’Unione europea come zona di libertà per le persone LGBTIQ). In particolare, in una risoluzione approvata il 14 marzo 2013 (P7_TA(2013)0090) il Parlamento europeo ha evidenziato l’esigenza di una revisione della decisione-quadro 2008/913/GAI, in modo da includervi anche le manifestazioni di antisemitismo, intolleranza religiosa, antiziganismo, omofobia e transfobia. Tuttavia, le risoluzioni del Parlamento europeo non sono atti normativi vincolanti e finora le istanze in esse contenute non sono state accolte per via delle resistenze mostrate da alcuni Stati membri: il percorso verso il raggiungimento dell’armonizzazione normativa in quest’ambito si prospetta ancora lungo e accidentato.

Alla categoria dei contenuti illeciti connessi ai crimini d’odio, che possono essere veicolati anche attraverso Internet, si aggiungono quelle previste in alcune direttive settoriali approvate nello scorso decennio. La direttiva, come è noto, è un atto legislativo vincolante per gli Stati membri dell’UE, che però richiede da parte degli Stati membri un’attività di recepimento e di attuazione, con margini più o meno ampi di discrezionalità in ordine alla scelta dei metodi e delle misure da adottare.

In primo luogo, si deve considerare la direttiva relativa alla lotta contro l’abuso e lo sfruttamento sessuale dei minori e la pedopornografia 2011/92/UE del 13 dicembre 2011, che ha introdotto sanzioni penali minime, che gli Stati membri possono eventualmente aggravare, per una serie di reati commessi ai danni di minori (abuso sessuale, sfruttamento sessuale, pornografia minorile, adescamento per scopi sessuali, istigazione, favoreggiamento e concorso in questi tipi di reati), qualificando specificamente le relative condotte. In particolare, l’art. 25 della direttiva, rubricato “Misure contro i siti web che contengono o diffondono materiale pedopornografico”, impone agli Stati membri di adottare tempestive misure per assicurare la rimozione o il blocco di contenuti pedopornografici disponibili online. Quindi, l’entrata in vigore della proposta di regolamento DSA comporterà per gli hosting provider anche l’obbligo di contrastare questo tipo di contenuti.

La diffusione di contenuti terroristici online

Un altro ambito che la normativa europea ha preso in considerazione è quello del terrorismo online. Già da qualche anno vige la direttiva (UE) 2017/541 del 15 marzo 2017, che qualifica una cospicua serie di reati consistenti in attività terroristiche, collegati al terrorismo o riconducibili al terrorismo, imponendo agli Stati membri di prevedere nel proprio ordinamento giuridico la punibilità di tali condotte. In particolare l’art. 21, intitolato “Misure per contrastare i contenuti online riconducibili alla pubblica provocazione”, chiede agli Stati membri di adottare le misure necessarie per assicurare la tempestiva rimozione dei contenuti online ospitati nel loro territorio che costituiscono una pubblica provocazione per commettere un reato di terrorismo, oppure per assicurare il blocco di tali contenuti, qualora non sia possibile provvedere alla loro rimozione alla fonte, nonché di adoperarsi per ottenere la rimozione di tali contenuti ospitati al di fuori del loro territorio. Non vi è dunque alcun dubbio sul fatto che i comportamenti e i contenuti connessi al terrorismo siano considerati illeciti in tutta l’UE e che l’entrata in vigore della proposta di regolamento DSA comporterà l’obbligo per le piattaforme digitali di contrastarli efficacemente.

A ciò si aggiunge il fatto che nel 2018 la Commissione europea ha presentato un’ulteriore proposta di regolamento relativo alla prevenzione della diffusione di contenuti terroristici online – COM(2018) 640 del 12 settembre 2018 – che stabilisce una definizione di contenuti terroristici online in conformità alla definizione di reati di terrorismo di cui alla direttiva (UE) 2017/541. ». I contenuti terroristici in questione sono definiti dall’art. 2 par. 5: messaggi che istigano alla commissione di reati di terrorismo, anche mediante l’apologia, o che incitano a contribuire alla loro commissione; contenuti che promuovono le attività di gruppi terroristici, incoraggiando la partecipazione o il sostegno nei loro confronti; istruzioni su metodi e tecniche da utilizzare per commettere reati di terrorismo. In particolare, secondo la proposta di regolamento, i prestatori di servizi di hosting sono tenuti ad obblighi di diligenza (art. 3), cioè a mettere in atto «misure adeguate, ragionevoli e proporzionate, per prevenire la diffusione di contenuti terroristici e proteggere gli utilizzatori da tali contenuti. Sul fronte della prevenzione, l’art. 6 è ancora più specifico: al prestatore di servizi di hosting si richiede di adottare «misure proattive per proteggere i loro servizi dalla diffusione di contenuti terroristici. Tali misure sono efficaci e proporzionate, in considerazione del rischio e del livello di esposizione a contenuti terroristici, dei diritti fondamentali degli utilizzatori e dell’importanza fondamentale che riveste la libertà di espressione e di informazione in una società aperta e democratica»; le misure in questione possono prevedere anche il ricorso a strumenti automatizzati e devono essere volte non solo a individuare, identificare e rimuovere prontamente i contenuti terroristici o disabilitarne l’accesso, ma anche a prevenire che siano nuovamente caricati online i contenuti terroristici già rimossi o bloccati. Oltre alla prevenzione, la proposta di regolamento si muove anche sul fonte del contrasto (art. 4): su richiesta delle autorità competenti, i prestatori di servizi di hosting sono tenuti a rimuove e i contenuti terroristici o a disabilitarne l’accesso con la massima tempestività (entro un’ora dal ricevimento dell’ordine di rimozione). Ricordiamo che al momento si tratta solo di una proposta, che potrà subire modifiche durante l’iter di approvazione. Emerge chiaramente, tuttavia, l’intenzione di responsabilizzare i provider rispetto ai contenuti terroristici mediante l’introduzione di obblighi cogenti a loro carico.

La direttiva Ue sui servizi di media audiovisivi

Occorre poi considerare anche la direttiva (UE) 2018/1808 del 14 novembre 2018, relativa alla fornitura di servizi di media audiovisivi, che ha modificato la precedente direttiva 2010/13/UE, in considerazione della rapida e significativa evoluzione del mercato dei servizi di media audiovisivi, caratterizzata soprattutto dalla attuale convergenza fra televisione e servizi via Internet. La direttiva del 2018 ha introdotto un nuovo art. 28 ter, secondo il quale agli Stati membri è fatto obbligo di assicurarsi che i fornitori di piattaforme per la condivisione di video soggetti alla loro giurisdizione adottino misure adeguate a tutelare: a) i minori da contenuti che possano nuocere al loro sviluppo fisico, mentale e morale; b) il grande pubblico da contenuti che istighino alla violenza o all’odio nei confronti di un gruppo di persone o un membro di un gruppo; c) il grande pubblico da contenuti che costituiscono reati ai sensi del diritto dell’Unione, cioè in particolare la pubblica provocazione a commettere reati di terrorismo (direttiva (UE) 2017/541), la pedopornografia (direttiva 2011/93/UE) e i reati di stampo razzista e xenofobo (decisione quadro 2008/913/GAI). Quindi, le tre categorie di illeciti che abbiamo esaminato fin qui sono confermate anche rispetto al contenuto di programma audiovisivi, video user-generated e comunicazioni commerciali audiovisive.

Illecito trattamento dei dati personali

Un ulteriore ambito di contenuti illeciti per i quali l’Unione europea si è sforzata di realizzare un’uniformità normativa comprende tutti quelli per i quali si è verificato un illecito trattamento dei dati personali, ai sensi del regolamento generale sulla protezione dei dati n. 2016/679 (noto con la sigla GDPR) e in particolare del suo art. 6, che prescrive le condizioni di liceità del trattamento (fondate in primo luogo, ma non esclusivamente, sul consenso informato da parte dell’interessato). Va menzionato, inoltre, l’art. 17, che consente all’interessato di chiedere al titolare del trattamento la cancellazione dei dati personali che lo riguardano e intima al titolare – in questo caso, al provider – non solo di provvedere a ciò senza ritardo, ma anche di informare altri soggetti che stanno trattando i medesimi dati della richiesta dell’interessato di cancellare qualsiasi link, copia o riproduzione dei suoi dati personali. Il titolare del trattamento dei dati risponde per il danno cagionato da trattamenti effettuati in violazione del regolamento ed è tenuto al risarcimento del danno (art. 82), oltre ad essere passibile di sanzioni amministrative pecuniarie (art. 83). Spetta però alle legislazioni nazionali l’eventuale qualificazione di alcuni tipi di trattamenti illeciti di dati come reati e la previsione delle relative sanzioni penali (art. 84). Quindi, sebbene il GDPR abbia uniformato il quadro normativo applicabile ai trattamenti dei dati con riguardo agli obblighi dei titolari dei trattamenti e alla loro responsabilità civile, l’ambito penale rimane di competenza nazionale e può pertanto prevedere divergenze anche notevoli fra i diversi ordinamenti giuridici. Nel caso italiano, ad esempio, commette un reato chi tratta i dati illecitamente, oppure li trasferisce all’estero, al fine di procurare un profitto per sé o un danno alla persona cui i dati si riferiscono (art. 167 del Codice in materia di protezione dei dati personali). Costituiscono reati anche la comunicazione e la diffusione di dati personali oggetto di trattamento su larga scala, al fine di trarre profitto per sé o altri ovvero al fine di arrecare danno ad altri (art. 167 bis), l’acquisizione fraudolenta di dati personali oggetto di trattamento su larga scala al fine di trarne profitto o di arrecare danno ad altri (art. 167 ter), le false attestazioni all’Autorità garante dei dati personali (art. 168) e l’inosservanza dei suoi provvedimenti (art.170). A parte questi ultimi due casi, è evidente che nell’ordinamento giuridico italiano la rilevanza penale della condotta è strettamente dipendente dal profitto personale o dal danno cagionato ad altri, ma non necessariamente è così in altri paesi.

La protezione dei consumatori nell’Unione europea

Per quanto riguarda, invece, la protezione dei consumatori nell’Unione europea, la direttiva 2011/83/UE del 25 ottobre 2011 si applica ai contratti conclusi fra consumatori e professionisti e considera, fra l’altro, anche i contratti conclusi dai consumatori a distanza, precisando quali informazioni il consumatore debba ricevere in modo chiaro e comprensibile prima di stipulare il contratto (artt. 6 e 8), nonché la possibilità per il consumatore di esercitare il diritto di recesso, essendo stato debitamente informato di tale diritto (artt. 9-16). Quindi, con riferimento ai siti di e-commerce, si può desumere che l’entrata in vigore del DSA comporterà l’obbligo per i prestatori di servizi di intermediazione digitale di inibire l’accesso alle pagine web in cui gli operatori commerciali invitano i consumatori a contrarre con modalità non rispettose di quanto prescritto dalla direttiva sui diritti dei consumatori. Peraltro, la direttiva 2005/29/CE dell’11 maggio 2005 vieta una serie di pratiche commerciali sleali lesive degli interessi economici dei consumatori, con particolare riferimento alle pratiche ingannevoli e a quelle troppo aggressive; quindi, laddove il provider, in seguito all’entrata in vigore del regolamento DSA, ricevesse segnalazioni in tal senso, dovrebbe provvedere prontamente ad inibire l’accesso ai contenuti contestati presenti online. Lo stesso dovrebbe accadere nelle ipotesi di pubblicità ingannevole, vietata dalla direttiva 2006/114/CE del 12 dicembre 2006. Va però sottolineato che le tre direttive a cui si è fatto qui riferimento lasciano ampia libertà agli Stati membri di determinare le modalità per la loro attuazione; di conseguenza, potrebbe non essere agevole per i provider orientarsi fra le diverse normative nazionali al fine di determinare l’opportunità o meno di inibire l’accesso a determinati contenuti o informazioni pregiudizievoli per i consumatori.

Diritto d’autore e diritti connessi nel mercato unico digitale

Infine, non va dimenticata la direttiva (UE) 2019/790 del 17 aprile 2019, sul diritto d’autore e sui diritti connessi nel mercato unico digitale. Ai sensi dell’art. 17 par. 4 i prestatori di servizi di condivisione di contenuti online sono responsabili per la diffusione al pubblico di opere e altri materiali protetti dal diritto d’autore avvenuta in assenza di autorizzazione concessa dai titolari dei diritti. Si evince, dunque, che un’ulteriore categoria di contenuti illeciti ai sensi del diritto dell’Unione, che gli hosting provider sono tenuti a rendere inaccessibili, comprenda tutti i materiali diffusi in violazione delle norme sul copyright. Infatti, sempre secondo l’art. 17 par. 4, il provider, per non essere considerato responsabile dell’illecito dovrà dimostrare: a) di aver compiuto i massimi sforzi per ottenere l’autorizzazione alla diffusione dell’opera; b) di aver compiuto, secondo elevati standard di diligenza professionale di settore, i massimi sforzi per non rendere disponibili opere protette da copyright; c) di aver agito tempestivamente, dopo aver ricevuto una segnalazione sufficientemente motivata dai titolari dei diritti, per rendere inaccessibili le opere o altri materiali oggetto di segnalazione e di aver compiuto i massimi sforzi per impedirne un nuovo successivo caricamento.

Lotta alla disinformazione

Un discorso a parte va fatto per la disinformazione, che è un tema rispetto al quale l’Unione europea è particolarmente sensibile, pur mostrando notevoli incertezze e difficoltà rispetto alla sua regolamentazione. La disinformazione, infatti, non mina soltanto il diritto delle persone ad acquisire informazioni complete, veritiere ed attendibili sulla realtà che le circonda, potendo così compiere delle scelte avvedute e consapevoli, ma costituisce anche un significativo strumento di influenza politica di cui ci si può deliberatamente servire per minare le basi democratiche della società europea, tanto più che la risonanza dei contenuti di disinformazione è amplificata attraverso la rete Internet anche mediante il frequente ricorso a strumenti automatizzati (bot) per la loro propagazione.

Pur avendo acquisito negli ultimi anni piena consapevolezza della gravità del fenomeno, come dimostrano numerose comunicazioni che la Commissione europea ha adottato dal 2015 in avanti relativamente alla disinformazione online, sul piano regolatorio l’Unione europea stenta ad adottare norme cogenti, data l’obiettiva difficoltà di trovare un efficace punto di bilanciamento fra il diritto individuale alla libera manifestazione del pensiero, caposaldo di ogni ordinamento democratico, e l’esigenza di proteggere i sistemi democratici dagli attacchi destabilizzanti provenienti dalla deliberata organizzazione di massicce campagne di disinformazione. Nel rapporto pubblicato a gennaio 2018 dal gruppo di esperti di alto livello sulle notizie false e la disinformazione, istituito dalla Commissione europea, la disinformazione è stata definita come informazione falsa, imprecisa o fuorviante, concepita, presentata e diffusa a scopo di lucro o per ingannare intenzionalmente il pubblico, suscettibile di arrecare un pregiudizio pubblico. Quindi, gli elementi costitutivi della fattispecie sono la consapevolezza della falsità del contenuto e l’intenzionalità della condotta diffusiva, congiuntamente al fine di profitto o alternativamente di danno.

La definizione esclude così tutti i contenuti inattendibili che gli utenti di Internet diffondono, anche intenzionalmente, o con intenti giocosi o perché convinti in buona fede della verità dell’informazione. In ogni caso, si tratta di una definizione che, non essendo recepita all’interno di un atto normativo, non ha alcuna efficacia giuridica vincolante.

Come è noto, la Commissione europea per il momento ha incardinato la strategia di contrasto alla disinformazione sul sistema di autodisciplina previsto dal Code of Practice on Disinformation, un codice di buone pratiche per contrastare la disinformazione, adottato a settembre 2018, cui i prestatori di servizi via Internet aderiscono spontaneamente. Per il momento vi hanno aderito i maggiori player della Rete, ma ne restano fuori moltissimi operatori di minori dimensioni. Certamente il Codice ha il merito di incentivare i provider a prevedere nelle proprie policies efficaci misure di contrasto alla disinformazione, ma lascia a ciascuno di essi la massima libertà di determinare i criteri in base ai quali i contenuti di disinformazione vengono qualificati e le procedure e modalità con cui essi vengono rimossi o bloccati, nonché l’eventuale possibilità per l’utente di opporsi alla decisione inibitoria del provider. Dunque, posto che finora nessun atto normativo vincolante prodotto a livello di Unione europea ha stabilito i parametri in base ai quali i contenuti di disinformazione possano essere qualificati come illeciti, è assai dubbio che l’entrata in vigore del regolamento DSA possa comportare un obbligo di contrasto nei loro confronti in capo ai prestatori dei servizi di intermediazione digitale. Più probabilmente, nel campo della disinformazione continuerà ad applicarsi ancora per molto tempo l’attuale sistema di autodisciplina volontaria, fatta eccezione per i pochi Stati membri dell’UE che hanno adottato almeno alcune regole cogenti in tale ambito, fra cui la Francia (Loi relative à la lutte contre la manipulation de l’information, 22 dicembre 2018, n. 1202) e la Germania (Netzwerkdurchsetzungsgesetz, 30 giugno 2017, n. 536).

Conclusioni

In base a tutto ciò che è stato fin qui scritto, è auspicabile che durante l’iter di approvazione della proposta di regolamento sui servizi digitali venga presa in considerazione l’opportunità di precisare più attentamente l’ambito dei contenuti illeciti che i provider saranno obbligati a contrastare proattivamente. Il rischio, altrimenti, è che da questo punto di vista il nuovo regolamento produca ancora maggiore incertezza, anziché favorire il livello di armonizzazione normativa che sarebbe invece utile raggiungere per il buon funzionamento dei servizi digitali nel mercato interno.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4