Digital Services Act, ecco le priorità da affrontare per un nuovo codice digitale | Agenda Digitale

Lo scenario

Digital Services Act, ecco le priorità da affrontare per un nuovo codice digitale

Il Digital Services Act, di cui è atteso oggi l’approvazione dalla Commissione UE, si basa sul chiarire le responsabilità legate ai servizi digitali e garantire condizioni pari nei mercati, contemplando anche prospettive come una maggiore sicurezza: vediamo questi punti prioritari e l’impatto sulle piattaforme

15 Dic 2020
Alberto Gambino

Ordinario di Diritto Privato University of Rome Europea

Transizione 4.0

Chiarire le responsabilità dei servizi digitali e la questione di condizioni pari nei mercati digitali, oltre a ridurre la frammentazione normativa, garantire più sicurezza e migliorare la governance dei servizi digitali: sono le prospettive per migliorare il Digital Single Market europeo contenute nella consultazione sul Digital Services Act (DSA), di cui è atteso oggi l’adozione dal parte della Commissione europea.

Come chiarito nella comunicazione “Plasmare il futuro digitale dell’Europa”[1], il DSA riconoscerà necessariamente i radicali cambiamenti provocati dalle tecnologie digitali oggi più che mai, considerate le vicende legate alla pandemia.

I pillar della consultazione sul DSA

Le nostre abitudini di vita, con un passaggio repentino al digitale, si sono adeguate ad una e-life imposta quale surrogato, e non più compendio, della nostra quotidianità relazionale. La consultazione sul DSA è funzionale all’elaborazione di un nuovo codice digitale. La Commissione si è concentrata su due pilastri, che sottendono due importanti tematiche:

WEBINAR
Approccio Zero Trust: quanto è importante in un progetto di security? Scoprilo nel live
Sicurezza
Cybersecurity
  • fare chiarezza sulle responsabilità dei servizi digitali, questione che coinvolge la struttura della direttiva sul commercio elettronico, la libertà di fornire servizi digitali nel mercato unico UE secondo le norme del luogo di stabilimento e un’ampia limitazione della responsabilità per i contenuti creati dagli utenti;
  • la questione della parità di condizioni nei mercati digitali europei, tenendo in considerazione il ruolo delle grandi piattaforme sistemiche.

Altre prospettive del DSA per migliorare il funzionamento del mercato unico, inter alia, sono:

  • Ridurre la frammentazione normativa. Alcuni Stati membri hanno perfezionato iniziative legislative a livello nazionale al fine di ridurre la diffusione di contenuti dannosi. È il caso del Network Enforcement Act (c.d. NetzDG) del 2017 per la Germania e della Loi contre les contenus haineux sur internet (c.d. Loi Avia) francese del 2020, invero in gran parte censurata dal Conseil constitutionel perché contrastante con l’art. 66 Cost. Fr., promulgata il 24 giugno 2020.
  • Efficientamento della governance e della sorveglianza dei servizi digitali e degli algoritmi da questi utilizzati; il rafforzamento della cooperazione.
  • Maggiore sicurezza online dovuta alla disponibilità online di prodotti, contenuti e servizi illegali, alla diffusione della disinformazione e di materiale dannoso.

Ulteriori misure verranno adottate in via complementare, come il New competition tool to strengthen competition enforcement (un nuovo strumento complementare per accrescere il rispetto delle regole di concorrenza), la revisione della Direttiva 2001/95/EC relativa alla sicurezza generale dei prodotti (GPSD)[2], nonché le misure in risposta alla c.d. infodemia[3].

La responsabilità sui prodotti

Con riferimento al primo punto della consultazione, sulla responsabilità dei servizi digitali, il quadro normativo è ormai risalente – precisamente all’8 giugno 2000 – con la Direttiva 2000/31/CE sul Commercio Elettronico (ECD). L’ECD ha giocato un ruolo determinate per la crescita dei servizi digitali in tutta Europa. In assenza di tali disposizioni si sarebbe ostacolata l’evoluzione degli intermediari e lo sviluppo del commercio elettronico. Ci si domanda, tuttavia, se il suo modello sia ancora valido.

Si tenga anche presente che l’Europa necessita di una riforma perequativa tra mondo online e offline, in grado di garantire il medesimo grado tutela dei diritti fondamentali, come definiti dal sostrato del diritto primario che ha ispirato il modello europeo e consentito la declinazione dei suoi valori nel settore digitale: apertura, equità, pluralismo, democrazia e sicurezza.[4] In concreto, il tema della responsabilità riguarda sia la questione dei processi che le piattaforme online dovrebbero predisporre per fronteggiare gli effetti di attività dannose, illegali o abusive del servizio offerto, sia la questione del riesame dell’architettura giuridica del regime di responsabilità dei prestatori di servizi che agiscono da intermediari.

Nelle sue linee guida 2019-2024 il Presidente della Commissione aveva già affermato che il DSA avrebbe portato ad un upgrade delle regole sulla responsabilità e sicurezza per le piattaforme, servizi e prodotti digitali, completando, in questo modo, il DSM. Il regime di responsabilità degli intermediari online è tuttora regolato principalmente dall’ECD, strumento orizzontale che distingue tra tipologie di servizi di semplice trasporto (mere conduit), di memorizzazione (caching) e di hosting, garantendo, in questi casi, l’esenzione dalla responsabilità. L’ECD prevede inoltre all’art. 15 – da leggersi in combinazione con il considerando 47 – il divieto agli Stati membri di imporre ai prestatori intermediari obblighi generali di sorveglianza e di ricerca in merito alla presenza di attività illecite. Tuttavia, non preclude agli Stati membri di chiedere ai prestatori di servizi, che detengono informazioni fornite dai destinatari del loro servizio, di adempiere al dovere di diligenza che è ragionevole attendersi da loro ed è previsto dal diritto nazionale, al fine di individuare e prevenire taluni tipi di attività illecite.

Le disposizioni per le piattaforme

Altre disposizioni hanno inciso sul quadro delineato dall’ECD e, segnatamente:

  • la Direttiva (UE) 2018/1808 del 14 novembre 2018 sul coordinamento di determinate disposizioni legislative, regolamentari e amministrative degli Stati membri concernenti la fornitura di servizi di media audiovisivi (direttiva sui servizi di media audiovisivi), in considerazione dell’evoluzione delle realtà del mercato (AVMS), con riferimento all’art. 28-ter, a norma del quale gli Stati membri devono assicurare che i fornitori di piattaforme per la condivisione di video soggetti alla loro giurisdizione adottino misure adeguate per tutelare i minori da contenuti nocivi e tutti gli utenti da contenuti che istighino alla violenza o all’odio e da contenuti la cui diffusione costituisce un’attività che rappresenta un reato ai sensi del diritto dell’Unione (in particolare la pubblica provocazione per commettere reati di terrorismo, reati di pornografia minorile e reati di stampo razzista o xenofobo). Sempre a norma del medesimo articolo 28-ter, al paragrafo 2, i fornitori di piattaforme per la condivisione di video sono altresì soggetti a determinati obblighi relativi alle comunicazioni commerciali audiovisive.
  • la Direttiva (UE) 2019/790 del 17 aprile 2019 sul diritto d’autore e sui diritti connessi nel mercato unico digitale, il cui art. 17, pur non introducendo alcun obbligo generale di sorveglianza, richiede l’obbligo, per i prestatori di servizi di condivisione online, di ottenere un’autorizzazione dai titolari dei diritti per la condivisione dei contenuti.

Anche la Proposta di Regolamento relativo alla prevenzione della diffusione di contenuti terroristici online[5] si promette coerente con l’acquis relativo al mercato unico digitale e con la ECD. In particolare, secondo la Proposta, tutte le misure adottate dal prestatore di servizi di hosting in conformità col Regolamento, comprese le eventuali misure proattive, non dovrebbero di per sé implicare che il prestatore di servizi di hosting perda il beneficio dell’esenzione di responsabilità che è previsto, a determinate condizioni, all’articolo 14 dell’ECD. Tale fonte derivata dovrà raffrontarsi con le disposizioni adottate in virtù del nuovo DSA.

Pubblicità illegale via web: il caso in Italia

Problemi di patente irresponsabilità via web si registrano quotidianamente nelle pratiche commerciali online vietate da leggi dello Stato. Motori di ricerca antepongono ai risultati di ricerca libera, la pubblicità commerciale di aziende straniere che offrono servizi illegali in Italia. Il caso più eclatante, segnalato con una lettera al premier Conte riguarda la pubblicità illegale di pratiche sanitarie contro l’infertilità che fanno uso di surrogazione di maternità, vietate in Italia dall’art. 12 della legge 40/2004, che le configura come reato, con pena detentiva. Si tratta di un tema che non può essere sottaciuto nell’assetto regolatorio di uno Stato, la cui democrazia si radica sui diritti inviolabili della cittadinanza da tutelarsi evidentemente anche in quel segmento del web che si orienta al mercato e agli utenti italiani.

Spiace a tal proposito che l’AGCom, preposta a garantire i diritti nel settore delle comunicazioni anche internet – e che peraltro recentemente ha visto esplicitamente ampliate le proprie competenze, con la legge n. 145/2018, proprio con riferimento alle comunicazioni informative sanitarie, rimanga spettatrice.

Le prospettive di riforma

Le prospettive di riforma sul regime di responsabilità delle piattaforme postulano ,dunque, la definizione di alcuni nodi incardinati all’aggiornamento dell’ECD:

  • la necessità di ulteriori soluzioni in tema di responsabilità,[6]
  • la chiarezza, perdurante attualità e completezza del distinguo dei servizi operato dell’ECD,
  • l’attitudine di tale modello a favorire l’adozione di misure proattive,
  • la continuità nel c.d. safe harbor e nel divieto di imporre obblighi generali di sorveglianza, cercando di raggiungere l’efficienza normativa (“paretiana”) intesa come allocazione ottimale in termini di tutela del mercato, dei diritti fondamentali e della sicurezza, di durabilità e di armonizzazione delle disposizioni, nonché di incentivazione allo sviluppo tecnologico.

_

Note

  1. COM (2020) 67 final del 19.02.2020.
  2. Cfr. COM (2020) 37 final, annexes 1 to 5, del 29.01.2020 “Programma di lavoro della Commissione 2020. Un’Europa più ambiziosa”.
  3. Cfr. JOIN COM (2020) 8 final del 10.6.2020 “Tackling COVID-19 disinformation – Getting the facts right”.
  4. V. gli orientamenti generali della Commissione, contenuti nella Comunicazione “Verso una maggiore responsabilizzazione delle piattaforme online” – COM (2017) 555 final – del 28.09.2017 e nella Raccomandazione (UE) 2018/334 sulle misure per contrastare efficacemente i contenuti illegali online, del 01.03.2018.
  5. V. COM (2018) 640 final del 12.09.2018.
  6. L’esempio statunitense indica come la responsabilità delle piattaforme, regolata dalla Sezione 230 US Communications Decency Act (CDA), garantisca, inter alia, la rimozione o la limitazione dell’accesso a determinati contenuti, senza che questo costituisca una responsabilità legale, secondo regola della protezione del Buon Samaritano (c.d. Good Samaritan protection). In particolare, la §230(c)(2) prevede che “nessun provider o utente di un servizio informatico interattivo può essere ritenuto responsabile per: (A) qualsiasi azione intrapresa volontariamente in buona fede per limitare l’accesso o la disponibilità di materiale che il provider o l’utente considera osceno, lascivo, turpe, eccessivamente violento, molesto o comunque discutibile, indipendente dal fatto che tale materiale sia costituzionalmente protetto o meno; o (B) qualsiasi azione intrapresa per consentire o rendere disponibile ai fornitori di contenuti informativi o ad altri i mezzi tecnici per limitare l’accesso al materiale descritto nel paragrafo (1).

@RIPRODUZIONE RISERVATA

Articolo 1 di 3