Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

La riflessione

Regolare i big del web? Sì ma con una visione di lungo periodo

Il diritto storicamente sembra rimanere sempre un passo indietro rispetto ai fenomeni online. Ecco dunque che diventa complesso disciplinare questo ambito: confusione normativa e incertezza sono le conseguenze. Sbagliato fare norme sull’onda di uno stato sempre emergenziale: serve una strategia chiara e lungimirante

06 Set 2019

Giacomo Facchin

Consultant at KPMG Italy


Il diritto sconta una storica difficoltà nel definire in modo tempestivo adeguati strumenti per disciplinare i fenomeni tecnologici. Negli ultimi decenni questo si sta traducendo in una forma di “scarico di responsabilità”, da parte delle corti (es. Google-Spain) e del legislatore (Direttiva Copyright, proposta di legge australiana sulla responsabilità degli Executives dei social networks), che nel tempo sta portando i giganti del web a detenere una forma di potere di controllo e regolazione che i poteri legislativi e giurisdizionali nazionali, soprattutto per la velocità dei fenomeni online, non riescono ad esercitare.

Fenomeni online in crescita

Il tema relativo al complicato rapporto tra il diritto ed i fenomeni online acquista ogni anno maggior importanza. Nell’ultimo ventennio la percentuale di cittadini americani che non utilizza Internet è diminuita da quasi il 50% al 10%, ed è verosimilmente destinata a calare sempre più[1]. L’evoluzione di Internet ha portato ad una sempre maggior partecipazione attiva degli utenti sul web, e ad un’attività di condivisione e scambio di informazioni che ha raggiunto volumi che non hanno precedenti nella storia della Rete. È innegabile l’enorme impatto che Internet ha sulla società, a livello globale, ed esso, come ogni fenomeno sociale, necessita di essere affrontato anche dal punto di vista normativo.

Il diritto sconta però una storica difficoltà nel disciplinare in modo tempestivo i fenomeni legati al mondo digitale, dovuta a una molteplicità di fattori. Uno di questi è certamente il rapporto tra l’enorme velocità tenuta dalle novità tecnologiche, e in particolare dai fenomeni che si sviluppano in rete, e la scarsa velocità di reazione che caratterizza gli organi legislativi e giudiziari nazionali e sovranazionali. In risposta a questa disparità, negli ultimi anni può essere individuata una tendenza che ha portato ad una serie di decisioni provenienti dal potere legislativo e giurisdizionale le quali, in modo più o meno volontario, hanno portato organi legislativi e giudiziari ad attribuire ad una sempre maggiore attribuzione di compiti di auto-controllo e regolamentazione alle grandi compagnie del web.

La soluzione europea

Per trovare degli esempi non serve guardare molto lontano: la cd. Direttiva Copyright, approvata dal Parlamento europeo lo scorso 26 marzo, e in particolare il discusso articolo 13, affrontano un problema nato dallo sviluppo tecnologico, e in particolare dalla nascita del web 2.0, fondato sulla possibilità per gli utenti di condividere e diffondere contenuti: contenuti che potenzialmente possono essere caricati illegalmente, in violazione del diritto di copyright.

La soluzione legislativa che è stata elaborata dall’Unione europea, sotto le forti pressioni dell’industria editoriale, è stata quella di obbligare le piattaforme web che permettono agli utenti il caricamento di contenuti di ogni natura, a procurarsi le licenze per la condivisione di tali elementi prima del loro caricamento, o al contrario di eliminare il materiale condiviso in violazione della normativa in materia di diritto d’autore. La norma, va apparentemente a proporre due soluzioni alternative: la “messa in regola” dei contenuti, o la loro rimozione. La prima di queste due opzioni è però pressoché simbolica, essendo impossibile, nella gestione dei volumi di informazioni e contenuti presenti in piattaforme come Youtube, Facebook, e Instagram, ottenere le licenze per il materiale caricato dagli utenti. Impossibile perché le piattaforme non solo si troverebbero di fronte a costi incalcolabili in considerazione della quantità di upload eseguiti in ogni istante, ma anche per l’impossibilità oggettiva di acquisire le licenze prima che gli utenti condividano il materiale stesso sulle piattaforme, come richiesto dalla normativa.

Di conseguenza la direttiva di fatto opta per uno scarico di responsabilità forzato: data l’incapacità per il mondo del diritto di perseguire i singoli utenti per le loro azioni individuali, si è optato per una responsabilità delle piattaforme ospitanti, per le quali l’unico modo di rispettare i vincoli posti dalla normativa è quello di filtrare i contenuti e cancellare quelli vietati nel minor tempo possibile. Vista la mole di traffico che tali compagnie supportano, la soluzione obbligata è quella di predisporre filtri automatizzati, che vadano a riconoscere e bloccare i contenuti vietati.

L’imprecisione degli algoritmi

Se in prima battuta quella disposta dalla Direttiva Copyright può sembrare una soluzione ragionevole e per certi versi ingegnosa, osservandone da più vicino le conseguenze si può verificare come gli algoritmi predisposti alla selezione dei contenuti “vietati”, non possiedano, allo stato attuale, la capacità di selezionare e categorizzare le informazioni in modo preciso, individuando puntualmente ciò che violi il copyright e ciò che invece sia consentito. A maggior ragione i filtri non hanno la capacità di individuare le eccezioni, quali quelle previste e permesse dalla direttiva, ad esempio nel caso di contenuti satirici. Al contrario, tali strumenti di filtraggio sono imprecisi, e al fine di evitare contenziosi, saranno settati “per eccesso”, andando a cancellare contenuti anche in casi dubbi, eliminando per errore contenuti consentiti. Questa approssimazione nell’attività di selezione e cancellazione costituisce un’evidente minaccia per la libertà di espressione. Infatti il funzionamento che sta alla base dei sistemi di cancellazione dei social network e delle grandi piattaforme di condivisione del web è opachi e poco comprensibile, si presta a forme di abuso[2], e le stessa aziende tendono a evitare di parlarne, similmente al modo in cui viene evitato il tema della cancellazione manuale, che opera a valle dei sistemi automatizzati, anch’essa gestita secondo condizioni e logiche per nulla pubblicizzate[3].

La tendenza dei regolatori nazionali a disporre, più o meno esplicitamente, l’adozione di meccanismi automatizzati di selezione e cancellazione tempestiva, o addirittura preventiva, trova un altro esempio in una legge approvata in Australia lo scorso 2 Aprile, sull’onda emotiva dell’attacco terroristico di Christchurch, che prevede un obbligo per le piattaforme online di rimuovere in modo tempestivo contenuti particolarmente violenti[4]. La legge è stata criticata per la vaghezza dei termini che vanno a definire aspetti chiave della normativa, ossia l’individuazione dei soggetti interessati dalla legge, definiti genericamente “company”, e la portata del termine “tempestivamente”.[5] Il discusso testo di legge è stato predisposto molto velocemente, in risposta allo spavento, all’indignazione e al timore di tentativi di emulazione, innescati dalla pubblicazione su Facebook, in diretta, del video della strage. Il testo è stato quindi prodotto in fretta e, secondo alcuni commentatori, senza un approfondito lavoro di consultazione. Un’ulteriore critica mossa alla legge è stata quella di aver applicato al mondo del web, in cui i contenuti sono spesso caricati in autonomia dall’utente, le logiche di altri media, come la televisione o le testate giornalistiche, dove i responsabili della pubblicazione dei contenuti possono esercitare un buon grado di controllo su quanto viene messo in onda[6]. Anche questa legge, di fatto, costringe dunque le piattaforme a dotarsi di filtri automatizzati, ossia gli unici che possono bloccare i contenuti in maniera tempestiva, scontando però un livello di approssimazione che rischia di mettere a repentaglio la libertà di espressione[7].

La definizione di forme di autocontrollo

Di fronte all’evoluzione portata dal Web 2.0 e 3.0, in cui si è visto l’utente guadagnare un ruolo sempre più attivo nel contribuire allo sviluppo di Internet, il mondo del diritto sembra aver in parte dichiarato la propria incapacità, in termini di risorse e di velocità di intervento, di disciplinare i fenomeni di condivisione di informazioni e contenuti in rete. La soluzione individuata sembra dunque essere quella di definire forme di autocontrollo cui assoggettare i grandi giganti del Web, tenuti a verificare in autonomia il rispetto della legge relativamente a quanto condiviso dagli utenti.

Le radici di questo orientamento si possono ritrovare già nel caso Google v. Spain che può forse essere considerata tra le più influenti pronunce ad aver assecondato questa tendenza. Con tale sentenza infatti, la Corte di Giustizia dell’Unione europea stabilì, Il 13 maggio 2014, che l’attività svolta dal motore di ricerca Google costituiva un trattamento di dati personali, e per tale ragione individuò in capo a Google l’obbligo di de-indicizzare determinati risultati dalla ricerche, al fine di tutelare il diritto all’oblio dei soggetti interessati, generalmente protagonisti di fatti di cronaca, qualora i contenuti proposti riportassero informazioni personali non veritiere, non pertinenti o non essenziali. Quest’attività, in considerazione del meccanismo di indicizzazione di Google, affidato al funzionamento di sofisticati algoritmi di ricerca, non potè che essere demandata a sistemi automatizzati che filtrassero i contenuti, e solo successivamente ad un eventuale controllo svolto da un operatore umano, richiamando i problemi di accuratezza del filtro dei contenuti, e la conseguente criticità relativa alla tutela della libertà di espressione, già precedentemente individuata.

Lo scenario dei giganti del web

Se questi interventi legislativi e giurisprudenziali da un lato hanno creato e continuano a creare vincoli per i giganti del web, spesso costretti ad adeguarsi anche affrontando costi notevoli, dall’altro non fanno che attribuire a tali compagnie un potere di valutazione e filtro dei contenuti difficilmente controllabile da parte di soggetti esterni, siano essi privati, istituzioni, nazioni. Questo sistema di filtro va a costituire una forma di giudizio di legittimità dei contenuti svolto da operatori privati, sicuramente molto rapido ma completamente diverso, in termini di precisione e garanzie fornite alle parti dagli organi giurisdizionali. Inoltre, l’obbligo stesso di predisporre questi filtri, di fatto affidati a complessi e costosi algoritmi, crea un ostacolo competitivo per eventuali nuovi competitor che volessero entrare nel mercato, creando una barriera all’ingresso che rende ulteriormente difficile l’ingresso in un settore in cui gli attuali attori sono spesso accusati di abusare della propria posizione dominante[8]. Questa mancanza di competizione, sostengono alcuni, porta gli utenti a dover utilizzare determinate piattaforme, in assenza di compagnie che possano far leva su caratteristiche quali una maggior tutela della privacy degli utenti, o una gestione più sicura delle informazioni, per assicurarsi un vantaggio competitivo. Un’ulteriore e già accennata conseguenza, in considerazione della limitata precisione degli algoritmi predisposti al filtraggio dei contenuti, e della difficoltà di contestare le decisioni operate, è quello di limitare la libertà di espressione degli utenti, che difficilmente possono trovare alternative a grandi piattaforme come Facebook, Twitter o Instagram per diffondere la propria opinione.

In considerazione della rapida evoluzione dei fenomeni su internet, e tenuto conto delle enormi risorse a disposizione delle compagnie che oggi dominano il web, le scelta legislativa di rimettere a quegli stessi attori un obbligo di autoregolazione può essere certamente visto come una scelta ragionevole e pragmatica. D’altra parte però, non si può non evidenziare la minaccia per i principi democratici causata da un lato dalla difficoltà per qualunque soggetto di verificare che la selezione e cancellazione dei contenuti non sia eccessiva, e dall’altro dalla mancanza di tutele previste dagli ordinamenti nazionali e sovranazionali per chi venga colpito da un’applicazione troppo stringente dei sistemi di filtraggio.

In conclusione

L’attribuzione a piattaforme come Facebook e Google di compiti di selezione e cancellazione dei contenuti caricati da parte degli utenti non è ben voluta da queste stesse compagnie, che si trovano obbligate ad esercitare un potere di controllo il cui perimetro raramente è definito con sufficiente precisione[9], e spesso non sembra tenere in considerazione i limiti che la tecnologia e il volume di informazioni in circolo sul web impongono alle capacità di controllo delle piattaforme che consentono il caricamento di contenuti da parte degli utenti. Questo, come già detto, finisce per causare un senso di incertezza nel diritto, e provoca notevoli costi per le compagnie, al fine ottemperare alle previsioni normative, soprattutto in considerazione delle differenze normative che sussistono tra le diverse nazioni e i differenti ordinamenti.

È per questo motivo che i leader di queste compagnie hanno recentemente espresso più volte l’esigenza di definire regole chiare e comuni[10]. È anche per questo motivo, ma soprattutto per garantire il rispetto e bilanciamento dei diritti democratici anche su Internet, che è necessario che i legislatori operino in maniera congiunta, cercando di definire una normativa armonizzata a livello sovranazionale.

La necessità che emerge è quella di norme scritte con competenza, sganciata da logiche di risposta immediata e spesso approssimativa a fenomeni sociali e fatti di cronaca, ma frutto piuttosto di una visione strategica e condivisa di lungo periodo, che non si limiti a contenere e delimitare l’Internet di oggi, ma si proponga di indirizzare e rendere migliore l’Internet di domani.

Note

  1. https://www.pewresearch.org/fact-tank/2019/04/22/some-americans-dont-use-the-internet-who-are-they/
  2. https://www.valigiablu.it/filtri-copyright-beethoven-youtube/
  3. https://www.theverge.com/2019/2/25/18229714/cognizant-facebook-content-moderator-interviews-trauma-working-conditions-arizona
  4. https://parlinfo.aph.gov.au/parlInfo/download/legislation/bills/s1201_first-senate/toc_pdf/1908121.pdf
  5. Expeditiously, nel testo di legge.
  6. https://www.theguardian.com/media/2019/apr/04/australia-passes-social-media-law-penalising-platforms-for-violent-content
  7. Un altro esempio di una simile tecnica legislativa, che va a punire la piattaforma che ospita i contenuti, riguarda il white paper pubbligato dal Governo britannico lo scorso 8 aprile: https://www.gov.uk/government/news/uk-to-introduce-world-first-online-safety-laws.
  8. Uno tra i moltissimi esempi: https://www.nytimes.com/2018/12/05/technology/facebook-documents-uk-parliament.html
  9. Si è già detto della vaghezza del testo di legge australiano sul controllo sui social media. Si richiama qui invece quanto detto dallo Special Rapporteur dell’ONU sulla Direttiva Copyrigh: “Art. 13 […] couches the obligation to prevent the availability of copyright protected works in vague terms […].Such uncertainty would also raise pressure on content sharing providers to err on the side of caution and implement intrusive content recognition technologies that monitor and filter user-generated content at the point of upload. I am concerned that the restriction of user-generated content before its publication subjects users to restrictions on freedom of expression without prior judicial review of the legality, necessity and proportionality of such restrictions. (https://www.ohchr.org/Documents/Issues/Opinion/Legislation/OL-OTH-41-2018.pdf)
  10. https://www.washingtonpost.com/opinions/mark-zuckerberg-the-internet-needs-new-rules-lets-start-in-these-four-areas/2019/03/29/9e6f0504-521a-11e9-a3f7-78b7525a8d5f_story.html?noredirect=on&utm_term=.fee272327050; https://www.theverge.com/2019/4/23/18512838/tim-cook-tech-regulation-society-damage-apple-ceo.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4