Piattaforme tech, arbitri di diritti fondamentali: tutti i rischi - Agenda Digitale

l'analisi

Piattaforme tech, arbitri di diritti fondamentali: tutti i rischi

Dalla gestione del lavoro (rider), alla censura “politica”, le piattaforme hanno assunto un’egemonia che potremmo definire sovrastrutturale. Al punto che sono loro a operare il primo (e potenzialmente anche unico) vaglio di illiceità dei contenuti meritevoli di rimozione. La Ue prova a arginarle con il Digital Services Act

11 Mar 2021
Federica Resta

Dirigente presso il Garante privacy*

“Guidati, sorvegliati, valutati attraverso l’intelligenza artificiale. Ci troviamo davanti a un sistema di organizzazione aziendale che funziona attraverso l’intelligenza artificiale”. Così il Procuratore della Repubblica di Milano, Francesco Greco, ha descritto, nella conferenza stampa illustrativa delle indagini sui rider, il caporalato digitale, ovvero uno degli aspetti più drammatici del capitalismo delle piattaforme.

Espressione, questa, che forse meglio di ogni altra coglie la caratteristica determinante del sistema economico attuale, in cui le piattaforme hanno assunto un’egemonia che secondo gli schemi gramsciani potremmo definire non soltanto strutturale ma anche e soprattutto sovrastrutturale.

Il potere delle piattaforme

Il loro potere non è, infatti, limitato al piano economico ma si è progressivamente esteso a quello informativo– con una capacità di condizionamento ben dimostrata dal caso Cambridge Analytica – con alcune delle prerogative tipiche della sovranità: si pensi al potere di risoluzione delle controversie, il cui esercizio esprime appunto la potestà, tipicamente sovrana, dello jus dicere. E’, in fondo, una juris dictio (privata, appunto, ma non certo irrilevante) quella esercitata dal Comitato per il controllo di Facebook, che quale soggetto privato – pur con caratteristiche di autorevolezza dovute alle personalità dei componenti – decide a sua volta della legittimità dell’esercizio, da parte di Facebook, del suo potere di moderazione e rimozione dei contenuti (come ben illustra la vicepresidente del Garante per la protezione dei dati personali, Ginevra Cerrina Feroni). E che organismi del genere assicurino un minimo sindacato – benché, lo si ripete, di natura privatistica- sulle scelte compiute dalle piattaforme è certamente un bene, nella misura in cui contribuisca a ridurne l’arbitrarietà. Non a caso, l’istituzione di tali strutture – introdotte in particolare dalla legge tedesca sui social network- rappresenta uno dei punti qualificanti il Digital Services Act, proposto il 15 dicembre dalla Commissione Ue.

quiz
[QUIZ] Sei pronto per garantire una customer connection eccellente?
CRM
Digital Transformation

Ma ciononostante, proprio l’esigenza sottesa all’istituzione di questi organismi dimostra l’incisività del potere esercitato dalle piattaforme, assurte ormai a veri e propri arbitri di diritti fondamentali: soprattutto, ma non solo, la libertà di espressione da un lato e la dignità dall’altro, violata da hate speech, discorsi negazionisti ecc. E se da un lato va pretesa dai gestori una cooperazione efficace nella rimozione dei contenuti, dall’altro non è scevra da criticità la circostanza che ad operare il primo (e potenzialmente anche unico) vaglio di illiceità dei contenuti, meritevoli dunque di rimozione, siano proprio le piattaforme.

La censura “politica” in mano ai social

Fin dove questo potere possa spingersi si è ben visto in occasione della vicenda relativa all’oscuramento dell’account (in particolare di Facebook) di Donald Trump, nel contesto della “reazione” all’assalto di Capitol Hill e al clima che lo ha, sia pur implicitamente, alimentato.

Ma il caso di Donald Trump non è isolato: abbiamo avuto un esempio di questo incisivo private enforcement anche in Italia e ancora una volta in relazione ad esponenti politici. Emblematiche, in questo senso, le vicende che hanno riguardato l’oscuramento dei profili Facebook di movimenti politici (o loro rappresentanti) come Forza Nuova e, soprattutto Casapound. In questi casi – come ha ricordato il Presidente del Garante, Pasquale Stanzione – la giurisprudenza si è misurata con la difficoltà di stabilire il confine oltre il quale l’autonomia privata (di cui il contratto che regola il servizio di social network è, pur sempre, espressione), esiga invece una peculiare forma di eteroregolazione funzionale alla garanzia dei diritti e delle libertà incise da questi contratti.

Fino a che punto, insomma, l’oscuramento della pagina di un movimento politico può ridursi a mero recesso dal contratto di fornitura del servizio di social network? O deve, questa libertà negoziale, essere esercitata tenendo conto delle implicazioni che ha sui diritti di partecipazione politica dei singoli e dei gruppi? Ed è davvero ammissibile onerare soggetti privati, che legittimamente agiscono secondo logiche commerciali, della valutazione di liceità dei contenuti diffusi, alla stregua di policies interne che riflettono bilanciamenti tra diritti e libertà, complessi persino per il giudice?

La forte asimmetria tra utenti e piattaforme

Su questo punto l’ordinanza del Tribunale di Roma del 29 aprile scorso, sulla vicenda Casapound, è netta nell’escludere la possibilità di “riconoscere ad un soggetto privato, quale Facebook Ireland, sulla base di disposizioni negoziali e quindi in virtù della disparità di forza contrattuale, poteri sostanzialmente incidenti sulla libertà di manifestazione del pensiero e di associazione, tali da eccedere i limiti che lo stesso legislatore si è dato nella norma penale”.

Osserva, del resto, in linea generale, il Tribunale, come la “qualificazione del rapporto in termini contrattuali e l’assenza di disposizioni normative speciali non implicano che la sua disciplina sia rimessa senza limiti alla contrattazione fra le parti ed al rapporto di forza fra le stesse né che l’esercizio dei poteri contrattuali sia insindacabile”.

Si tratta di una notazione tutt’altro che scontata, anche considerando che un caso molto simile era stato invece risolto dal Tribunale di Siena tutto in chiave negoziale, applicando dunque la logica civilistica che si sarebbe applicata in ogni altro contenzioso possibile rispetto a uno scorretto esercizio dell’autonomia contrattuale.

Il tema sollevato dalla vicenda Casapound – significativamente risolto in modo molto diverso nel caso, affine, di Forza Nuova, ove non si contesta né nel metodo né nel merito la scelta della piattaforma – sottende, in altri termini, un’irriducibile eccedenza della fattispecie rispetto alla sua qualificazione giuridica. Essa descrive, infatti, solo la cornice formale (il contratto) al cui interno, però, si realizzano libertà costituzionalmente garantite, in un contesto peraltro di forte asimmetria (anche, ma non solo negoziale) tra i due protagonisti della vicenda: l’utente (sia pur esso un esponente politico o addirittura un movimento) e la piattaforma.

Il ruolo arbitrale affidato alle piattaforme

Si ripropongono del resto, qui, le questioni già emerse rispetto al bilanciamento tra oblio e informazione sul terreno della deindicizzazione le cui decisioni sono affidate, in prima istanza, ai motori di ricerca, o anche riguardo al cyberbullismo con la l. 71 del 2017. Il ruolo arbitrale attribuito alle piattaforme era del resto plasticamente emerso, in tutta la sua complessità, con la sentenza del 3 ottobre 2019 (Glawischnig‑Piesczek c. Facebook), con cui la Corte di giustizia UE ha ammesso l’ingiunzione giudiziale di rimozione di contenuti equivalenti a quelli dichiarati illeciti perché lesivi della dignità.

Per quanto la Corte abbia circoscritto l’ammissibilità di tale ingiunzione “dinamica” ai casi di effettiva equivalenza dei contenuti, che non lasci residuare in capo al gestore margini significativi di valutazione discrezionale, è evidente come si stia onerando le piattaforme di valutazioni talora complesse e tutt’altro che ‘automatiche’ o automatizzabili.

Si tratta di un modello normativo molto diverso da quello adottato, ad esempio, nel nostro ordinamento sul terreno della propaganda filojihadista, per la quale il d.l. 7 del 2015 ha previsto l’obbligo di rimozione e oscuramento dei siti che ospitino questo tipo di contenuti, ma con decreto motivato (e dunque previo vaglio) del pubblico ministero. Laddove manchi la previa valutazione dell’autorità pubblica (giudiziaria o, alternativamente, amministrativa indipendente) sull’illiceità del contenuto, si finisce con il rimettere questo vaglio a un soggetto per definizione normativa (dir. 2000/31, dlgs 70/2003) neutro rispetto a ciò che viene postato dagli utenti, di cui gli è precluso il preventivo controllo.

E se questa neutralità e il “velo d’ignoranza” che la norma impone al gestore rispetto ai contenuti immessi dagli utenti viene meno nel caso dell’host provider attivo o, comunque, a seguito della richiesta di rimozione rivoltagli, tale dunque da imporgli un onere di attivazione, resta comunque la singolarità di attribuirgli l’onere di valutare la meritevolezza dell’istanza.

Ogniqualvolta l’accertamento dell’illiceità del contenuto – diversamente, ad esempio, dalla pedopornografia, per la quale il vaglio può spesso affidarsi ad analisi estrinseche quali la porzione di pelle esposta – implichi un controllo semantico, nel merito, come paradigmaticamente avviene per l’hate speech, si finisce con l’attribuire alle piattaforme un ruolo arbitrale tra posizioni giuridiche soggettive di rango persino costituzionale.

E se questo, da un lato, è fisiologico al fine di prevenire la permanenza e l’ulteriore propagazione, in rete, degli effetti dannosi della divulgazione di contenuti illeciti, dall’altro è sempre più difficile tracciare il confine tra responsabilizzazione, legittima e finanche doverosa e esercizio (potenzialmente anche arbitrario) di un ruolo di adjudication altrimenti, normalmente riservato all’ambito pubblicistico.

Le giurisdizioni private delle piattaforme

Non è un caso, del resto, che sulla scorta di questo modello normativo si stiano moltiplicando le “giurisdizioni private” delle piattaforme di cui si diceva: board e organi di risoluzione delle controversie che, tuttavia, finiscono con il sindacare anch’esse e, quindi, definire, il perimetro di esercizio di libertà e diritti anche fondamentali. Una conseguenza comprensibile, in fondo, della scelta normativa di attribuire ai gestori la funzione di risoluzione, almeno in prima istanza, delle controversie sull’obbligo di rimozione di contenuti lesivi.

La questione si fa ancora più delicata quando l’inottemperanza del gestore, alla richiesta di cancellazione proveniente dalla sola parte, non assistita da ordine giudiziale, sia qualificata come concorso – in forma agevolatoria o commissiva mediante omissione-, nel reato commesso dall’utente (significativa, in tal senso, la sentenza della V sez. della Cassazione, del 27 dicembre 2016, n. 54946). Al di là della dubbia configurazione di entrambe le forme concorsuali, infatti, è l’ascrizione in sé, della responsabilità penale, a un soggetto che la disciplina sul commercio elettronico esige sia neutro, a rappresentare un’antinomia difficilmente risolubile.

Conclusioni

Innovazioni rilevanti, sotto questo profilo, si avranno con l’approvazione del Digital Service Act, che (nel testo proposto dalla Commissione) prevede una forte responsabilizzazione delle piattaforme e l’introduzione di obblighi significativi di trasparenza nell’esercizio del loro potere di rimozione dei contenuti.

Certamente, neppure questa proposta normativa risolve in radice l’ambivalenza del ruolo delle piattaforme, il cui potere ablativo non viene neppure in questo caso subordinato all’ordine giudiziale (o comunque amministrativo) che contribuirebbe, invece, alla complessiva tenuta democratica del sistema. E tuttavia, gli obblighi articolati di accountability e la responsabilità primaria dei gestori introdotta, in forme ben più incisive rispetto all’attuale rappresentano comunque un primo passo nella giusta direzione. In fondo, come scriveva Alan Dershowitz, i grandi diritti nascono da grandi errori.

WHITEPAPER
Cos’è e come funziona il marketing interno? I 10 comandamenti da seguire
Marketing
Advertising
@RIPRODUZIONE RISERVATA

Articolo 1 di 4