Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

social network

Odio online, le norme italiane vs il ruolo delle web company

Quali sono i reati previsti in Italia nell’ambito della lotta all’odio online: quali le misure della Commissione europea al confronto con gli impegni delle web company a contrasto dei contenuti incitanti all’odio e alla violenza. Il tutto mentre Facebook accelera contro l’hate speech, ma chiude un occhio sul negazionismo

23 Lug 2018

Maria Romana Allegri

Professoressa aggregata di Diritto pubblico, dell’informazione e della comunicazione, Sapienza Università di Roma, Dip. di Comunicazione e Ricerca Sociale


In questi giorni in cui accelera la missione di grandi piattaforme online – Facebook in primis – di voler intervenire in prima persona e in autonomia contro l‘hate speech, val la pena ricordare che le norme su questo tema ci sono già. Anche in Italia.

Il primo riferimento della normativa italiana nella lotta all’odio online, o hate speech, è la legge n. 654 del 1957, con cui il nostro Paese ha ratificato la Convenzione di New York sull’eliminazione di tutte le forme di discriminazione razziale: l’art. 3 punisce con pene reclusive chi propaganda idee fondate sulla superiorità o sull’odio razziale, ovvero istiga a commettere o commette atti di violenza o di provocazione alla violenza, nei confronti di persone perché appartenenti a un gruppo nazionale, etnico o razziale.

Il dettato normativo oggi vigente è il risultato di una modifica avvenuta con legge n. 85 del 2006 che, oltre a ridurre i limiti edittali delle pene reclusive (peraltro già ridotti in precedenza con la “legge Mancino” n. 122 del 1993) e a prevedere pene pecuniarie alternative alla reclusione, ha sostituito con «propaganda» la precedente espressione «diffonde in qualsiasi modo» e con «istiga» il precedente «incita». La modifica non è di poco conto, perché la qualificazione del reato deve oggi corrispondere a condotte di maggiore gravità (propaganda e istigazione in luogo di diffusione e incitamento). Va inoltre ricordata la legge n. 962 del 1967, che all’art. 8 sanziona l’apologia di genocidio e la pubblica istigazione a commettere qualcuno dei delitti di genocidio previsti dalla legge stessa. Più recentemente, la legge n. 115 del 2016 ha aggiunto un nuovo comma all’art. 3 della legge n. 654/1957, che prevede la reclusione da due a sei anni nei casi in cui la propaganda, l’istigazione e l’incitamento, commessi in modo che derivi concreto pericolo di diffusione, si fondino «in tutto o in parte sulla negazione della Shoah o dei crimini di genocidio, dei crimini contro l’umanità e dei crimini di guerra come definiti dallo Statuto della Corte penale internazionale».

Il reato di negazionismo

È stato così inserito nel nostro ordinamento il cosiddetto “reato di negazionismo”, già esistente in alcun Paesi europei ed extra-europei, come reazione al proliferare in Europa di movimenti di ispirazione razzista e antisemita. Tuttavia, se ben si comprendono le ragioni che sono alla base della previsione di questa nuova fattispecie penale, non si può non esprimere qualche perplessità circa il fatto che non è compito del diritto stabilire la verità o la falsità dei fatti storici. Proprio per questo, correttamente la nuova legge non punisce il negazionismo in sé e per sé, ma solo le opinioni negazioniste da cui derivi concretamente propaganda, istigazione o incitamento alla violenza o alla discriminazione.

A questo proposito, ricordiamo che invece Facebook è in questi giorni sotto il fuoco della polemica per aver deciso di non rimuovere le pagine che negano l’olocausto. I motivi, dichiarati da Mark Zuckerberg: non c’è l’intenzione di diffondere notizie false (gli autori credono insomma sinceramente che non c’è stato olocausto) né di incitare alla violenza.

Leggi su cyberbullismo e stalking

Va ricordata, infine, la legge n. 71 del 2017 volta a contrastare il fenomeno del cyberbullismo, con cui si intende «qualunque forma di pressione, aggressione, molestia, ricatto, ingiuria, denigrazione, diffamazione, furto d’identità, alterazione, acquisizione illecita, manipolazione, trattamento illecito di dati personali in danno di minorenni» (art. 1 comma 2); la legge non prevede sanzioni penali, ma misure educative e preventive nonché procedure di notice-and-take-down affinché i contenuti offensivi vengano prontamente rimossi grazie al contributo proattivo degli intermediari digitali. Quando, come nel caso del cyberbullismo, l’odio online viene espresso nei confronti non di un gruppo di individui, ma di una specifica persona, le fattispecie penalmente rilevanti sono quelle “classiche” della diffamazione aggravata dall’utilizzo di un mezzo di pubblicità (art. 595 c. p.) e della minaccia (art. 612 c. p.) eventualmente aggravata (art. 339 c. p.).

Ad esse si aggiunge il reato di atti persecutori (in cui rientra anche lo stalking) introdotto nel codice penale con decreto legge n. 11 del 2009: si tratta del reato commesso da «chiunque, con condotte reiterate, minaccia o molesta taluno in modo da cagionare un perdurante e grave stato di ansia o di paura ovvero da ingenerare un fondato timore per l’incolumità propria o di un prossimo congiunto o di persona al medesimo legata da relazione affettiva ovvero da costringere lo stesso ad alterare le proprie abitudini di vita» (art. 612 bis c. p.). In una proposta di legge attualmente ferma in Senato (S. 2688, presentato il 7 febbraio 2017: «Disposizioni per prevenire la manipolazione dell’informazione online, garantire la trasparenza sul web e incentivare l’alfabetizzazione mediatica») la diffusione attraverso Internet «di campagne d’odio contro individui o di campagne volte a minare il processo democratico, anche a fini politici» verrebbe punita con reclusione non inferiore a due anni e con ammenda fino a diecimila euro.

sistemi di autoregolamentazione

Una possibilità alternativa agli strumenti normativi repressivi, o comunque integrativa rispetto a questi ultimi, può essere rappresentata dai sistemi di autoregolamentazione. Proprio in questo senso si sono espressi, in una dichiarazione comune, i ministri della giustizia e degli interni dei paesi membri dell’Unione europea, riuniti in un Consiglio straordinario sugli attentati terroristici di Bruxelles (24 marzo 2016). Nel documento si sottolinea la necessità che la Commissione europea si faccia promotrice, presso le aziende informatiche, dell’attivazione di un processo volto a contrastare la propaganda terroristica in Internet e a mettere a punto un codice di condotta contro l’incitamento all’odio online.

Peraltro, già da dicembre 2015 è attivo, su iniziativa della Commissione europea, un Internet Forum, che riunisce i Ministri degli Interni degli Stati membri dell’Unione europea, i rappresentanti dei principali fornitori di servizi via Internet, del Parlamento europeo, di Europol, nonché il coordinatore europeo per la lotta al terrorismo. L’obiettivo del Forum, da raggiungere attraverso un approccio volontario basato su una partnership pubblico-privata, è quello di individuare strategie per ostacolare la diffusione di contenuti che inneggiano all’odio, alla violenza e al terrorismo internazionale. Anche in base ai risultati dei lavori del Forum, le conclusioni del Consiglio europeo del 22-23 giugno 2017 hanno indicato chiaramente fra le priorità la lotta contro il terrorismo, l’odio e l’estremismo violento e il contrasto alla diffusione della radicalizzazione online, sollecitando lo sviluppo di nuove tecnologie e nuovi strumenti per migliorare la rilevazione e la rimozione automatiche dei contenuti che promuovono l’istigazione alla violenza.

Un Codice di condotta contro i discorsi d’odio online

Conseguentemente, il 31 maggio 2016 la Commissione europea, di concerto con Facebook, Twitter, YouTube e Microsoft, ha varato un Codice di condotta per contrastare i discorsi d’odio online, in base al quale le aziende informatiche si impegnano a predisporre procedure chiare ed efficaci per esaminare le segnalazioni di contenuti incitanti all’odio da parte degli utenti dei loro servizi, in modo da poter rimuovere tali contenuti o renderli inaccessibili.

Si legge infatti nel Codice: «Se da un lato l’applicazione effettiva delle disposizioni che prevedono il reato di incitamento all’odio dipende dall’esistenza di un solido sistema di applicazione delle sanzioni penali contro i singoli autori dei discorsi di incitamento all’odio, dall’altro questa azione deve essere integrata da iniziative atte a garantire che appena ricevono una valida segnalazione gli intermediari online e le piattaforme dei media sociali reagiscano prontamente, in tempi idonei, per contrastare le forme illegali di incitamento all’odio online. Per essere considerata valida, la segnalazione dovrebbe essere sufficientemente precisa e adeguatamente fondata». Con il Codice, quindi, le web companies aderenti si sono impegnate ad implementare un sistema di notice-and-take-down tale per cui i contenuti “odiosi” siano rimossi o resi inaccessibili entro ventiquattro ore dalla segnalazione a cura degli utenti, a collaborare «con le organizzazioni della società civile per fornire formazione sulle migliori pratiche per lottare contro la retorica dell’odio e i pregiudizi» e a incrementare «la portata del loro approccio proattivo nei confronti delle organizzazioni della società civile per aiutarle a realizzare campagne efficaci di lotta contro i discorsi di incitamento all’odio».

Negli ultimi giorni, Facebook ha dichiarato di voler essere più efficace nel rimuovere le fake news che incitano alla violenza, dopo che alcuni post di questo tipo su Facebook hanno causato morti in Sri Lanka e Birmania.

Il ruolo delle web company

Un aspetto problematico rappresentato dal Codice – i risultati della cui applicazione da parte delle web companies aderenti vengono monitorati e valutati ogni sei mesi – è che fra gli impegni che le imprese aderenti hanno assunto vi è anche quello di «di proseguire l’opera di elaborazione e promozione di narrazioni alternative indipendenti, di nuove idee e iniziative e di sostegno di programmi educativi che incoraggino il pensiero critico»: ciò potrebbe essere interpretato come una sorta di “licenza” di manipolare le informazioni di cui godrebbero gli operatori del web, in contrasto con il principio di libera manifestazione del pensiero.

In linea generale, può essere discutibile affidare ad alcuni grandi aziende private – che rappresentano comunque solo una piccola parte degli operatori del web – il delicato compito di vagliare la fondatezza e l’attendibilità delle segnalazioni dei loro utenti circa contenuti incitanti all’odio e alla violenza e di decidere quali contenuti sia opportuno rimuovere, senza che la decisione sia assistita da una procedura in contraddittorio o da garanzie giurisdizionali.

La terza valutazione semestrale del Codice di condotta (gennaio 2018) mostra il crescente impegno da parte delle web companies nel rimuovere i contenuti odiosi che vengono segnalati (2982 segnalazioni in totale ricevute dalle IT companies aderenti al Codice, prevalentemente da Facebook, seguito da Twitter YouTube): la percentuale di rimozione è passata infatti dal 28% nel 2016 al 59% del 2017 al 70% del 2018, pur persistendo un 30% di segnalazioni che non ricevono alcun feedback. In Italia, tuttavia, il tasso di rimozione risultava più alto nel rapporto di valutazione di maggio 2017 (81,7%) rispetto a quella di gennaio 2018 (66,9%). Le rimozioni sono avvenute nell’81% dei casi entro ventiquattro ore dalla segnalazione (nel 2016 ciò accadeva nel 40% dei casi e nel 2017 nel 51%). I contenuti odiosi hanno riguardato prevalentemente l’origine etnica (17,1% dei casi), l’anti-islamismo (16,4%), la xenofobia (16%), l’orientamento sessuale (14%).

Le misure della Commissione Ue contro lo hate speech

La Commissione europea, in una Raccomandazione del 1 marzo 2018 (n. 1177) sulle misure per contrastare efficacemente l’odio online, ha sollecitato agli Stati membri di rendere chiaro agli hosting service provider quali siano i contenuti illegali che è opportuno rimuovere, in modo da fugare ogni incertezza, e ai provider di informare nel modo più semplice, chiaro e trasparente possibile gli utenti della propria policy in materia di contenuti odiosi, di approntare procedure di notice-and-take-down chiare, trasparenti e user-friendly, nonché di informare gli utenti delle modalità per opporsi a una decisione di rimozione dei contenuti. Per la soluzione delle controversie, la Commissione ha sollecitato soprattutto l’utilizzo di procedure stragiudiziali in alternativa al ricorso giurisdizionale.

I provider sono stati incoraggiati ad adottare misure proattive per la lotta allo hate speech, anche attraverso l’utilizzo di strumenti di rilevazione automatizzati, pur sempre nel rispetto dei principi di diligenza e proporzionalità, e garantendo l’apporto umano (human oversight and verifications) a salvaguardia dei diritti degli utenti. La Commissione ha anche raccomandato lo sviluppo di una stretta cooperazione degli hosting provider fra loro e con gli Stati membri, nonché l’adozione da parte degli Stati membri di norme giuridiche che impongano ai provider obblighi di segnalazione alle competenti autorità dei contenuti illegali. In riferimento ai contenuti legati al terrorismo, la Commissione ha raccomandato tassativamente ai provider di esplicitare con chiarezza nei loro terms of services che non consentono la diffusione di tali contenuti, di rafforzare maggiormente le misure proattive, compreso l’utilizzo di strumenti automatici di rilevazione, di segnalare con prontezza tali contenuti alle competenti autorità nazionali o a Europol, di rimuoverli comunque entro un’ora dalla rilevazione, di prevenire con strumenti automatici ogni nuovo caricamento dei contenuti rimossi, di cooperare fra loro per condividere e ottimizzare tali strumenti automatici. Agli Stati membri, infine, è stato chiesto di informare la Commissione europea ogni tre mesi delle misure adottate per contrastare la diffusione dei contenuti terroristici online. Per approfondire leggi anche le norme sull’odio online (hate speech) in Europa e Usa.

Lotta al disagio sociale per contenere l’odio online

Non può non rilevarsi, però, come anche la tempestiva rimozione dei contenuti di odio dalle piattaforme online, che nei fatti costituisce una forma di censura, non sia che un rimedio palliativo che non previene né ostacola la formazione nell’opinione pubblica di idee basate sull’odio e sulla discriminazione, ma semplicemente ne impedisce – o tenta di impedirne – la diffusione attraverso Internet, spostandone presumibilmente altrove (per esempio nel deep web) la manifestazione. Il contrasto allo hate speech, per essere efficace, dovrebbe invece puntare sulla promozione di politiche volte alla riduzione del disagio sociale, nonché all’educazione e responsabilizzazione dei cittadini.

Hate speech, la normativa in Europa e Usa sull’odio online

Articolo 1 di 4