Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

le questioni

Hate speech, la normativa in Europa e Usa sull’odio online

Il confine esatto fra espressioni critiche e quelle di odio vero e proprio è difficile da stabilire, né esiste una norma che definisca con precisione in cosa consista lo hate speech. Ecco come si sta muovendo l’Europa per trovare un equilibrio tra chi chiede una rigida regolamentazione e chi difende la libertà d’espressione

17 Lug 2018

Maria Romana Allegri

Professoressa aggregata di Diritto pubblico, dell’informazione e della comunicazione, Sapienza Università di Roma, Dip. di Comunicazione e Ricerca Sociale


Lo hate speech – espressione tradotta normalmente in italiano come “discorsi d’odio” o “espressioni d’odio” o “linguaggio d’odio” – consiste in una specifica forma di discriminazione che si estrinseca non attraverso azioni o omissioni, ma mediante deprecabili modalità di manifestazione del pensiero. Diffuse e reiterate attraverso Internet, tali forme espressive hanno l’effetto di alimentare i pregiudizi, consolidare gli stereotipi e rafforzare l’ostilità di taluni gruppi di persone, solitamente in maggioranza o in posizione di dominanza in un determinato contesto sociale, nei confronti di altri gruppi con diverse caratteristiche, in genere minoritari.

Il confine fra critica e odio

Tuttavia, posto che la libertà di espressione, infatti, va garantita anche nei casi in cui possa risultare scomoda, sgradita, sopra le righe, offensiva, scioccante o disturbante, non sempre è agevole individuare il confine esatto fra espressioni critiche, anche esageratamente veementi, e quelle di odio vero e proprio.

Non esiste una norma giuridica che definisca con precisione e completezza in cosa consista lo hate speech. Nel contesto europeo lo hate speech può essere ricondotto a una di quelle forme di discriminazione vietate dall’art. 14 della Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali (Cedu), in quanto consistente proprio in una violenza, realizzata attraverso modalità espressive verbali o audiovisive, atta a discriminare particolare categorie di individui. L’art. 14 della Cedu vieta infatti le discriminazioni «fondate sul sesso, la razza, il colore, la lingua, la religione, le opinioni politiche o quelle di altro genere, l’origine nazionale o sociale, l’appartenenza a una minoranza nazionale, la ricchezza, la nascita od ogni altra condizione».

La prima, incompleta, definizione di hate speech

Un primo tentativo definitorio può rinvenirsi nella raccomandazione del Comitato dei Ministri del Consiglio d’Europa del 30 ottobre 1997, secondo la quale «the term “hate speech” shall be understood as covering all forms of expression which spread, incite, promote or justify racial hatred, xenophobia, antisemitism or other forms of hatred based on intolerance, including: intolerance expressed by aggressive nationalism and ethnocentrism, discrimination and hostility against minorities, migrants and people of immigrant origin». Però questa definizione, oltre a non essere giuridicamente vincolante, essendo contenuta in un atto di soft law, non include fra le manifestazioni di odio taluni fenomeni fra cui, ad esempio, l’omofobia o la misoginia, né alcune altre forme di espressioni d’odio ad personam, fra cui ad esempio il cyberbullying o il cyberstalking.

Più in generale, sempre nell’ambito del Consiglio d’Europa, il Protocollo addizionale alla Convenzione di Budapest sulla criminalità informatica firmato a Strasburgo il 28 gennaio 2003, relativo all’incriminazione di atti di natura razzista e xenofobica commessi a mezzo di sistemi informatici, obbliga gli Stati aderenti ad adottare sanzioni penali per punire la diffusione di materiale razzista e xenofobo attraverso i sistemi informatici, le minacce e gli insulti razzisti e xenofobi, la negazione, la minimizzazione, l’approvazione o la giustificazione di crimini di genocidio o contro l’umanità. La pertinente definizione, in questo caso, è quella di «any written material, any image or any other representation of ideas or theories, which advocates, promotes or incites hatred, discrimination or violence, against any individual or group of individuals, based on race, colour, descent or national or ethnic origin, as well as religion if used as a pretext for any of these factors».

Il divieto di discriminazioni in ambito Ue

Nel più ristretto ambito dell’Unione europea, il divieto di discriminazioni è un principio giuridicamente vincolante, sancito oggi dall’art. 21 della Carta dei diritti fondamentali, secondo cui «è vietata qualsiasi forma di discriminazione fondata, in particolare, sul sesso, la razza, il colore della pelle o l’origine etnica o sociale, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l’appartenenza ad una minoranza nazionale, il patrimonio, la nascita, la disabilità, l’età o l’orientamento sessuale». Su queste basi, sono state adottate due importanti direttive: la direttiva 2000/43/Ce del Consiglio, del 29 giugno 2000, che attua il principio della parità di trattamento fra le persone indipendentemente dalla razza e dall’origine etnica, e la direttiva 2000/78/Ce del Consiglio, del 27 novembre 2000, che stabilisce un quadro generale per la parità di trattamento in materia di occupazione e di condizioni di lavoro, indipendentemente dalla loro religione o convinzione personale, disabilità, età o orientamento sessuale.

Una più recente definizione di hate speech – nemmeno questa tuttavia esaustiva – si rinviene nella decisione-quadro 2008/913/Gai del Consiglio del 28 novembre 2008 sulla lotta contro talune forme ed espressioni di razzismo e xenofobia mediante il diritto penale. Tale decisione impegna gli Stati membri dell’Unione europea a rendere punibili i comportamenti di stampo razzista e xenofobo, in particolare «l’istigazione pubblica alla violenza o all’odio nei confronti di un gruppo di persone, o di un suo membro, definito in riferimento alla razza, al colore, alla religione, all’ascendenza o all’origine nazionale o etnica», nonché «l’apologia, la negazione o la minimizzazione grossolana dei crimini di genocidio, dei crimini contro l’umanità e dei crimini di guerra», quando però tali comportamenti siano posti in essere in modo atto a istigare alla violenza o all’odio nei confronti di gruppo – o di un suo membro – «definito in riferimento alla razza, al colore, alla religione, all’ascendenza o all’origine nazionale o etnica». Anche in questo caso, soltanto alcune fra le possibili categorie potenzialmente vulnerabili vengono indicate nella definizione, tralasciandone altre altrettanto rilevanti.

Per questo il Parlamento europeo, con una risoluzione approvata il 14 marzo 2013, ha evidenziato l’esigenza di una revisione della decisione-quadro 2008/913/Gai, in modo da includervi anche le manifestazioni di antisemitismo, intolleranza religiosa, antiziganismo, omofobia e transfobia. Con specifico riferimento all’odio omofobico, rileva in particolare il punto B dei Considerando della risoluzione sulla lotta all’omofobia in Europa, approvata dal Parlamento europeo il 24 maggio 2012: «Considerando che l’omofobia consiste nella paura e nell’avversione irrazionali provate nei confronti dell’omosessualità femminile e maschile e di lesbiche, gay, bisessuali e transgender (LGBT) sulla base di pregiudizi, ed è assimilabile al razzismo, alla xenofobia, all’antisemitismo e al sessismo; che si manifesta nella sfera pubblica e privata sotto diverse forme, tra cui incitamento all’odio e istigazione alla discriminazione, scherno e violenza verbale, psicologica e fisica, persecuzioni e uccisioni, discriminazioni a violazione del principio di uguaglianza e limitazione ingiustificata e irragionevole dei diritti, e spesso si cela dietro motivazioni fondate sull’ordine pubblico, sulla libertà religiosa e sul diritto all’obiezione di coscienza».

Il ruolo di web e social nella diffusione dell’hate speech

Le espressioni di odio si sono sempre verificate anche in passato, verbalmente o attraverso l’uso dei media tradizionali. Oggi però, tramite Internet e in particolare i social network, tali espressioni possono circolare con estrema rapidità, diffondersi su larghissima scala e raggiungere una enorme audience, con l’effetto di stimolare la proliferazione di ulteriori espressioni di tipo analogo. È indiscutibile che l’ambiente digitale – e in particolare quello dei social network – abbia un potere di diffusione e di pubblicità dell’odio ben maggiore rispetto ai media tradizionali, così come lo è il fatto che l’odio, una volta immesso in Rete, abbia una notevole capacità di persistenza e di resistenza ai tentativi di occultamento dei messaggi offensivi: Internet funziona, dunque, come mezzo facilitatore della diffusione e della potenzialità dell’odio, anche per via del senso di impunità che deriva, per molti utenti di Internet, dalla (falsa) percezione di essere protetti dall’anonimato.

Le caratteristiche dell’odio online

Secondo un documento pubblicato dall’Unesco nel 2015, intitolato Countering online hate speech, i caratteri distintivi dell’odio espresso attraverso Internet rispetto a quello offline sarebbero i seguenti:

  • la permanenza nel tempo della manifestazione di odio;
  • il suo “ritorno imprevedibile”, per via dello sfruttamento del medesimo contenuto da parte di utenti di varie piattaforme in tempi diversi;
  • la percezione che sovente hanno gli autori dello hate speech di essere protetti dall’anonimato;
  • la diffusione transnazionale dei contenuti e, conseguentemente, il loro maggiore impatto sociale rispetto ai contenuti offline;
  • la diffusione di tali contenuti anche grazie ai trending topics selezionati dai principali social network.

Social network e polarizzazione di gruppo

Una seconda ragione della facilità di diffusione dell’odio online ha a che fare sugli effetti provocati dalle interazioni fra persone attraverso Internet in termini di estremizzazione – e quindi maggiore offensività – delle opinioni espresse. Come ha ben evidenziato Cass Sunstein in Republic.com (Il Mulino, 2003), i gruppi di persone che partecipano a un dibattito via Internet hanno la tendenza ad orientarsi ideologicamente verso posizioni estreme, tendenza che l’Autore definisce “polarizzazione di gruppo”, per cui al termine di un dibattito le persone tenderanno a mantenere ferme le proprie iniziali convinzioni, ma in forma più estremistica. Da questo punto di vista i social network, favorendo l’interazione e lo scambio di opinioni fra persone, non avrebbero un ruolo neutrale, ma agevolerebbero e amplificherebbero la diffusione di questo tipo di espressioni e la loro gravità.

Contrasto all’odio online, due correnti di pensiero

Ciò considerato, rispetto all’atteggiamento da tenere per contrastare le manifestazioni di odio online, si fronteggiano due opposte correnti di pensiero: un approccio secondo il quale la Rete andrebbe regolamentata più rigidamente, al fine di ostacolare la diffusione di opinioni discriminatorie e non rispettose del principio della dignità umana, e un altro secondo cui, invece, irreggimentare normativamente la libertà di espressione in Internet non servirebbe allo scopo ma, al contrario, avrebbe come conseguenza quella di alterare non solo il sistema di protezione della libertà di manifestazione del pensiero, ma anche le strategie commerciali dei grandi player dell’economia digitale.

L’approccio nordamericano

L’approccio nordamericano, fondato sul primo emendamento della Costituzione, come è noto non tollera alcuna interferenza dei poteri pubblici nell’esercizio della freedom of speech e non prevede limitazioni con riguardo ai contenuti espressi o alle modalità con cui l’espressione avviene. Anche i messaggi più discutibili, impopolari e scabrosi, dunque, possono essere diffusi liberamente nel free marketplace of ideas, nel quale si presuppone che la corretta informazione emerga attraverso il libero confronto fra idee contrastanti. Per queste ragioni, ogni forma di responsabilizzazione degli intermediari digitali, soprattutto nel caso in cui preveda il ricorso a tecniche di filtraggio preventivo dei contenuti, è guardata con sospetto perché potrebbe dare luogo a forme di collateral censorship, per utilizzare espressione di J. M. Balkin (Old School/New School Speech Regulation, 2014). Il vigente art. 230 del Communication Decency Act (sect. c, 1), infatti, esclude categoricamente che il fornitore o l’utilizzatore di servizi interattivi digitali possa essere considerato responsabile, alla stregua di un editore (publisher), dei contenuti informativi prodotti da altri. Proprio per questo motivo, recentemente alcuni giudici americani (si veda per esempio la decisione della Corte del Northern District of California, 18 novembre 2016, Fields v. Twitter) hanno respinto i ricorsi presentati dai parenti di alcune delle vittime di attentati terroristici di matrice islamica contro Twitter e altri social network, accusati di aver permesso l’apertura di account attraverso cui i fiancheggiatori dell’Isis potevano fare propaganda e reclutare nuovi adepti: per i giudici americani, infatti, il gestore della piattaforma di social networking non poteva in alcun caso essere considerato responsabile dei contenuti prodotti e diffusi dagli utenti del servizio. Eppure, dinanzi alla diffusione quella particolare – e particolarmente pericolosa – forma di hate speech attraverso i social network rappresentata dalla propaganda jihadista, anche negli Stati Uniti si sta levando qualche voce negli ambienti accademici a sostegno della necessità di modificare il Communication Decency Act in modo da prevedere l’obbligo per i provider, in seguito a segnalazioni ricevute dagli utenti, di rendere inaccessibili i contenuti riferibili alla propaganda terroristica.

Interventi penali contro lo hate speech, le ragioni del no

Nel contesto europeo invece, proprio la Cedu giustifica talune limitazioni della libertà di espressione se necessarie allo sviluppo di una società democratica e vieta in via generale che l’esercizio di qualsiasi diritto possa tradursi nell’eccessiva compressione dei diritti altrui. La possibilità di interventi normativi statali volti, da un lato, a sanzionare i responsabili delle manifestazioni di odio e, dall’altro, a regolare l’esercizio della libertà di espressione in Internet, anche attraverso interventi riguardanti gli intermediari digitali, non è esclusa in linea di principio, purché tali interventi normativi siano giudicati necessari e non sproporzionati rispetto all’obiettivo da raggiungere. Non tutti però concordano con la tendenza alla repressione, attraverso gli strumenti del diritto penale nazionale, delle manifestazioni del pensiero riconducibili allo hate speech.

Le ragioni addotte a sostegno di questa tesi sono molteplici:

  • reprimere penalmente talune manifestazioni del pensiero in nome della tutela di presunti “sentimenti collettivi” privilegia inevitabilmente il sentimento di taluni gruppi – di regola quelli dominanti – a discapito di quelli minoritari;
  • ricostruire la libertà di espressione come esigenza funzionale ad interessi generali (l’ordine pubblico “ideale”, la preservazione delle strutture dello Stato democratico) rischia di tradursi in uno strumento nelle mani delle forze politiche dominanti per ostacolare la diffusione di idee antagoniste alle proprie;
  • l’esclusione di alcuni voci “disturbanti” dal dibattito pubblico può essere percepita come il tentativo di garantire un’ingiustificata posizione privilegiata solo ad alcuni gruppi culturali, traducendosi quindi in una forma di discriminazione;
  • il principio di uguaglianza sostanziale (art. 3 Cost., comma 2) non può essere realizzato attraverso la repressione penalistica, ma solo attraverso strumenti promozionali;
  • né la Cedu né altre fonti del diritto internazionale impongono agli Stati aderenti l’adozione di sanzioni penali, ma si limitano ad ammetterne la possibilità, condizionata al vaglio di proporzionalità e necessità.

Articolo 1 di 4