Hate speech o libertà d'espressione, chi stabilisce il confine: il dilemma | Agenda Digitale

regole e social

Hate speech o libertà d’espressione, chi stabilisce il confine: il dilemma

Il dilagare di contenuti d’odio online e fake news rischia di minacciare la tenuta democratica. Ma affidare alle piattaforme il ruolo di regolatori soppiantando l’autorità pubblica potrebbe comportare rischi ancora più elevati. Ecco un quadro delle regole pubbliche e private in vigore

21 Feb 2020
Sergio Amato

praticante avvocato e consulente privacy


La tutela di diritti contrapposti, entrambi meritevoli di tutela, come la libertà d’espressione online da un lato e la tutela delle vittime di espressioni d’odio e fake news dall’altro, ci pone una domanda dai risvolti non ovvi: la linea di confine fra i due diritti può essere individuata da un privato, che sia un’azienda o un social network? Un’analisi dello scenario che rischia di squilibrare la nostra cittadinanza digitale.

Hating, regole pubbliche o private?

A noi giuristi piace bilanciare, soppesare, confrontare. Abbassiamo la mano su cui si tiene il diritto fatto valere, per calcolarne il peso, poi con l’altra, e infine insieme, cercando di operare un bilanciamento il più possibile equo. Ma di fronte a fenomeni in rapida affermazione come l’hating online risulta complesso trovare il punto d’equilibrio.

L’autorità pubblica è preposta a vigilare sulla piena attuazione dei diritti riconosciuti, ponendo, in questo caso legittimamente, un giudizio di bilanciamento tra gli interessi coinvolti.

Eppure assistiamo sempre più frequentemente alla sostituzione del privato al pubblico, della discrezionale e arbitraria regolamentazione dettata dalle policy interne di un sito a quella di un’autorità preposta.

Benché sia apprezzabile il tentativo di ridurre il grado di violenza che caratterizza la rete, vi è il rischio che le piattaforme social diventino gli unici regolatori della libertà d’espressione online, soppiantando il ruolo dell’autorità pubblica.

E’ indispensabile, infatti, che la composizione di diritti fondamentali quali dignità e libertà di espressione sia sempre affidata all’autorità pubblica, impedendo tanto derive in senso lato “censorie”, quanto il rischio che la rete, da spazio di promozione dei diritti di tutti, divenga il terreno su cui impunemente violarli.[1]

Cos’è lo hate speech

Lo hate speech – espressione spesso tradotta in italiano con la formula “incitamento all’odio” – è una categoria elaborata negli anni dalla giurisprudenza americana per indicare un particolare tipo di comunicazione che si serve di parole, espressioni o elementi non verbali che non hanno altra funzione a parte quella di esprimere odio e intolleranza, nonché di incitare al pregiudizio e alla paura verso una persona o un gruppo di persone, accomunate da etnia, orientamento sessuale, politico, religioso o disabilità.

L’ambiente digitale, in particolare quello dei social network, ha indubbiamente un potere di diffusione e di pubblicità dell’odio ben maggiore rispetto ai media tradizionali. Le espressioni d’odio, una volta immesse in rete, hanno una notevole capacità di persistenza e di divulgazione: Internet funziona, dunque, come mezzo facilitatore, avendo la capacità di rendere virali alcuni contenuti in un lasso di tempo anche brevissimo.

La scala Allport serve per valutare il grado di pregiudizio e discriminazione esistente all’interno di un gruppo sociale o di una comunità. Concepita nel 1954 dallo psicologo cognitivista americano Gordon Allport, si suddivide in 5 livelli:

  • Anti-locution: riguarda le rappresentazioni negative che un qualsiasi gruppo dà di coloro che sono giudicati “diversi”: si ricomprende l’uso di stereotipi, maldicenze, la ridicolizzazione, il discredito, i discorsi d’odio.
  • Avoidance: attiene alla consolidazione delle rappresentazioni negative, trasformate ormai in pregiudizi. I membri del gruppo evitano costantemente le persone appartenenti all’altro gruppo, classificate come “diversi”. In questa fase, anche se non c’è alcun danno diretto, si viene a creare un danno psicologico, dovuto all’isolamento.
  • Discrimination: i pregiudizi si trasformano in divieti discriminatori: ai “diversi” viene negato l’accesso alle opportunità e ai servizi della comunità. I comportamenti hanno il fine di svantaggiare l’altro gruppo impedendo loro di raggiungere obiettivi, ottenere istruzione o lavoro.
  • Physical attack: riguarda l’intolleranza così estrema da sfociare attraverso il ricorso alla violenza e all’aggressione fisica.
  • Extermination: l’escalation dell’odio raggiunge il culmine con la cancellazione dei “diversi”, che può verificarsi attraverso lo sterminio o la rimozione di un’ampia frazione del gruppo.

Come i social gestiscono l’hating

Lo hate speech è un tema che alimenta un dibattito molto attuale e ancora più controverso nel caso della libertà di espressione su internet, dove non è sempre chiara la linea di confine tra l’uno e l’altro. YouTube vieta esplicitamente lo hate speech, inteso secondo la definizione generale di linguaggio offensivo di tipo discriminatorio. Facebook allarga un po’ le maglie: lo vieta ma aggiunge che sono ammessi messaggi con «chiari fini umoristici o satirici», che in altri casi potrebbero rappresentare una minaccia e che molti potrebbero comunque ritenere «di cattivo gusto». Twitter è il più “aperto”: non vieta esplicitamente lo hate speech e neppure lo cita, eccetto che in una nota sugli annunci pubblicitari (in cui peraltro specifica che la campagne politiche contro un candidato «generalmente non sono considerate hate speech»).

Zuckerberg is right to say he cannot be the arbiter of truths…but also he can’t be the facilitator of the untruths (David Kane, Onu)

Il caso Facebook vs Casapound

Lo scorso 9 settembre Facebook ha chiuso gli account del partito italiano di estrema destra Casapound presenti sul social network perché non allineati alla policy del sito contro l’incitamento all’odio, operando una censura netta e insindacabile.

Le disposizioni contro l’incitamento all’odio sono inserite all’interno degli Standard della Community di Facebook[2] e recitano:

“Non permettiamo su Facebook discorsi di incitazione all’odio perché creano un ambiente di intimidazione ed esclusione e, in alcuni casi, possono promuovere violenza reale. Definiamo i discorsi di incitazione all’odio come un attacco diretto alle persone sulla base di aspetti tutelati a norma di legge, quali razza, etnia, nazionalità di origine, religione, orientamento sessuale, casta, sesso, genere o identità di genere e disabilità o malattie gravi. Forniamo anche misure di protezione per lo status di immigrato. Definiamo l’attacco come un discorso violento o disumanizzante, dichiarazioni di inferiorità o incitazioni all’esclusione o alla segregazione”.

Gli attacchi vengono suddivisi in tre livelli di gravità:

  • Attacchi di livello 1, rivolti a una persona o a un gruppo di persone (inclusi tutti i sottoinsiemi a eccezione di quelli che hanno commesso crimini violenti o sessuali), sulla base delle caratteristiche protette o dello status di immigrato, che contengono discorsi di incitazione o sostegno alla violenza in forma scritta o visiva, discorsi o immagini disumanizzanti nella forma di confronti, generalizzazioni o dichiarazioni comportamentali non classificate, derisione del concetto, degli eventi o delle vittime dei crimini di odio, anche se nell’immagine non è presente alcuna persona reale, comparazioni disumanizzati designate, generalizzazioni o dichiarazioni comportamentali non classificate (in forma scritta o visiva).
  • Attacchi di livello 2, rivolti a persone o a gruppi di persone sulla base delle loro caratteristiche protette che contengono la generalizzazione che affermano l’inferiorità (in forma scritta o visiva) per carenze fisiche, per carenze mentali, per carenze morali e altre dichiarazioni di inferiorità, espressioni di disprezzo o relativi elementi visivi equivalenti, espressioni di rifiuto, espressioni di disgusto o relativi elementi visivi equivalenti ed imprecazioni.
  • Attacchi di livello 3, rivolti a persone o a gruppi di persone sulla base delle loro caratteristiche protette che contengono uno dei seguenti elementi: inviti alla segregazione; esclusione esplicita che comprende, a titolo esemplificativo e non esaustivo, “espellere” o “non consentire”; esclusione politica definita come negazione del diritto di partecipazione politica; esclusione economica intesa come negazione dell’accesso ai diritti economici e limitazione della partecipazione al mercato del lavoro; esclusione sociale intesa come, a titolo esemplificativo e non esaustivo, negazione della possibilità di accedere a spazi (compresi quelli online) e servizi sociali.

Il tribunale civile di Roma con l’ordinanza n. 59264/2019 ha accolto il ricorso di Casapound e ha ordinato a Facebook la riattivazione immediata del profilo chiuso in violazione degli Standard della Community sopra richiamati.

L’ordinanza sottolinea il ruolo preminente di Facebook “con riferimento all’attuazione di principi cardine essenziali dell’ordinamento come quello del pluralismo dei partiti politici (49 Cost.), al punto che il soggetto che non è presente su Facebook è di fatto escluso (o fortemente limitato) dal dibattito politico italiano, come testimoniato dal fatto che la quasi totalità degli esponenti politici italiani quotidianamente affida alla propria pagina Facebook i messaggi politici e la diffusione delle idee del proprio movimento”.

WHITEPAPER
Data warehouse nel cloud. Come affrontare con successo il percorso di modernizzazione?
Big Data
Cloud

Facebook ha presentato reclamo contro l’ordinanza del 12 dicembre sostenendo che “ci sono prove concrete che Casapound sia stata impegnata in odio organizzato e che abbia ripetutamente violato le nostre regole”.

Facebook, altri casi di rimozione post

Ovviamente quello inerente Casapound non è il primo caso di una censura imposta dal social network. Per gli stessi motivi, infatti, altre associazioni simili erano state bannate all’estero: Generation Identify (Pan-Euro), Inferno Cottbus 99 (Germania), Rivolta Nazionale (Italia), Scrofa Division (Olanda), Chelsea Headhunters (Gran Bretagna), White Front (Bulgaria), Boris Lelay (Francia), Beke Istvan Attila (Ungheria), Szocs Zoltan (Ungheria) e Varg Vikernes (Norvegia).

La domanda che dobbiamo realmente porci è se sia appropriato lasciare argomenti così delicati in mano alle policy interne dei social network, o se si possano prevedere, più opportunamente, regimi di co-regolamentazione con le Autorità competenti, operando una censura ex post, su segnalazione delle stesse piattaforme, laddove l’autorità giudiziaria ritenga opportuno.

In questo senso va il Regolamento recante disposizioni in materia di rispetto della dignità umana e del principio di non discriminazione e di contrasto all’hate speech[3] emanato dall’ AGCOM il 15 maggio 2019, il cui articolo 9 comma 1 recita: “L’Autorità promuove, mediante procedure di co-regolamentazione, l’adozione da parte dei fornitori di servizi di media audiovisivi, nonché su piattaforme di condivisione di video di misure volte a contrastare la diffusione in rete, e in particolare sui social media, di contenuti in violazione dei principi sanciti a tutela della dignità umana e per la rimozione dei contenuti d’odio”.

La rimozione dai social network di contenuti illegali, inclusi quelli che incitano all’odio, è stata oggetto di alcune controverse decisioni da parte della Corte di giustizia dell’Unione europea.

Le misure dell’Unione europea

I giudici di Lussemburgo, infatti, con la sentenza del 3 ottobre 2019 hanno stabilito che i singoli Paesi possono costringere Facebook ad eliminare i contenuti illegali come gli “hate speech”, i discorsi di odio, sia all’interno dell’Ue che in tutto il mondo. La decisone è arrivata in seguito alla causa intentata da una esponente austriaca del partito dei Verdi, Eva Glawischnig Piesczek, contro il social network di Mark Zuckerberg, presso l’Alta corte austriaca, chiedendo la rimozione di una serie di commenti diffamatori su di lei a livello globale.

L’organo austriaco si era così rivolto alla Corte di giustizia europea, e quest’ultima ha sancito che i tribunali nazionali potranno chiedere al social network di tracciare ed eliminare post identici o equivalenti a un contenuto già giudicato illecito.

Infatti Facebook, sebbene sia configurabile come un prestatore di servizi di hosting e quindi non responsabile delle informazioni memorizzate, anche qualora non sia a conoscenza della loro illiceità, potrà comunque essere soggetto ad ingiunzione di porre fine o impedire una violazione, in particolare cancellando le informazioni illecite o disabilitandone l’accesso.

Alcuni paesi, tra cui la Germania, hanno introdotto leggi molto severe relativamente ai contenuti inneggianti l’odio, con piattaforme soggette a multe pesantissime se incapaci di sorvegliare opportunamente.

L’Unione europea per il momento è rimasta abbastanza neutrale, in attesa di una definizione più chiara degli obblighi e delle responsabilità delle piattaforme social. Ad oggi questi giganti del web non sono tenuti a monitorare tutti i contenuti postati sulle loro piattaforme, ma la Corte di giustizia dell’Unione europea ha più volte sottolineato come tale scenario non impedisca alle piattaforme di sorvegliare attivamente. E per tale ragione, secondo i giudici di Lussemburgo, gli ordini di rimozione dovrebbero essere applicati in tutto il mondo purché ciò non violi il «diritto internazionale pertinente».

Hating e convenzioni internazionali

La Convenzione delle Nazioni Unite per la prevenzione e la repressione del delitto di genocidio del 9 dicembre 1948 impone agli Stati di punire non solo gli atti di genocidio ma anche «l’incitamento diretto e pubblico» a commetterlo (art. 3); degna di nota è anche la Convenzione sull’eliminazione di ogni forma di discriminazione razziale del 21 dicembre 1965, richiamata espressamente nella decisione della Corte europea dei diritti umani nel caso Belkacem c. Belgio del 20 luglio 2017, secondo cui gli Stati devono condannare «ogni propaganda ed ogni organizzazione che s’ispiri a concetti ed a teorie basate sulla superiorità di una razza o di un gruppo di individui di un certo colore o di una certa origine etnica, o che pretendano di giustificare o di incoraggiare ogni forma di odio e discriminazione razziale» (art. 4).

A ciò si aggiunga l’art. 19 comma 3 del Patto sui diritti civili e politici del 16 dicembre 1966 che prevede talune restrizioni alla libertà d’espressione a condizione che siano espressamente stabilite dalla legge e necessarie al rispetto dei diritti o della reputazione altrui o alla salvaguardia della sicurezza nazionale, dell’ordine pubblico, della sanità o della morale pubbliche; all’art. 20 si richiede agli Stati di vietare nell’ordinamento interno ogni «propaganda a favore della guerra» e «qualsiasi appello all’odio nazionale, razziale o religioso che costituisca incitamento alla discriminazione, all’ostilità o alla violenza».

Nel quadro del diritto internazionale regionale, la Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali, entrata in vigore nel 1953 e ratificata da tutti gli stati membri del Consiglio d’Europa, vieta, all’art. 14, le discriminazioni «fondate sul sesso, la razza, il colore, la lingua, la religione, le opinioni politiche o quelle di altro genere, l’origine nazionale o sociale, l’appartenenza a una minoranza nazionale, la ricchezza, la nascita od ogni altra condizione».

Nel quadro del diritto dell’Unione europea, malgrado la Carta dei diritti fondamentali dell’Unione europea del 7 dicembre del 2000 non menzioni espressamente l’hate speech come limite alla libertà di espressione (art. 11), si vieta comunque qualsiasi discriminazione fondata su sul sesso, la razza, il colore della pelle o l’origine etnica o sociale, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l’appartenenza ad una minoranza nazionale, il patrimonio, la nascita, la disabilità, l’età o l’orientamento sessuale (art. 21).

Disinformazione, lo scenario politico

A ben vedere, un hate speech può sfociare nella disseminazione di massa di fake news e in massicce campagne di disinformazione, soprattutto in ambito politico.

Le “fake-news”, false notizie appositamente create per screditare un candidato politico a vantaggio di un altro, e divulgate attraverso i c.d. bot, profili social falsi, possono arrivare a turbare gli equilibri democratici.

Quello che è accaduto in occasione delle elezioni presidenziali statunitensi del 2016 (no, non mi riferisco al caso Cambridge Analyitica) ha dell’incredibile: la candidata alla Casa Bianca, Hilary Clinton, fu infatti vittima di un attacco informatico per mezzo del quale vennero trafugate prima, e diffuse poi, tutte le sue email private.

La vulnerabilità del sistema informatico della candidata e del suo staff fu appositamente sfruttata dall’avversario Trump per screditare la campagna elettorale, e innestare nei cittadini americani il dubbio che una simile candidata fosse del tutto inadatta a governare in maniera sicura la nazione, non essendosi dimostrata in grado neanche di tutelare la propria privacy.

Al fine di screditare la Clinton, nei giorni precedenti alle elezioni, tramite profili falsi, bot, l’uso di spam e malware, predisposti in maniera tale da non consentire l’identificazione degli utilizzatori degli stessi, vennero pubblicate foto imbarazzanti riferite all’indagine in corso dell’FBI sull’avvenuta violazione del sistema informatico della candidata, e vennero divulgate false informazioni sull’imminente arresto di quest’ultima etc. Tutte attività diminuite drasticamente al termine delle elezioni[4].

La disinformazione non è un fenomeno da sottovalutare, avendo una portata estremamente vasta e pervasiva, può arrivare a distorcere i percorsi decisionali di ciascuno di noi, compromettendo la capacità di informarci liberamente e costituendo un pericolo per i processi elettorali.

Tramite mirate strategie di microtargeting infatti si possono sottoporre fake news personalizzate e difficilmente confutabili, da un lato in quanto il soggetto non andrà a verificare le notizie condivise da profili di suo interesse, e dall’altro perché, trattandosi di messaggi personalizzati, l’utente vedrà solo il suo messaggio senza essere informato su quello che succede attorno a lui.

Lo strapotere dei dati

Come ha dichiarato lo stesso Alexander Nix, durante un servizio della rete britannica Channel 4, successivo alle inchieste del Guardian e del New York Times sullo scandalo Cambridge Analytica, attraverso la raccolta di dati personali e la tecnica del micro-targeting si può far leva sulle paure e sulle speranze degli elettori (“se vogliamo far breccia su un elettrice coscienziosa e nevrotica, converrà mostrarle l’immagine di una rapina in casa, con tanto di mano minacciosa che spacca il vetro e lo slogan ‘oltre che un diritto, una pistola è un’assicurazione sulla vita’”).

Sotto questo aspetto, anche le politiche messe in atto dai social network non sembrano ad oggi sufficienti: non vi sono sistemi di fact-checking adeguati alla mole di bombardamenti mediatici cui si è sottoposti, termini di cancellazione tempestivi e certi dei bot online e modalità adeguate per favorire l’accesso a prospettive diverse su temi di interesse pubblico.

L’Unione Europea non è rimasta indifferente davanti a questo fenomeno e nel dicembre 2018 la Commissione europea ha adottato un [5]Piano d’azione per rafforzare la cooperazione tra gli Stati membri e le istituzioni dell’Unione Europea nell’affrontare le minacce connesse alla disinformazione, anche in relazione alle elezioni europee del maggio 2019.[6]

Il [7]Codice di Condotta sulla Disinformazione è il primo insieme di norme per combattere la disinformazione firmato volontariamente dalle principali piattaforme social, inserzionisti e industrie pubblicitarie. Nell’ottobre del 2018 Facebook, Google, Twitter e Mozilla hanno aderito al codice, impegnandosi a:

  • fermare i profitti derivanti da pubblicità di profili e siti Web che alterano l’informazione, fornendo agli inserzionisti adeguati strumenti di sicurezza,
  • consentire la divulgazione al pubblico di messaggi pubblicitari di natura politica e impegnarsi per pubblicità più etiche,
  • disporre di una politica chiara e pubblica sull’identità e sui bot online e adottare misure per l’eliminazione dei profili falsi
  • offrire informazioni e strumenti per aiutare le persone a prendere decisioni consapevoli, favorendo l’accesso a prospettive diverse quando si tratta di argomenti di pubblico interesse, dando rilevanza a fonti autorevoli,
  • fornire ai ricercatori un accesso ai dati riservato, affinché possano seguire meglio la diffusione e le ripercussioni della disinformazione.

Un High-Level Group on Fake News and Online Disinformation[8] (un gruppo di lavoro istituito dalla Commissione europea) viene messo a disposizione per fornire una consulenza sulle iniziative politiche per contrastare le notizie false e la diffusione della disinformazione online. L’approccio del gruppo di lavoro si basa su 5 pilastri:

  • migliorare la trasparenza delle notizie online tramite una condivisione adeguata e rispettosa della privacy dei dati sui sistemi che ne consentono la diffusione online,
  • promuovere l’alfabetizzazione mediatica per contrastare la disinformazione e aiutare gli utenti a navigare nel mondo digitale,
  • sviluppare strumenti che consentano agli utenti e ai giornalisti di affrontare la disinformazione e promuovere un impegno positivo con le tecnologie dell’informazione in rapida evoluzione,
  • salvaguardare la diversità e la sostenibilità dell’ecosistema europeo dei mezzi di informazione,
  • promuovere la ricerca continua sull’impatto della disinformazione in Europa per valutare le misure adottate da diversi attori e adeguare costantemente le risposte necessarie.

Libertà d’espressione e hating

E’ ravvisabile un asse di tensione tra la libertà di espressione, da un lato, e l’eccesso che un’applicazione senza limiti della stessa porterebbe sfociando, nei casi più critici, nelle incitazioni all’odio. La linea di demarcazione tra l’uno è l’altro non è sempre agevole da individuare: non si tratta di distinguere tra il nero e il bianco, quanto, piuttosto, di discernere tra le zone grigie, operando un giudizio case by case.

Soprattutto in ambito politico, come evidenziato, non è facile distinguere tra una libera manifestazione del pensiero, di un ideale, di una dottrina ideologica e quando questo possa scaturire in dichiarazioni di inferiorità, di discriminazione e quindi di odio. Sotto questo punto di vista, le policy interne dei social network hanno una pretesa forse troppo gravosa: operare un giudizio di bilanciamento e discernere ciò che è censurabile da ciò che invece, integrando una libera manifestazione del pensiero, seppur estrema, è da ritenere legittimo.

Ripensare le basi della rete

In questo contesto così frastagliato ed eterogeneo, è necessario riaffermare la predominanza dell’autorità pubblica, nella veste di regolatore prima, così da dettare degli standard uniformi e organici: di tolleranza alle manifestazioni del pensiero e di censura delle dichiarazioni d’odio online, delimitandone perimetri e confini ben precisi e, dall’altra, con un’azione di accertamento ex post, volta ad operare un giudizio di bilanciamento tra la libertà d’espressione costituzionalmente garantita e la tutela delle vittime delle espressioni d’odio.

Al momento mancano ancora regole condivise a livello internazionali – globali, come sono queste piattaforme – per affrontare la questione.

L’instaurazione di un’effettiva democrazia digitale, che garantisca il rispetto dei diritti umani online, la salvaguardia della neutralità della rete, la costruzione di una libera identità e l’affermazione di un’autentica autonomia cognitiva, al fine di promuovere un utilizzo della rete volto all’utilità sociale e alla garanzia dei diritti di ognuno, è un passaggio fondamentale e oggi ancor di più necessario.

Occorre, in definitiva, ripensare alla concezione della rete, non più come un vettore di continui messaggi divisivi e luogo di polarizzazione, ma come spazio di consolidamento e circolazione delle conoscenze, che possa fungere da apertura per i processi decisionali e per il progresso democratico della società stessa, sempre più proiettata, in ogni sua forma e sfaccettatura, verso il web.

Note

  1. Intervento di A. SORO, Garante per la protezione dei dati personali – La rete, gli haters e i rischi per la libertà di espressione, “Il Messaggero”, 15 settembre 2019, reperibile sul sito: https://www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9138934
  2. https://www.facebook.com/communitystandards/hate_speech
  3. https://www.agcom.it/documents/10179/13511391/Allegato+23-5-2019+1558628852738/5908b34f-8c29-463c-a7b5-7912869ab367?version=1.0
  4. “In relazione ai profili finti, nel 2018 Facebook ha annunciato di aver rimosso 652 account finti e centinaia di pagine che miravano ad influenzare i contesti elettorali, per le elezioni che si sarebbero tenute negli Stati Uniti D’America, nel Reno Unito, in Medio Oriente e in America Latina.” Cfr. G. ZICCARDI, tecnologie per il potere, come usare i social network in politica, Raffaello Cortina, 2019, pag. 190 e ss.
  5. https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=56166
  6. M.DELMASTRO, A. NICITA, Big data: come stano cambiando il nostro mondo, Il Mulino, 2019.
  7. https://ec.europa.eu/digital-single-market/en/news/code-practice-disinformation
  8. https://ec.europa.eu/digital-single-market/en/news/final-report-high-level-expert-group-fake-news-and-online-disinformation
WHITEPAPER
Data warehouse nel cloud: 6 considerazioni per un passaggio efficace
Big Data
Cloud

@RIPRODUZIONE RISERVATA

Articoli correlati