Facebook non risolverà mai i propri problemi, ecco perché - Agenda Digitale

il libro The Ugly Truth

Facebook non risolverà mai i propri problemi, ecco perché

Il libro “The Ugly Truth”, di Sheera Frenkel e Cecilia Kang vuole comprendere quale sia la “verità” dietro agli eventi intercorsi tra le elezioni di Trump e quelle di Biden. Ecco perché la maggior parte dei problemi che sembrano affliggere Facebook sulla disinformazione di massa sia rimasta irrisolta. E la verità è dura

30 Ago 2021
Marina Rita Carbone

Consulente privacy

Qual è la verità che si nasconde dietro ai problemi di Facebook? Perché la società fondata da Mark Zuckerberg, negli ultimi anni, è sempre al centro di nuovi scandali? Queste sono alcune delle domande su cui si basa il libro “The Ugly Truth”, di Sheera Frenkel e Cecilia Kang, recentemente pubblicato, la cui curiosa quarta di copertina elenca, al posto delle recensioni, tutte le scuse che Sheryl Sandberg e lo stesso Zuckerberg hanno rivolto ai propri utenti e alle autorità competenti (“We never meant to upset you”, “I ask for forgiveness and I will work to do better”, “It was my mistake and I’m sorry”, “We need to do better”, “We need to do a better job”).

Autoritarismo digitale, cresce la lista dei i “tecnoregimi” con velleità censorie: cosa rischiamo tutti

Ciò che distingue il libro pubblicato da Frenkel e Kang dalla stragrande maggioranza degli ultimi libri che affrontavano il medesimo tema, è in primo luogo l’approccio utilizzato: le due autrici, infatti, non sono insiders, ma giornaliste del New York Times, nonché parte di una squadra che nel 2019 era in lizza per il premio Pulitzer. Diverso è anche lo stile utilizzato, di stampo prettamente giornalistico e orientato alla ricerca di fonti attendibili.

Le autrici, infatti, affermano di aver redatto il libro dopo aver condotto oltre 1.000 ore di interviste con oltre 400 persone differenti, tra le quali rientravano anche dirigenti di Facebook, ex-dipendenti della società e soggetti che tuttora vi lavorano, nonché familiari, amici e compagni di classe di questi ultimi. Fra i soggetti intervistati rientrano anche alcuni investitori e consulenti di Facebook, e avvocati e attivisti che combattono l’azienda da anni. Con l’esperienza di Frenkel nella sicurezza informatica e quella di Kang nella tecnologia, il libro fornisce un resoconto avvincente degli eventi intercorsi tra le elezioni del 2016 e del 2020.

La domanda alla base

Come detto, il libro ha quale scopo quello di comprendere quale sia la “verità” dietro agli eventi intercorsi tra le elezioni di Trump e quelle di Biden, al fine di capire anche perché, ad oggi, la maggior parte dei problemi che sembrano affliggere Facebook sia rimasta irrisolta.

WHITEPAPER
Cloud Contact Center: scopri come scegliere i giusti KPI e migliorare le performance degli operatori
Big Data
Cloud

La risposta a tale domanda è tanto semplice quanto problematica: il problema di Facebook, sostengono le due autrici, è lo stesso Facebook, o meglio, il suo modello di business: affinché la società possa ottenere sempre maggiori ricavi, infatti, necessita di aumentare la sua utenza, per permettere la creazione di avanzati database sul cui contenuto impostare avanzati algoritmi di targeting pubblicitario. “Molti dei problemi di Facebook sono incorporati nel modo in cui fanno affari”, afferma Frenkel. “Il vero modello di business su cui si basano… è quello di tenerti online”.

Accesso illimitato e stalking digitale

La narrazione di “The Ugly Truth” inizia da un evento specifico, avvenuto nel settembre 2015: uno degli ingegneri di Facebook voleva capire per quale motivo la ragazza per la quale aveva un interesse non avesse risposto ai suoi messaggi.

Così, alle 22 di sera, nella sede dell’azienda a Menlo Park, l’ingegnere, abusando del privilegio che gli veniva concesso, apriva il profilo Facebook della ragazza dai sistemi interni dell’azienda e iniziava a esaminare i suoi dati personali: il suo stile di vita, i suoi interessi, persino la sua posizione in tempo reale e le previsioni sul suo possibile comportamento futuro. Tutti gli ingegneri di Facebook – circa 16.000 e più – avevano la possibilità, al tempo, di accedere ai profili completi degli utenti; tale possibilità avrebbe dovuto consentire agli ingegneri di lavorare in modo più accurato, ma dava facilmente adito a fenomeni di “stalking digitale”.

L’ingegnere, che sarebbe poi stato licenziato per il suo comportamento, non era il solo ad abusare dei propri poteri: emerse che altri 51 dipendenti avevano utilizzato in modo inappropriato il loro accesso ai dati aziendali, e la maggioranza di questi erano uomini che cercavano informazioni sulle donne a cui erano interessati.

Alex Stamos, il responsabile della sicurezza, non tardò a portare la spinosa questione all’attenzione di Mark Zuckerberg, il quale ordinò di limitare immediatamente l’accesso ai dati degli utenti da parte dei dipendenti, per scongiurare che un simile episodio potesse ripetersi.

Tale evento costituisce, a detta delle autrici, uno dei pochi momenti in cui Zuckerberg ha avuto piena e tempestiva contezza del fatto che la “colpa” di alcuni dei problemi che affiggevano Facebook era da ricondursi proprio al design della società stessa, e non solo al comportamento individuale dei dipendenti.

Negli anni successivi, tuttavia, i problemi derivanti dal modello di business di Facebook sarebbero aumentati, e Stamos, che si diceva molto preoccupato della direzione nella quale si stava muovendo l’azienda, specialmente a seguito della scoperta della gravità dell’interferenza russa nelle elezioni statunitensi, sarebbe stato licenziato.

L’interferenza russa nelle elezioni

In un capitolo intitolato “Company Over Country”, le autrici raccontano come la leadership di Facebook abbia cercato di nascondere l’entità dell’interferenza elettorale russa sulla piattaforma. Quando Stamos ha proposto una riprogettazione dell’azienda per evitare che il problema si potesse ripetere, altri membri di vertice hanno respinto l’idea come “allarmista” e hanno tentato di limitare le conseguenze focalizzandosi sulla narrativa pubblica.

I tentativi di Stamos di avvisare i suoi superiori di quello che stava succedendo furono, infatti, respinti, e i documenti redatti dallo stesso censurati al fine di minimizzare la gravità del problema. Tutte le menzioni della Russia nella sua bozza di white paper furono eliminate dal personale senior, e solo nel momento in cui i media iniziarono a sospettare che sulla piattaforma fosse successo qualcosa di grave, si decise che il consiglio di amministrazione della società avrebbe dovuto essere informato in merito, il giorno prima della riunione trimestrale del 7 settembre 2017. Il 6 settembre, quindi, Stamos tenne una presentazione a un sottocomitato delegato di tre membri del consiglio di amministrazione, i quali reagirono bruscamente alla notizia. Ma nessuna azione fu intrapresa per rimediare concretamente al problema, anche a causa del modello di amministrazione della società, che concede a Zuckerberg, avendo la maggioranza del potere di voto, la capacità di controllare l’esito delle questioni sottoposte all’approvazione degli azionisti e di decidere, in via quasi del tutto autonoma, quale direzione la società debba prendere.

Uno degli elementi che emerge maggiormente dal capitolo in esame, è proprio l’incredibile controllo che Zuckerberg esercita sull’intero operato dell’azienda: molti dipendenti di Facebook si sono detti angosciati, frustrati o arrabbiati per ciò che il loro datore di lavoro ha fatto nella sua incessante ricerca di crescita. Alcuni, come Stamos, hanno cercato di allertare i loro superiori, rendendo note le loro preoccupazioni, ma il management è rimasto più volte inerte dinanzi a tali osservazioni, assumendo quale imperativo prioritario una crescita aziendale senza fine.

La crescita in Myanmar

Al desiderio di crescita “a qualunque costo” si ricollega anche uno dei più tragici eventi accaduti in Myanmar: il genocidio dei musulmani Rohingya, esaminato nel capitolo “Pensa prima di condividere”.

Sorveglianza digitale degli immigrati, perché le scelte di Biden sono pericolose

Facebook entrò sul mercato del Myanmar allo scopo di aumentare la propria utenza, e raggiungere il “prossimo miliardo”: ma, così facendo, aveva “lanciato un fiammifero acceso a decenni di tensione razziale in ebollizione e poi si era girato dall’altra parte quando gli attivisti hanno indicato il fumo che lentamente soffocava il paese”.

Dopo il lancio della piattaforma in Myanmar, infatti, moltissimi gruppi e ricercatori per i diritti umani si dissero molto preoccupati per l’utilizzo che veniva fatto della stessa: il social era infatti lo strumento principale tramite cui venivano poste in atto campagne di disinformazione e promosso l’odio nei confronti delle minoranze musulmane, in particolare Rohingya. Tuttavia, detti avvertimenti non furono presi sul serio e la società tardò ancora una volta a prendere dei provvedimenti che potessero arginare tali fenomeni di hate speech.

Quando la base utenti locale arrivò a 18 milioni, anche l’incitamento all’odio razziale esplose, culminando in violenti attacchi nei confronti delle minoranze musulmane.

Un post, pubblicato nel dicembre 2013, presentava una foto del cibo in stile Rohingya e il messaggio “Dobbiamo combatterli come Hitler ha fatto gli ebrei, dannati kalars!”, usando un termine dispregiativo per i Rohingya. Un altro utente commentava sotto ad un post che ritraeva una barca piena di rifugiati Rohingya che arrivavano in Indonesia: “Versa carburante e incendia in modo che possano incontrare Allah più velocemente”.

Altri post utilizzavano un linguaggio disumanizzante, descrivendo i Rohingya e gli altri musulmani come cani, stupratori e vermi, chiedendo che fossero sterminati. C’erano anche immagini pornografiche antimusulmane. Ciò, nonostante gli standard della community di Facebook vietino la pornografia e i post che attaccano gruppi etnici con discorsi violenti o disumanizzanti o li confrontano con gli animali.

Ma l’assetto organizzativo della società era del tutto inadeguato a verificare che gli standard fossero concretamente rispettati: la società monitorava e moderava i contenuti presenti sulla piattaforma attraverso un appaltatore a Kuala Lumpur, che contava solo una sessantina di persone, di cui solo cinque erano nativi birmani che potevano realmente comprendere il contesto locale e, dunque, moderare in modo efficace i contenuti. Decisamente troppo poche, a fronte di una base utenti di oltre 18 milioni, per la quale Facebook rappresentava l’immagine stessa di Internet.

Nel 2017, le tensioni etniche si trasformarono in un vero e proprio genocidio: a tal riguardo, le Nazioni Unite affermarono ufficialmente che Facebook aveva “contribuito in modo sostanziale” all’uccisione di oltre 24.000 musulmani Rohingya, tardando a mettere in atto gli investimenti e le modifiche alla piattaforma che avrebbero potuto impedire l’escalation dei fenomeni di violenza, per non diminuire il coinvolgimento dei propri utenti.

Ad aprile del 2018, poco dopo che gli investigatori delle Nazioni Unite condannarono il ruolo di Facebook come veicolo di “acrimonia, dissenso e conflitto” in Myanmar, Mark Zuckerberg disse ai senatori USA che la società stava assumendo dozzine di moderatori di contenuti di lingua birmana, per contenere il fenomeno dell’incitamento all’odio. “Abbiamo la responsabilità di combattere gli abusi sui nostri prodotti. Questo è particolarmente vero in paesi come il Myanmar dove molte persone usano Internet per la prima volta e Facebook può essere utilizzato per diffondere odio e incitare alla violenza”, disse un portavoce di Facebook, “È un problema che siamo stati troppo lenti a individuare – ed è il motivo per cui ora stiamo lavorando sodo per assicurarci di fare tutto il possibile per prevenire la diffusione della disinformazione e dell’odio.”

La cronaca recente

A quanto esposto sinora, si affiancano gli ulteriori eventi di cui la cronaca più recente ha avuto modo di parlare: lo sfruttamento del sistema pubblicitario di Facebook per diffondere disinformazione e introdurre il caos nel discorso pubblico; la padronanza della campagna di Trump su quegli stessi sistemi per gli stessi scopi; lo scandalo Cambridge Analytica; la campagna diffamatoria contro George Soros; il live streaming dell’assassino della strage di Christchurch nel 2019 e l’uso di Facebook da parte degli insorti per pianificare (e trasmettere in streaming) l’attacco al Campidoglio degli Stati Uniti il 6 gennaio, la campagna di disinformazione sul covid-19 e i fenomeni di hate speech.

Ognuno di questi eventi, secondo le ricostruzioni e le analisi svolte dalle autrici, appare accomunato da un filo comune: il desiderio di aumentare quanto più possibile l’utenza e i guadagni, nella speranza che le criticità insite nel modello di business di Facebook non degenerino.

Nella maggior parte dei casi, le persone all’interno di Facebook erano consapevoli – e allarmate – degli eventi che stavano accadendo sui sistemi dell’azienda, perché li avevano rilevati o erano stati allertati da terzi soggetti (attivisti ed esperti, nella maggior parte dei casi). Eppure, quando hanno comunicato le loro preoccupazioni alle persone sopra di loro nella gerarchia manageriale, non è successo molto: il che, forse, spiega, a detta delle autrici, anche perché in alcuni casi Zuckerberg sembrava non essere neppure a conoscenza delle crisi incombenti, fino al momento in cui era troppo tardi per rivendicarne l’ignoranza.

I membri apicali di Facebook, nel corso dello scandalo Cambridge Analytica, non hanno guardato i segnali di allarme su Trump forniti da altri dirigenti all’interno dell’azienda, afferma Kang, “Donald Trump ha solo fatto emergere molti dei problemi fondamentali che erano stati incorporati nella tecnologia e nel modello di business”.

E tale problematica continuerà a esistere anche in futuro, se il modello di business e le priorità aziendali rimarranno immutate. “Ci saranno solo altri leader che sfrutteranno la capacità di Facebook di rendere le cose virali”, afferma Frenkel. “E penso che fino a quando non lotteremo davvero contro tutto questo come società, come mondo, non capiremo come i social media abbiano cambiato tutte le nostre vite”.

La “brutta verità” di Facebook

La scelta del titolo del libro, “The Ugly Truth”, deriva da una nota interna inviata da Andrew Bosworth (alias “Boz”), dirigente senior di Facebook e uno dei confidenti più stretti di Mark Zuckerberg. “Così colleghiamo più persone”, dice. “Questo può essere negativo se le persone lo rendono tale. Forse esporre qualcuno ai bulli costa la vita a qualcuno. Forse qualcuno muore in un attacco terroristico coordinato sui nostri strumenti. E ancora colleghiamo le persone. La brutta verità è che crediamo nel connettere le persone così profondamente che tutto ciò che ci consente di connettere più persone più spesso è de facto buono”.

In un certo senso, quanto contenuto nella nota riassume l’intero modello operativo di Facebook e consente di dare una risposta alle domande che il libro stesso si pone. Ciò che occorre aggiungere è che è che più persone Facebook “connette”, più soldi guadagna. E la società può ancora crescere: allo stato attuale, Facebook conta 2,8 miliardi di utenti attivi su 7,8 miliardi di persone sul pianeta. Il che significa che ci sono ancora 5 miliardi da “connettere”, una fonte inesauribile di dati che costituisce il vero patrimonio dell’azienda e che l’anno scorso ha fruttato all’azienda 85 milioni di dollari grazie al marketing comportamentale.

Nel corso dell’intero libro, le autrici mantengono una linea d’analisi leggera, preferendo lasciare che siano i fatti a parlare per loro. In quest’ottica, esitano a trarre conclusioni difficili su quali possano essere le soluzioni ai problemi che affliggono Facebook: “Anche se l’azienda subirà una trasformazione radicale nel prossimo anno”, scrivono, “è improbabile che il cambiamento venga dall’interno”. Questo perché Facebook è vittima della sua stessa “dicotomia inconciliabile”: voler connettere le persone tramite strumenti utili e innovativi aumentando, allo stesso tempo, i ricavi.

Capitolo dopo capitolo si chiarisce che non è possibile soddisfare entrambi, e che spesso Facebook sceglie di perseguire il secondo obiettivo a discapito del primo, con le conseguenze che sono ben note.

Ma ciò che molti lettori e critici hanno intravisto fra le righe, è stato un messaggio forte e chiaro: Facebook non si risolverà mai da solo, perché non vi ha interesse. Anzi, rappresenta un modello da seguire per molte altre aziende.

Anzi, ora molte aziende stanno copiando Facebook a causa del successo del modello di business. “Facebook ha guadagnato 85 miliardi di dollari l’anno scorso. Ha un valore di 1 trilione di dollari”, afferma Kang. “Non si può incolpare altre aziende di voler emulare il modello di business e il successo dell’azienda”.

quiz
[QUIZ] Sei pronto per garantire una customer connection eccellente?
CRM
Digital Transformation
@RIPRODUZIONE RISERVATA

Articolo 1 di 3