Il problema di Facebook è che cresce fuori controllo: come risolvere - Agenda Digitale

l'analisi

Il problema di Facebook è che cresce fuori controllo: come risolvere

Le inchieste del Wall Street Journal, le audizioni al Congresso rivelano una società vittima del proprio successo, incapace di controllare le conseguenze della propria crescita. Bene l’idea, che avanza, che sia la società civile e in particolare gli altri media a controllare i comportamenti dei social network

08 Ott 2021
Mario Dal Co

Economista e manager, già direttore dell’Agenzia per l’innovazione

“L’ambizione dichiarata di Facebook è stata a lungo quella di connettere le persone. Mentre negli ultimi 17 anni si espandeva dagli studenti di Harvard a miliardi di utenti globali, ha lottato con la realtà disordinata di mettere insieme voci disparate con motivazioni diverse—dalle persone che si augurano buon compleanno ai cartelli della droga messicani che conducono affari sulla sua piattaforma. Questi problemi consumano sempre di più l’azienda”.

Le parole di Jeff Horwitz sul Wall street journal, nell’inchiesta Facebook Files, dicono tutto [1] 

Da quando è stata quotata, nel 2012 Facebook è cresciuta senza sosta: il numero dei dipendenti è aumentato in media del 38% all’anno, raggiungendo i 68.000 a giugno 2021. Contando anche i contrattisti il numero diventa più che doppio. E’ facile immaginare che cosa significhi far lavorare insieme persone che non si conoscono tra di loro e non hanno esperienza di lavoro in comune: uno sforzo immane di costruzione del team e di condivisione di valori e di conoscenze e procedure. Uno sforzo altamente innovativo.

Libertà di espressione e lotta alle fake news: alla ricerca di un difficile equilibrio

Non solo, ma nel crogiuolo di Facebook, quello interno gestito dall’organizzazione aziendale prima ancora di quello esterno gestito dalla piattaforma stessa, troviamo un grado di apertura etnico/linguistico straordinario, come dimostra la tabella che segue.

Si tratta di un impegno non inferiore a quello richiesto, come ci ricordava la citazione iniziale, dall’impegno di tenere aperto un sistema di colloqui e dibattiti che connette alcuni miliardi di persone in tutto il mondo.

La gestione della piattaforma passa, in via prioritaria, attraverso l’uso dell’intelligenza artificiale e degli algoritmi in cui essa si materializza di continuo, guidata dai parametri che vanno rispettati per mantenere un elevato livello di redditività agli investimenti dell’azienda.

C’è qualcosa di sbagliato in questa modalità di funzionamento della piattaforma? E’ pericoloso per una società democratica il fatto che l’algoritmo sia finalizzato a massimizzare l’estensione dell’audience di Facebook? Questa è la domanda cruciale.

Ma se il problema è che c’è una crescita senza freni, al punto da impedire a Facebook un controllo delle conseguenze – troppo enormi per una società privata, per quanto gigantesca – la risposta che sembra imporsi, nella testa dei politici, è: assegniamo a norme e a società civile questa funzione di controllo.  

Garantire la competizione

Problema non semplice, che affonda nelle dinamiche di mercato. La massimizzazione del profitto è la ricetta di base per il buon funzionamento del mercato, purché essa non avvenga in violazione delle norme, in particolare di quelle che tutelano la concorrenza. Su questo fronte Facebook e gli altri giganti del web sia occidentali sia cinesi, sono sotto esteso e approfondito scrutinio da parte della politica e della magistratura a livello mondiale. Il problema sorge nel momento in cui i big data di cui le piattaforme sono detentrici per effetto del funzionamento stesso delle app e per la gestione degli account, possono essere utilizzati a favore della piattaforma e contro i suoi utenti. Quando le aziende che vendono o pubblicizzano su una piattaforma i propri prodotti si vedono scavalcate da altre, spesso legate direttamente alle aziende che gestiscono le stesse piattaforme, possono aver subito un attacco alla lor competitività guidato dalla piattaforma stessa e dalle sue modalità di funzionamento. Il tema in questo caso è come garantire la neutralità della piattaforma ovvero assicurare che essa non utilizzi a proprio vantaggio i dati forniti dai suoi stessi utenti nell’ambito del funzionamento della piattaforma o della app che essa ospita.

WHITEPAPER
Quali sono gli step da seguire per realizzare una strategia di automazione del marketing omnicanale?
Marketing
Advertising

Sulla tutela della concorrenza vi sono già primi interventi, come l’ordine emesso dalla giudice federale di Oakland, Gonzales Rogers, nel sancire che Apple deve consentire agli sviluppatori di offrire i propri sistemi di pagamento nell’ambiente proprietario iOS, senza passare obbligatoriamente per il sistema di Apple che trattiene il 30% sulla transazione.

Non basterà questa sentenza e non basteranno  le regole o gli interventi della Commissione europea, che pure punta dritto alla distorsione monopolistica insita nel controllo dei dati degli utenti e nel loro utilizzo a vantaggio di propri o di altri prodotti, da parte dei gestori delle piattaforme (Amazon, Google, oltre a Facebook). Ma possiamo dire che in questo ambito i problemi sono stati individuati e indirizzati.

La battaglia tra i giganti del web e i regolatori seguirà necessariamente le battaglie legali tra nuovi entranti (come Epic vs Apple) e piattaforme e dovrà tenerne conto per assicurare un grado accettabile di apertura del mercato.

Chi non si fida dell’algoritmo

Nella tutela della concorrenza i conflitti di interesse tra aziende nuove entranti o sviluppatori di app e le  piattaforme monopolistiche sono il motore della pressione giudiziaria e normativa sui gestori delle piattaforme.

Altra questione, assai più complessa, è quella posta dai Facebook files, pubblicati a partire dal 13 settembre dal Wall Street Journal, a cui sono stati consegnati da una  ex-dipendente dell’azienda e di cui molto si discute in questi giorni.

I files riguardano le comunicazioni interne a Facebook ad alto livello, dalle quali si evince che l’azienda gestisce in modo diversificato le regole di ingaggio della piattaforma a seconda della rilevanza dell’utente. Essa impone al pubblico generale l’applicazione degli algoritmi restrittivi sulla sua comunicazione on line, ed applica più attenti e discrezionali sistemi di controllo, umano e non automatico, agli utenti di maggior interesse per la piattaforma..

La creazione di questo mondo duale tra gli utenti ha naturalmente innervosito molti sostenitori dell’uguaglianza e della neutralità: come, proprio Facebook che impone le regole di ingaggio e dichiara di applicarle a tutti indistintamente, crea uno staff specializzato nel mettere da parte le conclusioni degli algoritmi automatici e “gestisce” i casi che stanno più a cuore all’azienda?

La conclusione è paradossale: Facebook non si fida dell’algoritmo, nonostante Zuckerberg dichiari che si sbaglia solo il 10% delle volte (che comunque non sarebbe poco). Qui, non abbiamo a che fare con clienti in grado di sostenere imponenti battaglie legali, con legislazioni e regole a cui appellarsi per la tutela dei propri diritti,  qui abbiamo a che fare con utenti, che usano le piattaforme in modo gratuito. Qui il contratto d’uso è nelle mani della piattaforma che decide che cosa l’utente può fare e stabilisce anche regole a proprio arbitrio sulla liceità della comunicazione che l’utente può fare sulla piattaforma o sulle sue app.

Il problema sollevato non sorge da un contrasto diretto di interessi, ma da un conflitto assai meno netto e assai meno statuito da norme scritte, tra chi stabilisce le regole della comunicazione sui social network: il Parlamento o l’azienda proprietaria della piattaforma?

Nel caso dei media tradizionali la risposta è semplice: il giornale pubblica liberamente, ma è responsabile delle violazioni delle norme generali e risponde dei danni che tale violazione può aver provocato ad altri soggetti.

Le piattaforme social si sono sempre nascoste dietro al fatto di non esser loro i produttori dei contenuti, che provengono dagli utenti stessi, e quindi hanno sempre fornito la risposta che esse possono solo moderare tali contenuti escludendo, ovvero cercando di zittire coloro che violano i condici di autoregolamentazione che esse stesse si sono date.  Donald Trump zittito dai social network dopo l’assalto a Capitol Hill è il caso più evidente di questa soluzione.

Xcheck di Facebook

Ma proprio l’ultimo esempio chiarisce la enorme complessità di questa soluzione, che non è affatto applicabile in modo generale ed efficace. Per gestire gli utenti più importanti, i VIP si sarebbe detto un tempo, non solo quelli che contano di più in termini politici come Trump, ma anche quelli che portano molto traffico, come il calciatore brasiliano Neymar, Facebook ha deciso di affidarsi ad una gestione delle regole di ingaggio alternativa all’algoritmo.

Questo stabilisce con giustizia sommaria che condanna il bullismo, i contenuti sessuali, gli incitamenti all’odio e alla violenza e li può sanzionare con la cancellazione dei contenuti senza contraddittorio. Nel caso dei VIP, Facebook ha creato un sistema denominato XCheck che esamina le infrazioni dei VIP senza lasciarle nelle “mani” dell’algoritmo. Molti dipendenti di Facebook possono inserire clienti nell’ambito di XCheck, e un audit del 2019 aveva trovato almeno 45 team impegnati della gestione delle eccezioni. Neymar, con il suo account su Instagram, conta 150 milioni di followers: è un VIP. Dopo l’accusa di stupro presentata da una donna nel 2019, Neymar ha risposto pubblicando su Facebook e Instagram video a propria difesa, mostrando su WhatsApp la sua corrispondenza con l’accusatrice, compresi il nome e foto di lei nuda, accusandola di tentare un’estorsione contro di lui.

Normalmente questi contenuti di immagini personali non consensuali sarebbero stati rimossi immediatamente. Ma XCheck proteggeva Neymar e per più di un giorno i contenuti sono rimasti, con il risultato che oltre 56 milioni di utenti hanno potuto vedere ciò che un audit interno definiva come “vendetta porno”. Le linee operative di Facebook stabiliscono che in casi del genere no solo devono essere rimosse le foto, ma deve essere chiuso l’account, l’audit riportava:  “Dopo aver posto il caso ai livelli più alti, abbiamo deciso di lasciare l’account di Neymar attivo, un allontanamento dalla nostra usuale politica di disabilitare con un solo colpo il profilo[2].

Il legislatore USA su Facebook e Hougen

Frances Hougen, la dipendente che ha portato i Facebook files al Wall Street Journal aprendo lo scandalo, è stata sentita dal Comitato per il Commercio, Sezione Tutela del Consumatore dove ha trovato una audience trasversale di Repubblicani e Democratici[3]. In particolare, i temi di maggiore attenzione sono il conflitto tra i propri interessi aziendali e la sicurezza dei cittadini e i disturbi psichici causati ai minori, in particolare quelli tra 10 e 12 anni i cosiddetti preteens ed in particolare le bambine, dal fatto che l’uso di Instagram comporta un maggiore disagio rispetto alla propria fisicità. Una delle maggiori preoccupazioni di Facebook, a partire dal 2017, quando ha registrato una attenuazione dell’attenzione degli utenti, è stata la modifica dell’algoritmo che propone agli utenti le News, ovvero il News Feed. Per capire cosa stava succedendo e  come ri-orientare l’algoritmo, Facebook ha condotto ricerche sui social network propri e della concorrenza, cercando di capire l’interesse crescente per Tik Tok dei preteens. Da queste ricerche risulta anche che Instagram poteva avere effetti negativi soprattutto sulle bambine[4].

Questi problemi stanno rilanciando di proposte di intervento legislativo negli Stati Uniti. In particolare si propone la revisione della Sezione 230 che esenta i social network dalla responsabilità sui contenuti pubblicati, dove il senatore Kobuchar, già responsabile dell’introduzione di una legge contro la disinformazione nella sanità, propone che la esenzione assicurata dalla sezione 230 non si applichi:

  • alle pubblicità ingannevoli
  • ai casi di danni causati dall’uso distorto delle piattaforme
  • ai casi in cui la piattaforma consente stalking e aggressioni o facilita azioni che portano alla perdita della vita
  • ai casi in cui violazioni dei diritti in altri paesi siano riconducibili alle piattaforme con base negli Stati Uniti.

Tra l’altro Hougen propone anche di eliminare l’algoritmo di engagement – motore di amplificazione del peggio di noi – sostituendolo con un feed cronologico.

Conclusioni

Le proposte della senatrice Amy Kobuchar vanno nella direzione di ridurre la protezione assicurata ai social network dalla Sezione 230 del Titolo 47 del Codice degli Stati Uniti, introdotta come parte della Legge sulla Disciplina della Decenza nelle Comunicazioni.

Quella legge protegge dal 1996 i social network americani, rendendoli sostanzialmente irresponsabili rispetto ai contenuti pubblicati e consentendo oro di gestire i contenuti con codici di autodisciplina da loro stessi emanati e controllati. Non è facile scalfire questo scudo: esso viene considerato, non senza ragione, alla base del successo delle piattaforme sociale degli Stati Uniti nel mondo.

Il senatore John Thune propone invece di introdurre una legge che obbliga le piattaforme internet a produrre un report trimestrale pubblico nel qual venga riportato tutto il materiale che hanno rimosso dai loro siti o che hanno deciso di rendere meno visibile. Ai siti viene anche richiesto di  svelare agli utenti  le loro pratiche di moderazione.

Tornando a Facebook, è chiaro che il gigante dei social incontra difficoltà crescenti nel gestire una esposizione su scala mondiale che lo pone al centro di mille tensioni. La censura, anche nella forma indiretta proposta da Klobuchar, potrebbe non essere facilmente realizzabile per il sovraccarico di contenzioso che potrebbe comportare e il probabile rallentamento nella capacità innovativa delle piattaforme.

L’approccio più flessibile e aperto di Thune, l’idea che sia la società civile e in particolare gli altri media a controllare i comportamenti dei social network, sembra assai più facile da percorrere e probabilmente più produttiva.

Meglio affrontare una crisi di crescita della comunicazione digitale, che subire le offensive censorie di chi vede nella comunicazione digitale il grande pericolo per la democrazia.

Note

[1]) Jeff Horwitz, Facebook Says Its Rules Apply to All. Company Documents Reveal a Secret Elite That’s Exempt. A program known as XCheck has given millions of celebrities, politicians and other high-profile users special treatment, a privilege many abuse

https Sept. 13, 2021 10:21 am ET://www.wsj.com/articles/facebook-files-xcheck-zuckerberg-elite-rules-11631541353?mod=article_inline

[2]) Jeff Horwitz, cit.

[3]) Kevin Tanglang, The Facebook Files and the Future of Social Media, Benton Institute for Broadband & Society, October 8, 2021.

[4]) Georgia Wells, Jeff Horwitz, Facebook’s Effort to Attarct Preteens Goes Beyond Instagram Kids, Document Show, The Wall Street Journal, September 28, 2021.

WHITEPAPER
Scopri gli strumenti da adottare per una completa digitalizzazione e diventare azienda data-driven
Big Data
Data Management
@RIPRODUZIONE RISERVATA

Articolo 1 di 3