Facebook ostaggio del proprio business model: ecco perché non risolve i problemi - Agenda Digitale

Fake news & Hate speech

Facebook ostaggio del proprio business model: ecco perché non risolve i problemi

Facebook è consapevole dei problemi legati all’effetto tossico di Instagram sulle teenager e alla presunta responsabilità nel promuovere l’esitazione vaccinale, ma non riesce a compiere un salto di qualità verso un modello di business più trasparente, democratico e socialmente responsabile ma meno remunerativo

01 Ott 2021
Mirella Castigli

ScenariDigitali.info

Facebook non riesce a risolvere le gravi vulnerabilità di cui soffre, sebbene ne sia pienamente consapevole, perché, se sanasse le sue falle, arrecherebbe ferite insanabili al suo prezioso business model che rende sempre più fiorenti le sue trimestrali che, a loro volta, sostengono l’ascesa del social media di Menlo Park a Wall Street.

Facebook, due pesi e due misure? Sul social i “vip” sono al di sopra delle regole

Il business model è il tallone d’Achille di Facebook

Il modello di business di Facebook è basato sulla crescita degli utenti attivi a livello giornaliero e mensile, sull’engagement spinto, sui like e sulle condivisioni a cascata: tutti gli elementi che lubrificano il meccanismo della pubblicità digitale, di cui il social media nel 2020 deteneva il 25,2% nel 2020 (contro il 28,9% di market share di Google, secondo eMarketer).

WHITEPAPER
Distance Selling: come trasformare il New Normal in una straordinaria opportunità di crescita

Ma se ad accelerare l’engagement è soprattutto la viralità dei post più divisivi, alla fine risulta che il business model di Facebook è così sclerotizzato e schiacciato su questa dinamica di crescita, da paralizzare la propria evoluzione verso un modello più trasparente, pienamente democratico e socialmente responsabile.

“Non credo che Facebook sia sanabile”, spiega Paolo Attivissimo, giornalista informatico e fra i pionieri italiani del fact-checking su internet a caccia di fake news: “Il suo modello commerciale e la sua mentalità aziendale sono fondate sull’aumento delle interazioni e dei profitti, a discapito di tutto il resto e di tutte le conseguenze sulle persone e sulla società in generale. I vari interventi sembrano più operazioni di facciata che azioni strutturali. L’esiguità delle risorse umane messe in campo da Facebook per gestire gli abusi e la disinformazione dimostra il suo scarso interesse reale per la questione”.

Facebook e la sindrome di Stoccolma capovolta

Facebook sembra colpito da una sindrome di Stoccolma alla rovescia: è diventato ostaggio dei propri utenti, soprattutto quelli più bulli e aggressivi, che godono di maggiore popolarità grazie a post altamente controversi e virali, cosicché il successo del social media pare impossibilitato a cambiare. Se i post più virali, che attirano nuovi utenti sulle sue piattaforme, sono quelli più polarizzati e polarizzanti – i contenuti più divisivi e più irresponsabili sui temi più scottanti a livello sociale, dagli effetti negativi sulle ragazze adolescenti all’esitazione vaccinale – Facebook sembra davvero impossibilitato a fare qualcosa per cambiare.

Instagram (Facebook) tossico per le teenager: se il profitto social vince su tutto

Nella sindrome di Stoccolma la vittima s’innamora del carnefice. Qui la situazione si è capovolta: il padrone del walled garden, il giardino recitato del social network, sembra essersi trasformato da carnefice in ostaggio dei suoi utenti. Costretto a stendere tappeti rossi a quegli utenti che, in forza delle cifre che muovono (i numeri di follower e di condivisione dei post), si sono trasformati in super-follower da vezzeggiare e omaggiare. Utenti di cui il social media non può fare a meno, perché ogni loro post polarizzato è super condiviso, su Whatsapp fanno girare video e catene dalle cifre impressionanti (e se masse di utenti minacciano di uscire da Whatsapp per entrare in Telegram, provocano un declino nell’uso dell’app, mettendo a rischio la sostenibilità del modello di business) e su Instagram producono contenuti altamente virali.

Se mutasse pelle e affrontasse seriamente le proprie vulnerabilità, a venirne travolto potrebbe essere il suo stesso modello di business: la sua crescita a doppia cifra di fatturato e profitti, il suo valore di capitalizzazione in Borsa. Facebook, insieme a tutta la sua galassia, è vittima del suo enorme successo?

La crescita a cifra doppia, di trimestre in trimestre

La droga di Facebook si chiama trimestrale. Un incremento del 94% degli utili e del 48% del fatturato, nel primo quarto dell’anno. Utile netto raddoppiato e ricavi in crescita del 50%, nel secondo trimestre. A fine giugno, sull’onda di questi risultati, la società guidata dal fondatore Mark Zuckerberg ha varcato la soglia del primo trilione di dollari di valore di capitalizzazione a Wall Street. Ma a pompare fatturato e profitti non è più, come all’inizio, solo l’aumento degli utenti attivi giornalieri e mensili (che crescono a ritmo inferiore rispetto agli esordi, per lo meno su Facebook, mentre Instagram è ancora un’app che attira giovanissimi utenti), bensì i meccanismi alla base dell’advertising digitale.

A spingere le trimestrali di Facebook non è tanto la crescita del numero degli utenti, ma ciò che spinge le interazioni degli utenti sulle varie app: Facebook, Whatsapp e Instagram. Più i post sono condivisi e diventano virali, più esplodono i cuori dei like, più le app del social media attirano sponsor che investono budget crescenti nella pubblicità digitale. E su Facebook la disinformazione ottiene sei volte più clic rispetto alle altre notizie, secondo uno studio della New York University e dell’Université Grenoble Alpes. L’infodemia trova l’humus ideale nei social network come luoghi privilegiati per la condivisione virale dei contenuti postati grazie a vere e proprie Filter bubbles, l’ambiente virtuale che ciascun utente costruisce sul news feed tramite le sue selezioni preferenziali, una vera bolla scarsamente permeabile alle novità e alle opinioni diverse dalle proprie, che si distingue per l’alto livello di autoreferenzialità.

L’advertising digitale motore della trimestrale

Prendiamo la trimestrale di fine aprile di quest’anno. Facebook ha registrato profitti netti balzati in avanti del 94%, a quota 9,5 miliardi rispetto ai 4,9 miliardi dello scorso anno. Mentre gli utenti attivi sono aumentati del 10%, il fatturato è schizzato a +48%, superando i 26 miliardi di dollari.

Il numero di utenti attivi giornaliero e mensile è salito del 10%, lievemente al di sotto delle attese degli esperti, con 1,88 miliardi e 2,85 miliardi di persone, rispettivamente, contro gli 1,89 miliardi e 2,86 miliardi previsti.

A rendere solida la trimestrale è stata l’esplosione dei ricavi pubblicitari, in crescita del 46% a 25,4 miliardi di dollari. L’advertising digitale è in crescita a doppia cifra perché gli inserzionisti presidiano i social media in maniera sempre più sostenuta, mentre le imprese “migrano” sui social le loro strategie per avvicinare i clienti, dopo che la pandemia ha arricchito le piattaforme social che, durante i lockdown e le quarantene, hanno consentito a ridurre il “distanziamento sociale”, mantenendo gli utenti in contatto fra loro. Secondo Bloomberg, la pandemia ha fatto la fortuna delle piattaforme social, compresi WhatsApp e Instagram, perché sono le app che hanno permesso di rimanere in contatto con i proprio affetti.

Ma, passata la prima fase, a macinare numeri, sono risultati soprattutto i post che diffondono disinformazione (sui vaccini e sull’andamento della campagna vaccinale) o odio.

Le responsabilità di Facebook nell’esitazione vaccinale

Dai documenti interni su cui ha messo le mani il Wall Street Journal, finiti al centro di un’inchiesta a 360 gradi sul social media, emergono con prepotenza nuove evidenze che inchiodano Facebook alle sue responsabilità in tema di esitazione vaccinale: anche se Facebook ha re-diretto 2 miliardi di persone verso fonti autorevoli sul Covid-19, è anche innegabile che gli sforzi del social media sono risultati vani. I post autorevoli sono stati compromessi e inquinati da una valanga di commenti infarciti di retorica no-vax e teorie cospirative, tanto da mettere in allarme l’OMS e l’Unicef.

La settimana precedente dell’annuncio di Zuckerberg di metà marzo, in cui esprimeva il suo piano ambizioso di portare 50 milioni di persone a vaccinarsi, grazie alle risorse della piattaforma di cui aveva scritto il codice 17 anni prima, un memo interno mise in guardia Facebook: i test iniziali concludevano che il 41% dei commenti iniziali, in lingua inglese, rischiavano di scoraggiare le persone a correre a farsi somministrare i vaccini. I commenti, soprattutto contrari alla campagna vaccinale di massa, visualizzati 775 milioni di volte al giorno rischiavano di tramutarsi in un boomerang, inoculando dubbi sulla sicurezza dei vaccini. Del resto, abbiamo visto in Italia com’è stato recepito negativamente il vaccino di AstraZeneca, più per responsabilità dei titoli di giornale e dei media tradizionali rispetto ai social, ma senza dubbio, quei titoli fuorvianti sono stati condivisi sui social media convincendo persone a rinunciare alla somministrazione di un vaccino rispetto ad altri.

Ma è davvero così?

Opposti pareri

Secondo l’esperto Walter Quattrociocchi, studioso di analisi dei dati e previsione di comportamenti sociali, “dall’infodemics index, non risulta una correlazione fra le informazioni condivise su Facebook e l’esitazione vaccinale”. Un conto sono i trend, la polarizzazione delle opzioni, l’amplificazione dei rumor, un altro è l’impatto delle campagne no-vax sulla realtà: il problema della disinformazione è soprattutto legato al nostro modo di cercare le informazioni. “Oggi abbiamo la piena consapevolezza che la disinformazione è un tarlo che sta a valle di un problema più complicato, cioè l’incapacità del mondo dell’informazione di rendere fruibili fenomeni molto complessi”.

Abbiamo contattato anche David Puente, appassionato fact-checker, che punta il dito contro la mole di lavoro enorme che Google Adsense o Facebook dovrebbero svolgere per venire a capo dell’infodemia: “Il primo problema è il fattore umano: un controllo umano di immense proporzioni che richiederebbe tantissimo tempo per svolgere l’attività di monitoraggio. Il secondo problema è l’aspetto linguistico: è quasi impossibile chiedere a un controllore del Bangladesh di monitorare contenuti scritti, per esempio, in lingua italiana”. Delegare alla tecnologia serve a poco: basta pensare alle immagini false immesse su Facebook, dove non è sufficiente una segnalazione per eliminarle per sempre: “Basta una modifica perché l’algoritmo non le riconosca più come immagini false” e dunque ritornano in circolo ad inquinare i pozzi.

La disinformazione è soprattutto una “questione culturale”, in cui non bisogna demonizzare le piattaforme, ma bisogna “rivolgersi al mondo dell’istruzione e a quello dell’informazione per riconoscere la giusta priorità al problema delle fake news. Per migliorare l’ecologia dell’informazione bisogna lavorare sulla consapevolezza e sul senso critico, passando attraverso le scuole e chiedendo aiuto anche alle istituzioni, con l’auspicio di una collaborazione coi social media, perché possano ritagliarsi un ruolo in questa campagna contro la disinformazione”. Puente mette anche in guardia dalle “soluzioni definitive”, come la cacciata dell’ex Presidente USA Donald Trump da Facebook e Twitter: “Qui si mette in gioco un valore altissimo come la libertà d’espressione”.

Conclusioni

Facebook appare consapevole delle problematiche più gravi: la propria responsabilità nell’effetto tossico di Instagram sulle teenager; l’esitazione vaccinale di molte fasce della popolazione, soprattutto negli Stati Uniti, dove la campagna vaccinale si è arenata a una percentuale ancora bassa, mentre la variante delta del Covid-19 miete ancora troppe vittime; deiprivilegi concessi a un’élite di utenti, esentati dalle regole del social network attraverso il programma Xcheck (che consente ai Vip – come un tempo era catalogato Trump – di condividere su corsie preferenziali, affermazioni false e diffamatorie, sebbene già rilevate come fake news dai sistemi interni di fact-checking. Ma alla presa di coscienza non seguono i fatti: il social media non riesce a cambiare, perché, per motivi intrinseci del suo modello di business irriformabile, il social da un trilione di dollari non è in grado di cambiare pelle. Di cambiare modello di business.

Facebook, da un lato è vittima del suo successo (la mole enorme di informazione che circola sui social, che richiede tempo, competenze e quindi enormi risorse per essere vagliata), dall’altro sembra imprigionato in questa “sindrome di Stoccolma capovolta” per cui “content is king”, vero o falso che sia, perché ciò che contano sono le condivisioni, i Like, la viralità e soprattutto i profitti che derivano dalle interazioni e dai contenuti sponsorizzati.

Per contrastare non solo la disinformazione, ma anche l’esitazione vaccinale, di cui l’accusa anche il Presidente Biden, Facebook reclama di aver messo a punto un proprio sistema di rilevazione degli account falsi attraverso “Temporal Interaction EmbeddingS (TIES)” che ha permesso di monitorare circa 2,5 milioni di account (con un rapporto 80/20 reali/falsi) e 130.000 post, di cui circa il 10% sono etichettati come disinformazione, rimuovendo “oltre 18 milioni di casi di disinformazione sul COVID-19” e minimizzando la visibilità di oltre 167 milioni di contenuti COVID-19 smascherati” dai propri algoritmi, seguendo una serie di provvedimentiraccomandazioni e regole.

Uno sforzo che appare microscopico rispetto alla titanica impresa. Ma è anche vero che su 150 mila persone che postavano disinformazione sul Covid-19 nei Facebook Group disabilitati, il 5% produceva metà di tutti i post, e circa 1.400 utenti erano responsabili di invitare nuovi utenti di metà dei gruppi. Come nel movimento QAnon, sono pochi gli attori che effettivamente agiscono in modo attivo.

Con le cifre in gioco, Facebook sembra un piccolo Davide contro un gigante Golia. Per il social media di Menlo Park è davvero quasi impossibile bloccare da sola la diffusione della disinformazione, soprattutto legata al Covid. Però, aver creato corsie privilegiate a utenti Vip “autorizzati” a violare le regole valide invece per gli oltre 3 miliardi di utenti, non depone a favore della sua totale buonafede. Sicuramente, poi, la disinformazione è sempre esistita, e non è ancora dimostrato che il suo aumento vada attribuito prevalentemente al ruolo delle piattaforme social, ma le accuse di non fare abbastanza rivolte a Facebook poggiano su indizi sempre più solidi. La narrazione ottimistica di un social che connette il mondo per risolverne i problemi, esce dunque molto appannata dai documenti interni di Facebook emersi nell’inchiesta del Wall Street Journal. E pensare che possa fare di più sembra pura utopia.

WEBINAR
28 Ottobre 2021 - 11:00
Guida pratica alla trasformazione digitale: le esperienze dei manager italiani ai posti di comando
Big Data
Cloud
@RIPRODUZIONE RISERVATA

Articolo 1 di 4