Digital policies

Tutti i dubbi sul metaverso: le nuove accuse di Frances Haugen a Meta

L’ex product manager di Facebook Frances Haugen, già fonte dei “Facebook Files”, ha espresso dubbi e criticità sul Metaverso: le dichiarazioni su sicurezza e privacy, la controffensiva Project Amplify

02 Feb 2022

Il metaverso, descritto dallo stesso Zuckerberg come “un ambiente in 3D dove si può entrare, invece di guardarlo da uno schermo”, sta sollevando nuove preoccupazioni e dubbi rispetto a sicurezza e privacy. I primi dubbi sono arrivati dalla fonte dei “Facebook files” Frances Haugen, ex product manager di Facebook, oggi Meta.

Con “Facebook Files” si indicano migliaia di documenti riservati condivisi da Haugen e pubblicati dal Wall Street Journal e altre testate statunitensi ed europee. La Haugen, chiamata a testimoniare davanti al Congresso degli Stati Uniti e alla Commissione Europea dopo la pubblicazione dei file, ha espresso perplessità sul nuovo progetto di realtà virtuale sul quale il colosso social sta riorientando il proprio modello di business.

Dal metaverso al metacapitalismo: un nuovo stadio del capitalismo della sorveglianza?

Secondo la Haugen, recentemente intervistata da testate come il Time e Associated Press, il metaverso presenterà un numero molto ampio di criticità. Trattandosi di una realtà virtuale immersiva, l’ex dipendente di Facebook ha espresso i propri timori sul fatto che, nel metaverso, le persone non potranno avere il potere di acconsentire o meno alla possibilità di avere sensori, videocamere o microfoni all’interno delle proprie abitazioni; perdendo ancora di più il controllo sui propri dati.

Le accuse di Haugen a Facebook su sicurezza e privacy

Nelle sue testimonianze, la Haugen, che aveva lavorato precedentemente come product manager anche per realtà come Google e Pinterest, ha rivelato che Facebook, oggi Meta, risulta essere una delle aziende meno attente al tema della sicurezza e della privacy; rivelando inoltre che “quando Facebook non vuole risolvere un problema, si limita a dedicargli poco personale”, come è accaduto ad esempio per il tema della sicurezza degli utenti minorenni, o con il reparto che si occupa del controspionaggio.

WEBINAR
8 Giugno 2022 - 12:00
Governance e sicurezza dei dati. Come gestirli al meglio?
Big Data
Sicurezza

Secondo un’indagine della MIT Technology Review, alla vigilia delle elezioni statunitensi del 2020, alcune delle pagine più popolari di Facebook, parte di una rete più ampia che raggiungeva collettivamente quasi la metà dei cittadini americani, erano gestite da fabbriche di troll dell’Europa orientale. Uno dei contenuti più letti del primo trimestre del 2021, con 54 milioni di visualizzazioni, era stato un post che metteva in dubbio l’efficacia dei vaccini. L’azienda aveva diffuso il rapporto con i numeri in questione solo dopo che il quotidiano New York Times ne aveva dato conto pubblicamente.

Frances Haugen ha accusato sostanzialmente Facebook di “non avere la struttura” per fermare la disinformazione e di non essere in grado adottare, a differenza di quanto garantito pubblicamente, gli strumenti necessari alla gestione del problema. Tuttavia, secondo la Haugen, non si tratta solo di un limite tecnico e organizzativo. L’ex dipendente di Facebook, in base a quanto da lei stessa osservato, ha infatti descritto l’azienda come eccessivamente attenta all’ottimizzazione del suo prodotto, tanto da mettere in secondo piano la sicurezza dei suoi utenti.

Intervistata alla trasmissione “60 Minutes”, la whistleblower ha dichiarato che “Facebook, più e più volte, ha dimostrato di preferire il profitto”, mostrandosi inerte nei confronti della diffusione di contenuti divisivi, polarizzanti, sessualmente espliciti o che incitano all’odio e alla violenza, proprio il genere di contenuti favoriti dal nuovo algoritmo lanciato nel 2018, che promuove l’engagement a discapito della veridicità e qualità del contenuto.

Secondo le analisi della Ranking Digital Rights, Facebook stanzia l’87% del suo budget per combattere la disinformazione, limitandosi tuttavia agli utenti con sede negli Stati Uniti, anche se questi utenti costituiscono solo il 10% circa degli utenti attivi giornalieri della piattaforma. Queste scelte hanno esacerbato la diffusione dell’incitamento all’odio e della disinformazione nei paesi non occidentali, in cui i conflitti interni e l’instabilità politica sono elevati, contribuendo alla diffusione di episodi di violenza politica ed etnica.

Sempre secondo le rivelazioni trapelate dai “Facebook files”, il colosso di Menlo Park adotterebbe due pesi e due misure anche rispetto alla moderazione dei contenuti dei singoli utenti, esentando circa 5,8 milioni di persone, tra celebrità e politici (dunque utenti in grado di generare un elevato engagement) dalle normali regole di moderazione applicate ai contenuti pubblicati dagli utenti comuni, come previsto dal programma denominato XCheck. o Cross Check (controllo incrociato), che di fatto esenta alcuni utenti dal sottostare alle politiche di moderazione, creando in tal modo un vero e proprio club “elitario”.

Metaverso: il rischio di preferire l’avatar al proprio corpo

Nel corso di un’intervista, la Haugen ha invitato a effettuare un esperimento mentale, evidenziando i potenziali effetti devastanti del Metaverso sulla salute psicologica degli utenti, effetti di cui l’azienda, stando al materiale trapelato, è ben consapevole: “Quando entri nel metaverso, il tuo avatar è un po’ più bello di te. Hai vestiti migliori di quelli che hai in realtà. L’appartamento è più elegante, più calmo. Ti togli le cuffie e vai a lavarti i denti a fine serata. E forse non ti piaci tanto allo specchio. (…) Sono preoccupata che le persone guardino il loro appartamento, che non è così bello, e guardino il loro viso o il loro corpo, che non è così bello, e dicano: ‘Preferirei avere il mio avatar’. E non ho sentito Facebook articolare alcun piano su cosa fare al riguardo”.

Secondo studi interni alla stessa Facebook, il 32% delle adolescenti hanno sperimentato problemi psicologici legati all’immagine del proprio corpo a causa dell’utilizzo di Instagram, come titola una slide del 2019; un utente su dieci, soprattutto adolescenti di entrambi i sessi e di tutte le etnie, riconducono a Instagram un aumento nei loro livelli di ansia e depressione, arrivando ad avere pensieri suicidi. Tuttavia, la circolazione di determinati contenuti alimenta l’engagement e dunque l’algoritmo, e ciò rappresenta un vantaggio per l’azienda, come evidenziato da uno scambio di messaggi interno tra dipendenti risalente al 2020, in cui veniva affermato che “le persone usano Instagram perché è una competizione, è quello il bello”.

La controcampagna mediatica: Project Amplify

A questa ennesima vicissitudine mediatica e legale, Facebook/Meta ha deciso di reagire attraverso una massiccia contro-campagna mediatica atta a migliorare l’immagine della compagnia, attraverso il programma denominato “Project Amplify”, che sfrutta il News Feed del social per diffondere attivamente storie ed articoli, a volte redatti dagli stessi uffici interni della società, con il proposito di veicolare contenuti positivi sulla compagnia, contando anche sul fatto che, come emerso da una recente analisi del Pew Research Center, negli Stati Uniti sette utenti su dieci (il 69% della popolazione) utilizzano Facebook quotidianamente; mentre secondo un sondaggio effettuato tra agosto e settembre 2020, circa un terzo degli adulti statunitensi (36%) afferma di utilizzare regolarmente la piattaforma social come fonte primaria di informazione. Sempre secondo uno studio condotto dal Pew Research Center tra settembre e ottobre 2018, il 74% degli utenti adulti di Facebook, negli Stati Uniti, non era a conoscenza del fatto che la piattaforma raccogliesse i loro dati a fini di retargeting pubblicitario.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4