I social non sono neutri: ecco quanto ci influenzano e come "sganciarci" | Agenda Digitale

l'analisi

I social non sono neutri: ecco quanto ci influenzano e come “sganciarci”

Molte delle piattaforme che usiamo abitualmente non mirano a offrire informazione di qualità, migliorare il nostro benessere o farci più intelligenti. Semmai, cercano di tenerci agganciati agli schermi con l’obiettivo di estrarre quanti più dati possibile. Ecco i loro trucchi

10 Giu 2020
Marco Fasoli

IUSS di Pavia


Durante ogni discussione sulla tecnologia che si rispetti, prima o poi, viene pronunciata. Mi riferisco alla seguente affermazione: “la tecnologia, di per sé, è neutra, dipende tutto da come viene usata”. Di solito, la formula sortisce un effetto rassicurante sui partecipanti, il ché forse rivela una sua specifica funzione psicologica. La tecnologia ha da sempre esercitato un fascino irresistibile ma anche un certo timore, motivo per cui l’idea che essa rappresenti un mero strumento che si piega al nostro volere e che non ci influenza in alcun modo è tutto sommato confortante.

Esistono diverse ragioni teoriche e filosofiche del perché l’affermazione in questione è fuorviante, in generale, ragioni che ho raccolto in un articolo a cui l’anno scorso è stato attribuito dall’Associazione Italiana di Scienze Cognitive (AISC) il Premio Girotto e che sarà pubblicato nella rivista Sistemi Intelligenti (trovate la versione provvisoria dell’articolo a questo link).

Qui vorrei riprendere sinteticamente alcuni di questi argomenti cercando di mostrare perché i social network sono “non-neutri”, in un momento storico in cui negli USA queste piattaforme digitali sono finite sotto i riflettori pubblici (tanto per cambiare), questa volta a causa delle scelte di censurare o meno alcuni contenuti riguardanti l’omicidio Floyd e ciò che ne è seguito.

I social non sono neutri

Negare la presunta neutralità delle tecnologie significa negare che esse non sono in grado di influenzare i nostri comportamenti e la nostra percezione del mondo, il che ha implicazioni pratiche ben precise: significa che dobbiamo iniziare a preoccuparci seriamente di come sono progettati gli algoritmi che li governano, chiedendo più trasparenza e una qualche forma di controllo a queste aziende. Ovviamente, con ciò non intendo sostenere che esse possono determinare i nostri comportamenti, ma bensì che possono influenzarli e orientarli in diversi modi.

In che senso i social non sono strumenti neutri e come essi ci influenzano? In primo luogo, usare qualsiasi tecnologia significa accettare che essa plasmi la nostra visione del mondo in base alla funzione che essa ci offre: “Se hai sempre un martello in mano, vedrai chiodi ovunque”. In questo senso, per esempio, usare i social significa accettare che la nostra concezione di termini come “condivisione”, “amicizia” e “apprezzamento” vengano influenzate dal significato particolare che è attribuito ad essi in queste piattaforme, così come significa sottoporre le nostre reti sociali a una quantificazione continua in cui ogni aspetto della nostra socialità ottiene sistematicamente un punteggio: numero di contatti, numero di visualizzazioni, numero di like, ecc.

Ma è la funzione particolare che i social rivestono nelle vite di molti di noi che rendono la questione della loro neutralità particolarmente critica. Essi costituiscono una sorta di finestra sul mondo, un filtro attraverso cui lo guardiamo, ci facciamo un’idea di cosa accade e di che cosa pensano le persone accanto a noi a riguardo. Tutto viene mescolato e tradotto in flusso di post, foto e informazioni che compaiono quando scorriamo la homepage. Tale flusso, tuttavia, può essere organizzato, costruito, in modi diversi, con differenti conseguenze. Ad esempio, esso può contenere la notizia di un pestaggio della polizia a danno di un afroamericano, può escluderla dai contenuti, o può farla apparire più volte nel corso delle nostre attività tra i contenuti più in evidenza.

Se credete che queste variabili non incidano un gran ché su aspetti come la memorizzazione di quell’evento, la rilevanza che ad esso attribuiamo (cioè su quanto ci sembrerà una notizia importante) o sulla percezione della dimensione del fenomeno del razzismo, più in generale, probabilmente avete un’idea totalmente sbagliata e irrealistica della mente umana e di quanto essa possa essere facilmente influenzata.

La randomizzazione delle ricompense

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal

Potrebbe consolarvi sapere che gli economisti classici hanno compiuto il medesimo errore per decine di anni, sviluppando teorie economiche pensate per esseri umani idealizzati, capaci di compiere sempre scelte ottimali e impermeabili a ciò che accade nel mondo. Purtroppo, queste teorie si sono rivelate errate quando applicate alle persone reali, le cui decisioni sono invece influenzate fortemente dal contesto e da un numero elevato di variabili. Se volete farvi un’idea più precisa di come agiscono le numerose distorsioni cognitive e di come l’essere umano possa essere “prevedibilmente irrazionale”, potreste leggere uno dei best seller sull’argomento, per esempio di uno dei due psicologi comportamentali che negli ultimi anni hanno vinto il Nobel per l’economia, cioè Daniel Kahneman e Richard Thaler (Pensieri lenti e pensieri veloci, oppure Nudge, la spinta gentile).

Ma torniamo ai social network. I più ottimisti obietteranno che le forme di influenza che subiamo da queste piattaforme non sono le prime né le ultime e che altri media hanno le stesse capacità. Per esempio, i telegiornali influiscono sulla nostra percezione del mondo selezionando solo una porzione minima di notizie tra quelle disponibili e decidendo arbitrariamente il loro ordine e la quantità di tempo da dedicare ad esse. Dopo tutto, anche se siamo suscettibili a questi fattori, perché dovremmo preoccuparci tanto delle tecnologie digitali e dei social network e non di ciò che avviene nei media tradizionali? In primis, perché le aziende che governano queste piattaforme non sono testate giornalistiche a cui interessa fornire un servizio di informazione di qualità, quanto piuttosto aziende impegnate a estrarre quanti più dati possibile dal nostro tempo speso online. In secondo luogo, nei social ogni flusso di informazioni è personalizzato – cioè ritagliato su misura per ogni utente – e viene creato dall’algoritmo ogni volta in cui lo consultiamo per poi scomparire senza lasciare traccia. Per questo motivo è molto difficile valutare che cosa è messo in evidenza, cosa compare più volte e cosa invece viene deliberatamente escluso, e ciò garantisce ai gestori del sito una enorme libertà senza alcun controllo.

Il fatto che i social network guadagnino vendendo i nostri dati, poi, negli ultimi anni ha influito in modo determinante su alcune scelte di design. D’altra parte, considerando che più tempo trascorriamo sui social maggiori sono i guadagni per i proprietari, non dovremmo stupirci se essi fanno di tutto per agganciarci allo schermo. Come? In alcuni casi, per esempio, decidendo di mescolare in modo aleatorio i contenuti delle nostre bacheche, in modo tale che sia più difficile prevedere quando e dove apparirà qualcosa di interessante. Se, inconsciamente, non sappiamo mai dove si trovano i contenuti che ci piacciono e quando essi possono apparire, apriremo la nostra homepage più spesso e scorreremo più a lungo la nostra bacheca. La “randomizzazione delle ricompense” è un meccanismo che fu studiato per la prima volta da Skinner su alcuni topi, che venivano addestrati a ricevere una piccola porzione di cibo quando premevano una leva, ad intervalli regolari. Se a questi topi gli intervalli tra una ricompensa e l’altra venivano modificati ogni volta in modo aleatorio, il loro comportamento diventava compulsivo e iniziavano a premere la leva centinaia di volte in pochi minuti. Nir Eyal, immaginando un utente di social immaginario di nome Barbara, descrive così gli effetti della randomizzazione dei contenuti sui nostri social:

«Quando Barbara approda su Pinterest, non vede solo l’immagine che stava cercando, ma anche una grande quantità di oggetti attraenti […]. L’affascinante giustapposizione di cose rilevanti e irrilevanti, stuzzicanti e banali, belle e ordinarie, mette in agitazione il sistema della dopamina nel suo cervello, con la promessa di una ricompensa. Ora Barbara passa più tempo su Pinterest, a caccia di un’altra cosa meravigliosa. Prima che se ne renda conto, sono già passati tre quarti d’ora». (Nir Eyal, Catturare i Clienti, p.13)

Parlare di neutralità di fronte a questi meccanismi, ovviamente, è abbastanza imbarazzante. Immaginando erroneamente di essere impermeabili alla tecnologia e a come essa è progettata e trascurando il potere che queste aziende hanno oggi, tuttavia, lasciamo che esse impieghino le scienze comportamentali per costruire prodotti commerciali perfetti, senza preoccuparci minimamente del modo in cui esse plasmano la realtà e ce la restituiscono attraverso i nostri schermi. La combinazione tra l’enorme disponibilità di dati personali (raccolti e memorizzati), la possibilità di personalizzare sistematicamente le bacheche attraverso gli algoritmi e l’impossibilità di tenere traccia dei newsfeed e di come essi sono costruiti, garantisce a queste piattaforme un potere di influenza su di noi che nessuno e niente altro, nella storia dell’umanità, ha probabilmente mai avuto.

Nel momento in cui invece riconosciamo che siamo vulnerabili alla tecnologia dovremmo preoccuparci soprattutto dei meccanismi di sfruttamento dell’attenzione che si realizzano online. In un certo senso, come ricorda spesso il filosofo olandese Verbeek, “noi siamo le tecnologie che usiamo”, e molte delle piattaforme digitali che usiamo attualmente non mirano a garantirci un’informazione di qualità, migliorare il nostro benessere o renderci più intelligenti. Piuttosto, tali piattaforme cercano di tenerci agganciati agli schermi con il solo obiettivo di estrarre quanti più dati possibile. Sta a noi trovare il modo di spingere queste aziende a costruire piattaforme che hanno obiettivi diversi, come il nostro benessere e la buona informazione, chiedendo più trasparenza nel modo in cui i nostri dati sono utilizzati e nei principi di base che governano gli algoritmi con cui, ogni giorno, ci troviamo a confrontarci.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4