Questo sito utilizza cookie per raccogliere informazioni sull'utilizzo. Cliccando su questo banner o navigando il sito, acconsenti all'uso dei cookie. Leggi la nostra cookie policy.OK

Direttore responsabile Alessandro Longo

Social network

Vedere ciò che vogliamo vedere: le conseguenze della Filter Bubble

di Valentina Bernardinis, Nicola Strizzolo, Università di Udine

23 Ott 2015

23 ottobre 2015

Nel mondo di Facebook la “rilevanza” è l’unico criterio che determina quello che vedono gli utenti. Quali sono le conseguenze sulla società? Prima di tutto, all’interno della bolla siamo soli

“Uno scoiattolo che muore nel suo giardino può essere più rilevante di tutte le persone che muoiono in Africa”. Mark Zuckerberg, fondatore di Facebook

Nell’era dei media tradizionali l’attività di news making dei giornalisti contribuiva in maniera determinante alla costruzione della rappresentazione di realtà dei lettori: quello che entrava nell’agenda dei media faceva parte dei loro discorsi e delle loro scelte, altrimenti o non esisteva affatto o assumeva importanza sulla base del posizionamento e dello spazio dedicato dalle testate. Teoria dell’Agenda Setting, che veniva così sintetizzata: “i media non ti dicono cosa pensare, ma a cosa pensare”.

Nel mondo di Facebook, sul quale il 24 agosto di quest’anno si sono affacciati un miliardo di persone, invece la “rilevanza” è praticamente l’unico criterio che determina quello che vedono gli utenti. Concentrarsi sulle notizie più rilevanti sul piano personale, come lo scoiattolo che muore, è una grande strategia di mercato. Ma ci lascia vedere solo il nostro giardino e non le persone che altrove soffrono, muoiono o lottano per la libertà.

Questo il principio semplificato alla base dell’ampio ragionamento sviluppato nel testo “The Filter Bubble” di Eli Pariser, edito per il Saggiatore nel 2011.

“The Filter bubble” potrebbe essere tradotto in italiano con bolla dei filtri, ossia il personale bagaglio di informazioni all’interno del quale viviamo quando siamo online. È una bolla, spiega l’autore, perché è creata su misura, a seconda degli interessi, delle pagine che consultiamo, dei click che disseminiamo per la Rete. Più ci si muove, più il web diventa sempre più simile a noi. È un bolla perché è invisibile, nessuno sceglie di entrarci e molti non sanno di viverci dentro.

Eli Pariser durante una conferenza TED esemplifica il concetto raccontando la sua esperienza diretta: “Ho un orientamento politico liberale, ma ho anche tanti amici conservatori. Un giorno ho notato che nello stream di Facebook erano scomparsi tutti i link e gli update dei conservatori. Tra le notizie di mio interesse, almeno secondo Facebook, c’erano solo quelle postate dagli amici della mia stessa area politica”.

Una strana coincidenza che porta l’autore a fare un esperimento per toccare con mano il meccanismo alla base della filter bubble: “Ho chiesto a due amici di cercare su Google la parola Egitto e spedirmi lo screenshot. Il risultato? Link totalmente diversi”.

Ecco il risultato della personalizzazione del web. Google usa infatti 57 indicatori per stabilire chi siamo e prevedere quali siti potrebbero piacerci e il monitoraggio funziona anche quando non siamo loggati. In questo modo, quando facciamo una ricerca, ci compaiono i link che potrebbero interessarci di più. I motori di ricerca e i social network ci conoscono ormai sempre meglio. Grazie alle tracce che lasciamo in rete sanno cosa ci piace e selezionano i risultati, scegliendo solo i più adatti a noi.

E’ un bene ci vengano fornite solo informazioni che ci fa piacere leggere? Forse in questo modo la nostra visione del mondo rischia di distorcersi.

Il processo trova origine nel 2009 quando poche persone notarono il post apparso sul blog ufficiale di Google il 4 dicembre 2009. Non cercava di attirare l’attenzione, nessuna dichiarazione sconvolgente né annunci roboanti dalla Silicon valley, solo pochi paragrafi infilati tra la lista delle parole più cercate e un aggiornamento sul software finanziario di Google. Non tutti però la videro così, il blogger Danny Sullivan scrisse che si trattava del “più grande cambiamento mai avvenuto nei motori di ricerca”, bastava il titolo per capirlo: “Ricerche personalizzate per tutti”.

Il codice della nuova rete è piuttosto semplice. I filtri di nuova generazione guardano le cose che ci piacciono – basandosi su quello che abbiamo fatto o che piace alle persone simili a noi – e poi estrapolano le informazioni. Sono in grado di fare previsioni, di creare e raffinare continuamente una teoria su chi siamo, cosa faremo e cosa vorremo. Insieme, filtrano un universo di informazioni specifico per ciascuno di noi che altera il modo in cui entriamo in contatto con le idee e le informazioni. In un modo o nell’altro tutti abbiamo sempre scelto cose che ci interessano e ignorato quasi tutto il resto.

La personalizzazione quindi ha iniziato a fare da padrona senza nemmeno darci il tempo ed il modo di conoscerla, di renderci conto che entrava a far parte delle nostre vite e, fatto ancor più importante, che continuerà a portare cambiamento nelle nostre vite.

Molti son gli sviluppi previsti dalle grandi aziende americane ed è stata fra i tanti Sheryl Sandberg, direttrice operativa di Facebook, ad affermare che “nel giro di tre, al massimo cinque anni, l’idea di un sito non personalizzato sembrerà assurda”. Ovvero armatevi e partite. Entrati all’interno di una bolla che ci ha inghiotti a breve ci sentiremo addirittura straniti dal pensare di uscire dal ventre di questa balena.

Considerando la personalizzazione in maniera unilaterale, come un modo per vendere pubblicità mirata, non sarebbe poi tanto grave. Ma la personalizzazione non è solo questo, non condiziona solo quello che compriamo. Per una percentuale sempre maggiore di utenti, i siti di notizie personalizzate come Facebook stanno diventando fonti di informazione fondamentali: il 36% degli americani sotto i trent’anni legge le notizie sui social network.

E’ alla luce di tutto questo che di certo la bolla dei filtri, come si legge in un articolo pubblicato su Internazionale, introduce a nuove dinamiche.

Prima di tutto, al suo interno siamo soli. Un canale via cavo dedicato a chi ha un interesse specifico ha altri telespettatori che hanno qualcosa in comune tra loro. Nella bolla invece siamo soli. In un’epoca in cui le informazioni condivise sono alla base di esperienze condivise, la bolla dei filtri è una forza centrifuga che ci divide. In secondo luogo, la bolla è invisibile. La maggior parte delle persone che consultano fonti di notizie di destra o di sinistra sa che quelle informazioni si rivolgono a chi ha un particolare orientamento politico. Ma Google non è così trasparente. Non ci dice chi pensa che siamo o perché ci mostra i risultati che vediamo.

“Il codice è legge” come ha dichiarato il fondatore di Creative commons Larry Lessig, un  must assoluto. Ma se davvero è così, se la filter bubble ormai è una realtà, importante allora capire cosa cercheranno ancora di fare i nuovi legislatori e sapere in cosa credano i programmatori di Google e Facebook. Sulla chiarezza di posizione Zuckerberg non si nasconde, e non usa mezzi termini rispetto alla logica del digitale e alla sua portata dalla ricaduta costantemente positiva, la quale non viene mai messa in dubbio nonostante esistano alcune zone d’ombra, le sottolinea bene Fabio Chiusi in un recente articolo:

“Zuckerberg è talmente fedele al suo imperativo del tutti connessi da credere sul serio che se l’umanità intera, sette miliardi circa di persone, fosse connessa allo stesso sito e potesse comunicare col pensiero il mondo sarebbe sostanzialmente un luogo privo di problemi – o quantomeno, Facebook avrebbe fatto del bene all’umanità tutta, e la quantità di bene nel mondo sarebbe aumentata per il semplice fatto della connessione di tutti con tutti”.

Nella sostanza è necessario intendere dove voglia arrivare il digitale, con quali strumenti e quali siano forze economiche e sociali dietro alla personalizzazione ma soprattutto cosa significhi tutto questo per la politica, la cultura e per il nostro futuro.

La personalizzazione può produrre una sorta di determinismo dell’informazione” scrive Pariser. Prosegue estendendo la considerazione: “La democrazia dipende dalla capacità dei cittadini di confrontarsi con punti di vista diversi. Quando internet ci offre solo informazioni che riflettono le nostre opinioni limita questo confronto”.

Stiamo correndo un rischio ed è quindi necessaria una presa d’atto e di responsabilità da parte di tutti gli attori coinvolti. Da un lato le aziende che usano gli algoritmi devono lasciarci il controllo di quello che vediamo, dicendoci chiaramente quando stanno personalizzando e permettendoci di modificare i nostri filtri. Ma anche i cittadini devono fare la loro parte, imparare a conoscere i filtri per usarli bene e chiedere contenuti che allarghino gli orizzonti anche quando sono sgradevoli. È nel nostro interesse collettivo assicurarci che internet esprima tutto il suo potenziale di mezzo di connessione rivoluzionario  – come sostiene Zuckerberg – purché non ci chiuda solo nel nostro mondo online personalizzato: una spirale del silenzio ad personam.

La conseguenza sistemica dell’agenda setting è stata rappresentata dal concetto di spirale del silenzio: le persone si interessano a quello che va per la maggiore e i giornali riportano quello che interessa alla gente; la conseguenza è che argomenti di nicchia, controtendenza, scomodi spariscono in un universo discorsivo di piatta conformità. Nel caso di Facebook e Google la spirale del silenzio agirebbe, sospinta dagli algoritmi di rilevanza e ricerca personale, in direzione di solipsistiche spirali di autoreferenzialità auto confermante e rassicurante.

Citando Bohm, importante ricordare un principio cardine della comunicazione che indica il comunicare in primis come un mettere in comune, un condividere informazioni con un gruppo affinché si crei creare un significato comune. Solo insieme e posti a confronto si potrà costituire una società sana.

 

Fonti:

Eli Pariser “Il filtro” Il Saggiatore editore, Milano 2012

daily.wired.it/news/cultura/2011/08/05/the-filter-bubble.html

www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=it

www.raiscuola.rai.it/articoli/carola-frediani-giornalista/25631/default.aspx

archivio.internazionale.it/news/internet/2011/07/06/quello-che-internet-ci-nasconde-2

chiusinellarete.blogautore.repubblica.it/2015/09/16/il-futuro-secondo-zuckerberg-dislike/

McCombs, M; Shaw, D (1972). “The agenda-setting function of mass media”. Public Opinion Quarterly 36 (2)

Elisabeth Noelle-Neumann, La spirale del silenzio – Per una teoria dell’opinione pubblica. 2002 Meltemi Editore

  • Ersilio

    Ottimo articolo, però vista l’estrema importanza di queste cose, quando volgiamo cominciare a spiegarle a scuola ai nostri ragazzi?
    L’Agenda Digitale avrebbe le possibilità di agire in questo senso?

Articoli correlati