Filter Bubble “sociale”: come riconoscerla e viverci felici e curiosi

Tutti temono la Filter Bubble sul web (e dunque anche sui social network). Io ho imparato ad amarla.

Certo, quando Eli Parisier teorizzò la Filter Bubble, anch’io ero lì ad applaudire [Eli Parisier, poi, ha tirato su Upworthy. Che gli vuoi dire? Tanto di cappello per il successo. Ma quello è davvero un prodotto editoriale di cui andar fieri? Soprattutto dopo che hai fatto una conferenza al Ted e scritto un libro che ha appassionato internauti d’ogni età – e ispirato anche qualche filone complottista, ovviamente?]

Carriera di Parisier a parte, ancora oggi penso che la personalizzazione dei risultati di un motore di ricerca monopolista come Google non sia necessariamente cosa buona e giusta e che sia, anzi, piuttosto pericoloso da un punto di vista di controllo dell’informazione. Soprattutto perché se hai l’illusione di trovarti di fronte alle possibilità di chiunque altro di accedere a qualsiasi tipo di informazione accessibile sul web, ti sbagli. Ma Google non te lo dice a monte, lo puoi scoprire – forse – dopo.

Per quanto riguarda i feed dei social network, però, ormai la vedo molto diversamente.

Sì, certo, siamo d’accordo: strutture come il feed di Facebook, con il suo algoritmo di visualizzazione dei contenuti, tendono a darti “quel che vuoi”, ad essere autoconfermative, a farti navigare in un social-universo fatto di persone che più o meno la pensano come te. Il tutto sulla base dei “like” che lasci, delle informazioni sul tuo conto che regali a Facebook(*). Delle interazioni che hai con gli altri.

Il tutto – va ammesso – è estremamente limitante e ti rende impermeabile a stimoli esterni, con l’illusione, invece, che tu sia del tutto permeabile e che in teoria qualsiasi tipo di informazione o osservazione ti possa raggiungere. Non solo. Fa parte anche di un sistema di “sorveglianza” panottica, molto ben sviscerata da Bauman.

Solo che non si critica il meccanismo nel senso di Bauman, quando si parla di Filter Bubble. Ora, siamo davvero proprio sicuri che sia desiderabile, ricevere stimoli altri quando non li si cerca? Mat Honan ha fatto un esperimento: per due giorni ha messo “like” a qualsiasi cosa Facebook gli mostrasse nel feed. I risultati potete leggerli da voi, il pezzo è interessante e l’esperimento pure. Le conclusioni non sono incoraggianti per i sostenitori del “voglio leggere tutto”

Il fatto è che Facebook è un’estensione elettronica e sul web delle nostre vite. E nelle nostre vite facciamo selezione all’ingresso, decidiamo con chi vogliamo avere a che fare. In altre parole, mettiamo dei filtri. E – nonostante la promessa quasi illimitata di Facebook – esiste un numero limitato e finito di persone con le quali, cognitivamente, l’essere umano è in grado di interagire e mantenere relazioni sociali stabili (cfr. Numero di Dunbar). La vita reale si porta appresso, per sua natura, una filter bubble

Personalmente, sono sicuro di una cosa: non voglio avere a che fare con chi sostiene il complotto delle scie chimiche; ho utilizzato le drammatiche vicende di Gaza per eliminare dal mio feed di Facebook persone che – secondo il mio metro di giudizio – non utilizzano il buon senso (indipendentemente dalla parte sostenuta) e che si limitano a comunicare e ragionare per slogan semplicistici: non voglio avere a che fare nemmeno con loro; non voglio avere a che fare con persone che sostengono i marò e sfottono le due volontarie rapite in Siria; non voglio avere a che fare con gente che maltratta gli animali, che picchia i bambini, che brucia i libri e via dicendo. Dopo anni di utilizzo di Facebook, so quasi sempre da quali persone mi arriveranno segnalazioni di notizie che mi interessano, che vorrò approfondire; di libri; di brani musicali. Potrei continuare, ma penso che il senso sia chiaro. E’ esattamente come nella vita “là fuori”, insomma.

Sto benissimo nella mia filter bubble sociale. E’ vero: Facebook la condiziona a modo suo. Google anche. Ma il punto di partenza imprescindibile è che lo so. E ho affinato, nel tempo, gli strumenti per andarmi a cercare sul web, se lo voglio – questa è la condizione necessaria – persone che la pensino diversamente da me su una qualsivoglia questione. O se voglio farmi un’idea di quali siano le parti in causa in un’altra, e di quali siano le loro posizioni. Risalire alle fonti è spesso più facile di quanto si pensi. Quando voglio uscire dalla bolla, attivo forme di navigazione anonima o vado a cercarmi proprio quelle fonti dirette, oppure inserisco all’interno delle mie preferenze una fonte nuova. Proprio in questo sta la componente chiave del ragionamento: la bolla filtrante funziona quando l’utente è in modalità passiva. Non può funzionare se è in modalità attiva.

A volte mi perdo qualcosa? Certo. Qualche stimolo, qualche interazione (comunque di quelle che non riuscirei a mantenere stabili). Di certo non perderò interazioni sociali che mi interessano davvero: a questo serve Facebook, non certo ad informarmi. La mia è una convinzione illusoria? Sinceramente non credo. So di che dimensioni è la mia bolla filtrante, la conosco, la riconosco e ci vivo felice. E non lascio in nessun modo che limiti la mia curiosità: so cosa mi interessa veramente, per fortuna. Senza bisogno dei suggerimenti di un algoritmo.

(*) Questo sì che è più preoccupante della bolla.

Filter Bubble

[Da leggere anche:
Don’t Bubble Us
The Filter Bubble
Sesto potere – La sorveglianza nella modernità liquida
Has Google Popped the Filter Bubble?
Upworthy’s Founder Talked At SXSW… And You’ll Never Guess What He Said
How to Burst the “Filter Bubble” that Protects Us from Opposing Views
Data Portraits: Connecting People of Opposing Views
The Dunbar Number, From the Guru of Social Networks
Facebook Is Making Us All Live Inside Emotional ‘Filter Bubbles’]

Una risposta

  1. […] che ho scritto sulla filter bubble sociale necessita di una postilla divisa in […]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.