I Social delle Certezze

social network bias
Tempo di lettura 7 minuti

Capita a tutti, prima o poi: sul nostro social preferito leggiamo l’ultimo post della pagina di un quotidiano e ci imbattiamo in un commento offensivo, stupido, privo di logica.
Rispondiamo, ma sembrano tutte parole al vento: possibile che il nostro interlocutore non capisca che sta sbagliando? Possibile che non capisca che quanto scrive è offensivo?
Oh sì, è possibile. Vediamo perché.

Prendiamo una scorciatoia

Uno dei primi articoli qui su Sinapsyche, scritto dalla nostra Beatrice, parla di Euristiche. Un termine difficile per un meccanismo molto utilizzato, sia dai computer che da noi umani.
Il termine euristica deriva dal greco εὑρίσκω – eurisko: scopro, trovo. L’euristica è una scorciatoia di pensiero usata appunto per trovare una soluzione ad un problema, ad esempio farsi un’opinione su un determinato argomento, riducendo lo sforzo mentale ad esso dedicato. Banalmente, percuotere il telecomando della televisione quando non funziona più, o riavviare il computer quando inizia a fare i capricci sono euristiche: un tentativo di soluzione semplice e rapida ad un problema complesso. Vi sono svariati “meccanismi mentali” alla base di esse, tutti esposti chiaramente nell’articolo di cui sopra. Le euristiche sono necessarie alla nostra vita quotidiana, ci permettono di risparmiare tanto tempo e fatica.
Molto spesso i termini “euristica” e “bias” sono usati come sinonimi, ma non è esattamente così.
Le euristiche sono approssimazioni per natura: spesso funzionano, ma nel caso di argomenti particolarmente complessi perdono grandemente di accuratezza. In pratica, il nostro tentativo di trovare una soluzione rapida si trasforma in un errore. Un errore sistematico derivante dall’ uso “errato” di un’euristica è detto bias cognitivo.
Non tutti i bias cognitivi, tuttavia, derivano dall’uso di euristiche: molti di essi lo sono, ma per essere precisi un bias cognitivo è un errore sistematico derivante dai nostri limiti nel processare le informazioni [1].

bias cognitivi
Illustrazioni di Robin_Son(ia) (IG: @robin_son.ia)

Detto questo, prendete un mondo enormemente complesso, 8 miliardi di persone con opinioni differenti, e la tendenza a cercare soluzioni facili con capacità mentali limitate: ci sono tutti gli ingredienti per un disastro!

Ognuno nella sua bolla

Internet è un’invenzione meravigliosa, per tantissimi motivi. Ad esempio, sta mettendo in contatto un numero sempre maggiore di quegli 8 miliardi delle suddette persone, permettendo uno scambio di informazioni mai visto prima. I social network, invece, sono un po’ meno meravigliosi. E lo sono per un problema che non sembra un problema: provano sempre a proporci contenuti che ci piacciono. Questo include sì i nostri interessi, i gattini, i cuccioli di pastore tedesco, il design scandinavo. Ma non si fermano qui: cercano anche di profilarci per capire con quali contenuti andiamo d’accordo. 

Così, se ho espresso interesse e condivisione diffondendo ad esempio un video sui diritti LGBTQ+, il mio social preferito proverà a propormi altri contenuti simili. Se poi a questo aggiungiamo il fatto che avrò come “amici” o che “seguo” persone a me affini, con cui condivido tante opinioni, si crea un “effetto bolla” notevole che porterà a non dovermi confrontare con pensieri particolarmente discordanti dai miei. 

bolla di conferma
Illustrazioni di Robin_Son(ia) (IG: @robin_son.ia)

Questo concetto è stato ben delineato dall’autore e attivista Eli Parisier nel suo libro “The Filter Bubble: What the Internet Is Hiding from You” del 2011, dove vengono illustrati anche i pericoli derivanti da questa “iper-personalizzazione” dei contenuti. Gli effetti di questa bolla purtroppo oltrepassano la barriera del virtuale: diversi autori hanno associato questo effetto con il risultato delle elezioni presidenziali USA del 2016 [2]

Abbiamo ragione noi o hai torto tu?

Perché i social personalizzano così tanto i contenuti che vediamo? I motivi sono svariati: in primis una profilazione adeguata dell’utente consente di fornire pubblicità mirate che hanno ben più probabilità di essere convertite in azione rispetto a pubblicità casuali. Un esempio banalissimo? Non mi sono mai state proposte pubblicità di scarpe per giocare a calcio, in compenso ne ricevo molte riguardo le bacchette per la batteria. Oltre a queste finalità di marketing, però, i social cercano di rendere l’esperienza il più piacevole possibile: farsi venire il sangue acido nel leggere opinioni estremamente discordanti con i nostri valori non rientra nel concetto di piacevolezza, e quindi i social fanno di tutto affinché non accada.
Questo si basa su una tendenza psicologica estremamente diffusa chiamata “bias di conferma“: è la tendenza di cercare, e preferire, informazioni a sostegno delle nostre opinioni preesistenti [3].

È una tendenza che esiste dall’alba dei tempi: cerchiamo sempre di circondarci di persone con cui generalmente andiamo d’accordo. Di per sé non c’è niente di male. Perché, allora, è definito “bias”, tenuto conto che un bias è un errore per definizione?
Perché, a tutti gli effetti, lo è: il bias di conferma ci impedisce di analizzare correttamente le informazioni disponibili, dando più importanza alle fonti che ci danno ragione e svalutando (o addirittura ignorando!) quelle che mettono in dubbio le nostre convinzioni. 

Illustrazioni di Robin_Son(ia) (IG: @robin_son.ia)

Questo errore di ragionamento è basato sul tentativo di evitare un disagio mentale chiamato “dissonanza cognitiva[4]. Tale “dissonanza” nasce quando una nuova informazione si scontra con altre informazioni già acquisite, come ad esempio opinioni o ideali. Quanto più è importante per noi il concetto che si scontra con le nuove informazioni, tanto più la dissonanza cognitiva sarà intensa, e di conseguenza il disagio. È una vera e propria fonte di stress, e perciò noi umani facciamo quello che ci viene più naturale: cerchiamo di evitarla.

Esistono tanti meccanismi che ci permettono di evitare di confrontarci con informazioni che non ci piacciono, e uno di questi è proprio il bias di conferma. Il pensiero risultante è: “Quanto mi stai dicendo cozza con le mie credenze, perciò lo ignoro”. Il problema è che questo pensiero non è “conscio”, ma avviene in automatico, inconsapevolmente.

Un cocktail velenoso

Una bella combinazione di fattori in gioco: un social che mi propone informazioni con cui sono già d’accordo, che mi mette in contatto con persone che la pensano come me e che cerca di evitare che mi imbatta in pareri discordanti. È la ricetta perfetta per la polarizzazione di gruppo: giorno dopo giorno, sviluppo, insieme alle persone con cui sono in contatto, pensieri sempre più “estremi” rispetto ai pensieri “di partenza” delle singole persone. Tutto questo porta, inoltre, ad una facile divulgazione delle cosiddette fake news. Sono notizie totalmente false che, se diffuse nel giusto “giro”, non verranno contestate da nessuno, proprio perché perfettamente in linea con quelle specifiche opinioni. Così, in una “bolla razzista”, si potrà tranquillamente inventare di sana pianta e far circolare una notizia riguardo un immigrato clandestino stupratore, e quella notizia sarà condivisa da migliaia di persone che la prenderanno per vera prima che venga anche solo messa in dubbio. L’eventuale smentita della notizia falsa invece non verrà diffusa proprio perché non vi è interesse nel farlo.
In sostanza, in particolari community già fortemente polarizzate, non ha più importanza cosa sia vero e cosa no.

Suona familiare? “Teoria gender”, complottisti, no-vax, fino ad arrivare a gruppi palesemente estremisti, razzisti o sessisti. Giorno dopo giorno, le persone che la pensano diversamente diventano membri di una ipotetica squadra avversaria da affrontare, o veri e propri nemici da combattere, il male da sconfiggere per il bene collettivo. Se la pensano diversamente è perchè sono tutti stupidi, oppure venduti, servi del sistema o semplicemente in malafede. 

polarizzazione di gruppo
Illustrazioni di Robin_Son(ia) (IG: @robin_son.ia)

Serve prestare particolare attenzione perché nessuno di noi è immune alla bolla, non vale solo “per gli altri”. Ci siamo dentro, come tutti. Essere consapevoli di queste dinamiche è un primo passo, ma come tutte le cose complicate, richiede un notevole sforzo mentale. E, a volte, bisogna sforzarsi per due. Quando ci alteriamo di fronte allo schermo perché qualcuno ha scritto qualcosa che riteniamo stupido ed offensivo abbiamo tre possibilità: non fare nulla, rispondere aggressivamente oppure prendere del tempo per provare a stabilire un contatto con chi la pensa in maniera differente. Sebbene la tentazione sia quella di essere “diretti” e schietti, spesso questo atteggiamento non fa altro che peggiorare la polarizzazione. Provare a far cambiare idea ad una persona additandola come “stupida” in prima battuta non è un buon punto di partenza. E sebbene inizialmente possa essere nauseante, in realtà confrontarsi con teorie ed idee che ci sembrano becere ci permette di conoscere le motivazioni che vi sono alla base, più o meno valide, ma che se non altro ci permettono di ampliare la nostra visione del mondo. E magari quel passetto da parte nostra aiuterà a scalfire la parete di qualche bolla altrui.

Ovviamente, la responsabilità individuale aiuta, ma purtroppo non basta. I social network e i motori di ricerca hanno una notevole responsabilità a riguardo, e sta diventando sempre più evidente la necessità di prendere provvedimenti. Forse avere un mondo virtuale “costruito intorno a te” non è così bello come ci si aspettava. 

“ci ritiriamo dentro le nostre bolle, nei feed dei nostri social media, circondati da persone che ci assomigliano e con cui condividiamo le stesse idee politiche, senza mettere in discussione le nostre convinzioni […] e diventiamo sempre più sicuri dentro le nostre bolle, così da iniziare ad accettare solo le informazioni che, vere o meno, si adattano alle nostre opinioni, anziché basare le nostre opinioni sulla verità che c’è la fuori” 

Barack Obama – discorso di congedo del 10 Gennaio 2017

Federico Bedostri

Bibliografia

[1] Haselton, M. G., Nettle, D. e Andrews, P. W., The evolution of cognitive bias., In D. M. Buss (Ed.), The Handbook of Evolutionary Psychology, Hoboken, NJ, US: John Wiley & Sons Inc, 2005

[2] a) Drake Baer (9 Novembre 2016). “The ‘Filter Bubble’ Explains Why Trump Won and You Didn’t See It Coming”New York Magazine.
b) Casey Newton (16 Novembre 2016) “The author of The Filter Bubble on how fake news is eroding trust in journalism”The Verge

[3] Oswald, Margit E.; Grosjean, Stefan (2004), “Confirmation bias”, in Pohl, Rüdiger F. (ed.), Cognitive illusions: A handbook on fallacies and biases in thinking, judgement and memory, Hove, UK: Psychology Press,

[4] Festinger, L. (1962). “Cognitive dissonance”. Scientific American. 207 (4): 93–107.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *