Quando è stata l’ultima volta che hai visto un contenuto sui social che ti ha davvero contrariato?
Quel contenuto che ti ha fatto dire: “Che fastidio, lo salto”.
Probabilmente non succede spesso. La nostra For You Page, come suggerisce il nome, è studiata per mostrare contenuti pensati per noi, quelli che ci trattengono sul feed più a lungo possibile.
Quando incontriamo qualcosa che percepiamo come “sbagliato”, distante o irritante, la sensazione è quasi di disorientamento. Nei commenti compaiono frasi come “Ops, sono nella parte sbagliata di TikTok”, come se l’algoritmo avesse commesso un errore di valutazione.
Ci sentiamo traditi: “Perché mi propone questo contenuto?”.
Improvvisamente ci troviamo davanti a qualcosa che non rispecchia la nostra visione del mondo.
Le filter bubbles: un mondo su misura per te.
Oggi pensiamo di essere esposti a un flusso informativo infinito. Possiamo trovare qualsiasi informazione, sempre e ovunque. Paradossalmente, questa abbondanza ci rende spesso passivi sui social, seguendo ciò che ci viene proposto senza cercare attivamente punti di vista diversi.
Si sa, l’algoritmo profila le nostre preferenze: osserva i like, ciò che salviamo, quanto tempo restiamo su un video. Poi, seleziona ciò che più ci piace ed esclude quello che ci annoia o è in disaccordo con i nostri valori.
Ci troviamo nelle cosiddette filter bubbles: bolle costruite intorno ai nostri comportamenti online. In questi ambienti, non incontriamo contenuti necessariamente veri o utili, ma semplicemente affini a noi.
Il bias della conferma: perché siamo comodi nelle filter bubbles.
Quando parliamo di algoritmi che scelgono per noi, immaginiamo un io passivo che subisce una selezione automatica. Ci dimentichiamo che siamo noi a istruirlo.
Dovremmo quindi chiederci: voglio uscire dalle filter bubbles?
Siamo esseri umani e, per natura, siamo pigri. Tendiamo a preferire ciò che è più facile per noi.
E qui entra in gioco la psicologia.
Secondo Daniel Kahneman, l’essere umano utilizza due sistemi per pensare:
- Sistema 1: veloce, intuitivo, automatico. È quello che ci permette di prendere decisioni rapide senza troppo sforzo.
- Sistema 2: lento, riflessivo, analitico. Richiede energia, attenzione e ragionamento, ed entra in gioco quando dobbiamo valutare con più profondità una scelta o un’informazione.
Il Sistema 1, proprio perché progettato per essere rapido, si affida spesso a scorciatoie mentali. Queste, sono utili nella vita quotidiana ma non sempre seguono un ragionamento logico. Proprio per questo possono portarci a errori sistematici di valutazione: i cosiddetti bias cognitivi.
Uno dei bias più influenti è il bias di conferma.
Come funziona il bias di conferma.
Quando riceviamo un’informazione non la valutiamo sempre in modo neutrale, ma diamo automaticamente più peso a tutto ciò che rafforza le nostre convinzioni.
Il cervello ama risparmiare energia: confermare ciò che conosciamo è più semplice che mettersi in discussione.
L’algoritmo osserva questo comportamento innato e lo amplifica, creando un loop perfetto che alimenta le nostre filter bubbles.
Non è solo il sistema: siamo noi a nutrirlo.
L’esempio più lampante per capire questo meccanismo è notare i contenuti che vediamo sul nostro feed, soprattutto quelli che riguardano temi divisivi: politica, migrazioni, clima, salute, genere.
L’algoritmo non mira a farci riflettere, privilegia contenuti che confermano i nostri ideali, facendoci credere che “tutti la pensino come noi”.
Il risultato è un mondo in cui ogni persona crede di essere nel giusto e che preferisce evitare il confronto.
Il lato oscuro del voler sempre avere ragione.
Rimanere in ecosistemi chiusi polarizza le nostre convinzioni e indebolisce il pensiero critico, trasformando le idee in un’eco che si ripete all’infinito.
Le incomprensioni aumentano, i problemi complessi vengono ridotti a slogan e i luoghi comuni si rafforzano perché non incontrano mai un vero contraddittorio.
In altre parole, siamo sempre più convinti delle nostre opinioni, ma in realtà conosciamo solo una parte della realtà: quella che scegliamo di vedere.
Come uscire dalla bolla: qualche esercizio pratico.
Ti ricordi a scuola, quando dovevi scrivere un testo argomentativo?
L’obiettivo era trovare una tesi e un’antitesi. Era uno sforzo contraddirsi ma serviva ad allenare la mente a considerare punti di vista diversi. Questo principio vale ancora oggi.
Qualche esercizio per uscire dalle filter bubbles:
- segui attivamente fonti opposte o complementari;
- commenta, salva e cerca contenuti che escono dalla tua comfort zone;
- accetta il fastidio come segnale positivo: questa sensazione ci ricorda che la nostra prospettiva non è l’unica valida e che forse c’è altro da esplorare.
La diversità informativa non arriva da sola: richiede un’intenzione che inizia con la ricerca attiva.
Un invito a fermarsi.
La prossima volta che vedi qualcosa che non ti piace, non saltarlo subito.
Fermati, prova a osservare quel punto di vista diverso e chiediti se c’è qualcosa da cui puoi imparare, nel bene o nel male.
Non è comodo, ma affrontare il disagio di un’opinione diversa è forse l’unico modo che abbiamo per vedere davvero oltre noi stessi.