Durante la mia esperienza, ho avuto il privilegio di osservare da vicino l'impatto che la Croce Rossa ha nella vita delle persone, ma oggi voglio focalizzarmi su un altro tema cruciale: la manipolazione della percezione della realtà attraverso gli algoritmi e i bias cognitivi. Nel mondo digitale, le persone sono spesso viste come "algoritmi biologici" che elaborano informazioni per formare la loro visione del mondo. Tuttavia, questi algoritmi umani sono soggetti a errori, noti come bias cognitivi, che distorcono la nostra capacità di analizzare i dati in modo obiettivo.
Uno dei bias più comuni è l'effetto carrozzone, dove le persone tendono a credere a qualcosa solo perché molti altri lo fanno. Questo è pericolosamente amplificato dai social media, dove un algoritmo può facilmente manipolare l'opinione pubblica presentando informazioni che confermano le convinzioni preesistenti degli utenti. In Italia, ad esempio, il 95% delle persone usa internet quotidianamente per formare la propria opinione sulla realtà, ma l'82% ammette di non essere in grado di distinguere una notizia vera da una falsa.
Viviamo in un mondo di "filter bubble", dove le notizie che ci vengono presentate sono selezionate per mantenere la nostra attenzione, piuttosto che per informarci in modo equilibrato. Questo porta a una polarizzazione crescente, dove le opinioni estreme diventano sempre più radicate. La chiave per affrontare questo problema è la comunicazione, non attraverso il conflitto, ma raccontando storie vere e coordinate che possano penetrare queste bolle di disinformazione.
La mia proposta è di evitare il confronto diretto con opinioni opposte, che spesso innesca un effetto fiammata, e invece concentrarsi su una narrazione continua e coerente. Ogni individuo, con la sua presenza online, diventa un comunicatore e parte di un megafono collettivo che può sfidare la disinformazione aggiungendo una goccia di verità alla volta. Joseph Goebbels, un noto propagandista, sosteneva che una menzogna ripetuta all'infinito diventa verità; il nostro compito è fare lo stesso con la verità, ripetendola fino a quando non torni ad essere riconosciuta come tale.

In questa Puntata
L'episodio esplora l'influenza degli algoritmi e dei bias cognitivi sulla percezione della realtà, evidenziando come le persone siano manipolate dai social media attraverso contenuti personalizzati che rafforzano le loro convinzioni esistenti. Analizza il fenomeno delle "filter bubble" e delle "camere dell'eco", che polarizzano ulteriormente le opinioni pubbliche, e propone strategie di comunicazione per promuovere una narrazione più equilibrata e informata.