Fake news, la guerra di Facebook

pandemia

Uno dei nostri principali obiettivi per il 2018 è assicurarci che il tempo che trascorriamo su Facebook sia tempo ben speso”. Così Mark Zuckerberg annunciava l'introduzione del nuovo algoritmo che servirà a contrastare le temute fake news. Il news feed subirà un cambiamento: più spazio ai contenuti condivisi dai profili dei nostri amici, meno a quello delle pagine pubbliche. Il meccanismo attuale, nel determinare a cosa dare la precedenza nella home, si basa sull'interazione degli utenti con un determinato post: più commenti e reazioni ottiene, maggiori sono le possibilità che questo compaia nel nostro news feed. Il nuovo algoritmo, invece, darà la priorità a tutti quei post in grado di generare un dibattito tra gli utenti che lo commentano e/o condividono. L'aggiornamento, in base ai precedenti “Mi Piace” e “Like”, prevederà quali sono i post su cui ciascun profilo vorrebbe interagire, mostrandolo più in alto nel feed. Facilmente, dunque, troveremo amici che chiedono suggerimenti o consigli per un acquisto o per un viaggio. 

Abbiamo creato Facebook per aiutare le persone a rimanere in contatto tra di loro“, aggiunge Zuckerberg motivando così la scelta: “Abbiamo sempre messo gli amici e la famiglia al centro. Alcune ricerche dimostrano che il rafforzamento delle relazioni migliora la nostra felicità. Ma recentemente abbiamo ricevuto dalla nostra community delle lamentele sul fatto che i contenuti dei media e dei marchi stavano rimpiazzando i momenti personali, quelli che ci portano a rimanere in contatto con gli altri. È tempo di spostare il feed delle notizie verso la cosa più importante che Facebook può fare: aiutarci a connetterci l'uno con l'altro”.

Questo aggiornamento, che in realtà è un ritorno alle origini (inizialmente Facebook privilegiava i contenuti degli amici) è il frutto di una serie di studi compiuti dai manager del colosso statunitense. Il Ceo di Facebook su questo è chiaro: “Vogliamo assicurarci che i nostri prodotti non siano solo divertenti, ma che siano utili alla gente“, e per farlo è necessario “ri-orientare il sistema“. 

E gli utenti saranno parte attiva di questa “rivoluzione”. Come? Attraverso il fact checking. In Italia questo sistema, già presente da diverso tempo, ora, a ridosso delle elezioni politiche di marzo, sarà gestito in collaborazione con Pagella Politica che rivedrà e valuterà l'accuratezza delle notizie presenti su Facebook. Se una di esse sarà giudicata come falsa, il social mostrerà l’analisi scritta dal fact-checker, e il link in questione potrà comparire più in basso nel news feed. Non solo: gli account riceveranno una notifica nel caso in cui una delle notizie risultasse una bufala. Facebook incoraggerà così gli utenti a segnalare, direttamente attraverso la piattaforma, le notizie sospette. 

Il nuovo algoritmo aveva inizialmente destato la perplessità dei media online che utilizzano Facebook per diffondere più rapidamente le notizie e per avere un maggior numero di visualizzazioni, tanto che qualcuno ha ipotizzato la creazione di due news feed separate: una principale, sulla quale comparirebbero solo i post degli amici e i link sponsorizzati; e l'altra che fungerebbe come un grande contenitore destinato a raccogliere il materiale delle pagine. Quest'ultima sezione, ribattezzata “Esplora”, ovviamente, sarebbe molto meno immediata e accessibile. Un'idea che Zuckerberg sta già sperimentando in sei Paesi: Sri Lanka, Guatemala, Bolivia, Cambogia, Serbia e Slovacchia. C'è da domandarsi perché siano state scelte proprio queste nazioni: i media e l'editoria indipendenti che vivono online, in questi anni, sono riusciti a pubblicare e diffondere le proprie notizie proprio grazie a Facebook, attraverso il quale hanno raggiunto centinaia di persone. Ciò che viene contestato al social statunitense è l'impatto che a lungo termine uno sdoppiamento delle bacheche potrebbe avere sulla democrazia. Dina Fernandez, giornalista e membro del team editoriale di un sito di emergente di news del Guatemala (Soy502), in un'intervista rilasciata al Guardian afferma: “Sono preoccupata per l'impatto che Facebook può avere sulla democrazia. Una sola compagnia che ha un gigantesco controllo sul flusso di informazioni in tutto il mondo. Solo questo può bastare per spaventarci. È qualcosa di assolutamente orwelliano“. Dati alla mano, dall'inizio del test (avviato il 19 ottobre 2017) gli accessi alle pagine dei media locali sono letteralmente crollati. “Lo strumento 'Esplora' di Facebook ci ha tolto il 66% del traffico – aggiunge Fernandez -. L'ha distrutto, anni di duro lavoro sono volati via così. È stata una catastrofe e sono davvero preoccupata”. Filip Struhárik, giornalista slovacco, interpellato dal Guardian, evidenzia i rischi che corrono, non solo i piccoli giornali o le pubblicazioni di editori modesti, ma anche le iniziative dei cittadini: “Queste realtà 'di margine' non riescono a pagare il social network per una distribuzione maggiore o per 'pompare' dei post. Non hanno le infrastrutture giuste per raggiungere gli utenti”. E se consideriamo che la sezione Esplora è piena di foto, video e memes prodotti dalle fan page, la visibilità delle news è davvero poca. 

C'è anche un altro aspetto da tenere in considerazione: la comunicazione, in quanto tale, tra i vari utenti. Dietro gli account (quasi tutti) c'è una persona reale che ha una determinata idea (sulla politica, la società, la religione, la musica, ecc) che si rispecchia nel suo profilo Facebook. Le pagine a cui si “mette il like”, la condivisione dei post e i commenti rispecchiano queste idee. Dare meno visibilità alle pagine d'informazione significa limitare il dibattito. Così facendo, invece di mettere in discussione il nostro pensiero, di insinuare quel dubbio che fa riflettere e crescere, continueremo a rafforzarlo. Cresceremo dentro mura di vetro dalle quali potremmo osservare quello che succede nel resto del mondo, ma in maniera sfocata. E se in futuro la realtà sarà così palese da confutare le nostre convinzioni (o un giudizio), saremo talmente sicuri di esse da diventare (estremizzando, ovviamente) haters a nostra volta. Una rielaborazione in salsa moderna del mito della caverna di Platone.

Non dobbiamo però perdere di vista il motivo per cui è stato aggiornato l'algoritmo, ovvero contrastare le fake news. E anche il fact checking pone una questione cruciale: l'utente medio sarà in grado di stabilire se una notizia è vera o falsa? Probabilmente no, e quella intrapresa da Facebook si rivelerebbe solo una battaglia persa in partenza.