pointerIl problema di Facebook con le notizie

Si discute molto in questi giorni della sezione trending topics di Facebook, che a differenza del news feed — nel quale la priorità di una notizia rispetto a un’altra viene determinata da un algoritmo — ha delle persone dietro che scelgono a quali notizie dare rilevanza. Pare, stando alle dichiarazioni di uno dei giornalisti che lavora a Facebook, che il social network abbia optato più volte per censurare una notizia a supporto del partito conservatore in favore del partito democratico.

In realtà, trending topics è una sezione piccola di Facebook che vive nella sidebar del sito. Facebook può sì influenzare i suoi utenti scegliendo a quali notizie dare risalto, ma che sicuramente ha più impatto sulle loro idee e scelte politiche è il news feed — e il news feed ahimè ha un problema ben più grosso: ci mostra solo quello che ci dà ragione, contribuendo a una polarizzazione generale delle nostre opinioni. È editoriale ma meno esplicitamente: non ha un gruppo di persone dietro che ne curano il contenuto — come trending topics —, ma ha un algoritmo basato comunque su un principio: suggerirci cose che ci piacciono.

Come scrive Ben Thompson, è il news feed che rischia di fare un danno maggiore alla società:

This, then, is the deep irony of this controversy: Facebook is receiving a huge amount of criticism for allegedly biasing the news via the empowerment of a team of human curators to make editorial decisions, as opposed to relying on what was previously thought to be an algorithm; it is an algorithm, though — the algorithm that powers the News Feed, with the goal of driving engagement — that is arguably doing more damage to our politics than the most biased human editor ever could. The fact of the matter is that, on the part of Facebook people actually see — the News Feed, not Trending News — conservatives see conservative stories, and liberals see liberal ones; the middle of the road is as hard to find as a viable business model for journalism (these things are not disconnected).

La verità è che il problema risiede nella premessa di Facebook di essere neutrale: né l’algoritmo che determina cosa mostrarci nel news feed, né la sezione curata manualmente da un gruppo di giornalisti, lo sono. Entrambi sono editoriali — ed è il news feed, l’idea che solo quello che ci piace ed è in sintonia con le nostre opinioni debba interessarci — che dovrebbe preoccuparci maggiormente.