La presunta influenza che Facebook esercita sulle notizie che ogni giorno vengono veicolate attraverso la sezione ‘Trending News’ del social network (disponibile al momento solo per la versione in lingua inglese) continua a far discutere.
Secondo quanto rivelato la scorsa settimana da alcuni ex ‘news curator’ al sito Gizmodo non sarebbe infatti un algoritmo a decidere quali news debbano comparire nella sezione notizie popolari di Facebook, ma una vera e propria redazione che riflette le scelte (o le imposizioni) della società.
Il Guardian intanto ha rincarato la dose, pubblicando il resoconto delle linee guida interne del social network definito il “maggiore distributore di notizie sul pianeta”. I documenti proverebbero come Facebook affidi a un piccolo team editoriale tutte le scelte relative alle notizie da ‘iniettare’ nelle trending news.
La società ha prontamente negato queste indiscrezioni e lo stesso Mark Zuckerberg ha scritto un post sulla vicenda spiegando che “non ci sono prove della veridicità” di queste affermazioni e che nei prossimi giorni inviterà i conservatori e i rappresentati di tutte le parti politiche a discutere della faccenda e a condividere i punti di vista.
Sarebbero stati proprio i contenuti inerenti i conservatori a essere ‘banditi’ dalle trending news. Altri sarebbero stati invece piazzati artificiosamente in cima alla classifica.
La vicenda si è gonfiata fino a richiedere l’intervento della Commissione Commercio del Senato, responsabile per le questioni relative ai media e alla protezione dei consumatori, che ha inviato una lettera a Zuckerberg per chiedere delucidazioni sulla vicenda delle presunte manipolazioni.
Il punto è che Facebook ha sempre negato di essere un organo di stampa, ribadendo di essere solo un servizio social che usa un algoritmo per mostrare ai suoi utenti ‘quello che vogliono vedere’ sulla base della loro navigazione o degli “argomenti e gli hashtag che di recente sono stati più popolari su Facebook”, senza, quindi, operare scelte editoriali di alcun tipo.
Certo è, come sottolinea ad esempio Matthew Ingram su Fortune, che “gli algoritmi sono programmati da essere umani e in questo processo vengono prese milioni di decisioni che sono giornalistiche, inclusa quella di come classificare le diverse fonti e quali notizie escludere”.
I risultati di questo processo hanno impatto sulla visione del mondo di miliardi di persone (solo gli utenti Facebook sono oltre un miliardo e mezzo, ma non è solo Facebook il problema).
Certo, che internet non fosse più quel posto libero e di esercizio pratico di democrazia come si presentava ai suoi albori è ormai chiaro da un po’. Nel suo libro ‘The Filter Bubble’, pubblicato nel 2012, Eli Parisier lancia l’allarme su come gli algoritmi che regolano le nostre esperienze quotidiane di navigazione riescono a fare previsioni su chi siamo, cosa faremo e cosa vorremo, costringendoci, quindi, a un cammino in cui ci autoconvinciamo di non aver bisogno di niente che non ci venga già dato.
Spiega Pariser: se il filtro forza i nostri schemi, viene compromesso ogni processo cognitivo perché ci costringe alle informazioni che gli algoritmi (sulla base dei profili che essi hanno tracciato di noi) associano alla nostra idea del mondo e ci nasconde quelle con una visione del mondo diversa dalla nostra. In questo modo non siamo più nelle condizioni di vedere che qualcosa ci viene nascosto e, quindi, non siamo più in grado di avere curiosità. Il nostro processo cognitivo viene così viziato e, di conseguenza, viene compromessa la nostra creatività. Pensiamo a Google: “E’ perfetto per aiutarci a trovare quello che sappiamo già di volere, ma non a trovare quello che non sappiamo di volere. La bolla dei filtri ci taglia tutto ciò che non sappiamo di volere. Ed è invece su ciò che non sappiamo di volere che si basa la creatività e l’innovazione.”
In questo contesto ‘social’ di costante profilazione e ‘personalizzazione’ in cui quasi tutti ci siamo ormai rinchiusi, ci viene insomma mostrato solo quello che già conosciamo o quello che secondo l’algoritmo ‘vogliamo sapere’. Viene così meno quel processo di contaminazione, di ‘contagio’ culturale per cui il web sembrava essere nato e che avverrebbe se le nostre scelte fossero veramente personali o consapevoli.
Se il risultato di tutto questo bailamme sulle Trending News fosse quello di farcene rendere conto, sarebbe già un effetto positivo.