Il primo, prossimo nuovo scandalo? Si rifà allo scoop di tre settimane fa di The Australian, con le 23 pagine di un documento privato, Confidential: Internal Only, e una notizia bomba: «Facebook trova i minori che si sentono insicuri e ne rivende i dati alle aziende per pubblicità». Ne parlai già qui, nonché nel mio quotidiano TG della #Digital #Education su Telegram. Facebook, tra 6,4 milioni di utenti australiani e neozelandesi, avrebbe targettizzato i ragazzini, minori, «depressi, stressati, ansiosi, nervosi, stupidi, destinati al fallimento», per rivenderne i dati alle aziende a scopi pubblicitari. Più facile vendere a chi è vulnerabile.
D’altronde, come si sa, «Se non paghi, sei tu il prodotto». Il prezzo del gratis – essere non il cliente, ma il venduto – da sempre regola del marketing, è oggi quanto mai valida per Facebook, la Rete, il Digitale. In altre parole, Facebook sa tutto di te. E vende i tuoi dati come e a chi vuole. Infischiandosene dell’etica: anche quando di mezzo ci sono i minori.
Ora, nella notte appena trascorsa, un’altra bomba. Facebook, già reduce da multe milionarie – € 110 milioni dalla UE, per false informazioni fornite sulla condivisione di dati con WhatsApp, 3 milioni dall’Antitrust, e ancora € 150mila dalla Francia, per l’impiego di dati a fini pubblicitari di utenti internet con o senza account – potrebbe presto riceverne un’altra.
In ballo, infatti, v’è un tracciamento di dati sensibili del valore di 400 miliardi di dollari.
I paladini della privacy, che hanno sottoscritto una lettera pubblica a Zuckerberg sulle implicazioni etiche del tracciamento dei minori, non hanno dubbi. «Benvenuti nella nuova era dei buchi della privacy di Facebook, dove la paura maggiore non è ciò che Facebook sa di te, ma se questa conoscenza può diventare un’arma di cui sei inconsapevole, e lo sarai per sempre».
Gli occhi sono puntati proprio sull’Europa, particolarmente attenta ai diritti degli utenti e al loro (mancato) rispetto da parte di Facebook e degli altri social: «Non starebbero prendendo abbastanza sul serio le critiche e gli appelli dei loro utenti», si scrive su Wired US. Per questa ragione «il Ministro della Giustizia tedesco, a marzo, ha proposto una legge per multare le social media companies fino a 50 milioni di euro, nel caso in cui non rispondano abbastanza velocemente alle segnalazioni di contenuti illegali o di hate speech».
Proprio su quest’ultimo punto arriva l’altra bufera: la seconda bomba, lanciata in queste ore da The Guardian. «Revealed», esordisce: «Ecco svelate le linee guida e le regole segrete interne dei moderatori di Facebook su contenuti sessuali, terroristici e violenti». Il panorama che ne emerge è inquietante.
Non ci credi? Guarda qui. Eccole le policy, le linee guida imposte da Facebook ai propri moderatori su quali contenuti permettere e quali cancellare, con tutto il dibattito facilmente immaginabile sull’etica di certi comportamenti e decisioni. The Guardian ne ha verificati oltre 100 tra manuali, documenti e grafici. E la notizia più vera, tanto comprensibile quanto drammatica, sta in questo: che tu puoi mettere quanta Intelligenza Artificiale ti pare dietro News Feed, andamenti di algoritmi, post, video e Facebook Live. Dietro, però, ci saranno sempre e solo uomini: con tutti i loro limiti, umani ed evidenti così come, però, dalle conseguenze potenzialmente esplosive.
Cosa mostrano, infatti, questi fantomatici Facebook Files? Soprattutto, le difficoltà contro cui ogni giorno semplici impiegati della casa madre si trovano a lottare per reagire a sfide sempre nuove come il revenge porn – sfide vere e proprie per i moderatori, che si dicono sovrastati dal volume di lavoro. «Abbiamo qualcosa come 10 secondi per prendere una decisione», rivela una fonte che vuole restare anonima. «Facebook non può mantenere il controllo dei propri contenuti. È cresciuta troppo e troppo velocemente».
Molti moderatori si sono detti inoltre preoccupati circa la natura davvero «peculiare» di alcune delle policy. Proprio quelle relative ai contenuti sessuali, ad esempio, vengono indicate come le più complesse e confuse.
Un assaggio?
- Frasi come «Qualcuno ha sparato a Trump» devono essere distrutte.
- I video di morti violente, pur flaggati come «disturbing», non devono necessariamente essere distrutti, poiché possono aiutare a creare consapevolezza circa problematiche quali le malattie mentali.
- Alcune foto di abusi fisici non sessuali e di bullismo verso i bambini non devono per forza essere distrutte, a meno che non vi siano elementi sadici o celebratori del gesto.
- Foto di abusi su animali possono essere condivisi;
- I video di aborti sono consentiti, purché non si mostrino nudità;
- Facebook permetterà alle persone di trasmettere in diretta atti di autolesionismo, poiché «non vuole agire come censore o infliggere ulteriori punizioni a chi già si trova in condizioni di difficoltà».
E potremmo continuare all’infinito. Non faremmo, però, che ripeterci. La confusione è evidente. Il libero arbitrio – senza regole però, ci sembra – regna sovrano.
La conclusione mi appare, ancora una volta, una sola: la sconfitta dei «social tools» (voluta, però, verrebbe ora da chiedersi?…), nella lotta contro le #FakeNews, la violenza in rete che è tutt’uno con quella della vita cosiddetta «reale», nella difesa della privacy dell’individuo.
Disputed News, Tag che flaggano e penalizzano news di scarsa qualità, Decaloghi e Guide, Consorzi in nome della News Integrity, Intelligenze Artificiali o mani umane annunciate pronte lì, con mille occhi, a intervenire: «Nulla di tutto questo servirà. Non funziona».
Ci vorrebbe forse un sano mix tra uomo e algoritmi. Anche se il problema è più ampio: «Internet si è rotto», ha detto ieri Evan Williams, fondatore di Twitter. Ricordando in ciò Tim Berners-Lee: «Io ho inventato il web. Ecco tre cose da fare subito se vogliamo salvarlo».