Problemi a moderare per Facebook, la mole di lavoro del resto è impressionante, gli oltre 2 miliardi di utenti sono spesso ingestibili e se non arriva l’aiuto deciso da parte degli altri utenti nel segnalare determinati contenuti non appropriati, allora per il social network diventa davvero durissima. Vediamo cosa è successo.

Moderatori floppano, Facebook si scusa

La piattaforma ProPubblica, che spesso si occupa delle falle di Facebook, ha scovato un’ulteriore problema nel sistema di revisione del social network. La nota organizzazione no-profit americana ha inviato a Facebook un campione di 49 articoli contenenti termini violenti su cui il social network non avrebbe effettuato una corretta revisione.

Facebook, infatti, ha dovuto ammettere che i suoi revisori hanno commesso errori in ben 22 casi.

Facebook ha difeso 19 delle sue decisioni.In sei casi, Facebook ha incolpato gli utenti per non aver segnalato i post in modo corretto, e in due episodi aggiuntivi ha detto che non ha avuto abbastanza informazioni per rispondere adeguatamente. Scuse dunque parziali per il noto social network, come a dire: sì abbiamo fatto un errore, ma non ci avete aiutato abbastanza, e inoltre si tratta di un errore molto ridotto.

Ad ogni modo, le pubbliche scuse ci sono state e come da parte del VP Justin Osofsky, il quale ha aggiunto che nel 2018 ci saranno altri 20 mila nuovi revisori che si aggiungeranno al folto team che già da oggi, ogni settimana, è capace di rimuovere dalla piattaforma ben 66 mila messaggi di odio non approvati dalla politica del social network.

Leggi anche: WhatsApp rischia grosso, il problema privacy si fa sempre più grande