Il social network interviene solo se riceve cinque 'bombardamenti' di richieste di sospensione oppure il 30% dei contenuti violano gli standard di comunità
Facebook rimuove una pagina o un gruppo se riceve 5 “bombardamenti” di richieste di sospensione in 90 giorni, o se almeno il 30% dei contenuti postati violano gli standard della comunità. Le ’soglie’ di tolleranza, su cui ufficialmente l’azienda ha sempre mantenuto il riserbo, sono state rivelate dal sito Motherboard, che afferma di aver ottenuto un documento riservato della compagnia.
Norme simili, afferma sempre il sito, esistono anche per l’’hate speech’, con un profilo che dovrebbe essere sospeso se ci sono cinque o più contenuti che indichino una ’propaganda all’odio’. "Anche se i documenti che abbiamo ottenuto sono recenti – precisa Motherboard – le policy di Facebook cambiano continuamente, quindi non è chiaro se questi parametri precisi siano ancora validi. Per YouTube, ad esempio, bastano tre ’bombardamenti’".
Il tema di come Facebook decida di ’bannare’ pagine e utenti è molto discusso, e periodicamente fonte di polemiche per contenuti lasciati online e altri incomprensibilmente censurati. È nuovamente emerso dopo le ultime dichiarazioni, poi parzialmente corrette, di Mark Zuckerberg, che ha spiegato come la politica di Facebook non preveda l’espulsione di nessuno a prescindere, nemmeno se nega l’Olocausto.
Un servizio in incognito del canale televisivo Channel 4, riporta il Mirror, è riuscito a filmare una sessione di training di un addetto alla ’censura’, rivelando che ai moderatori è richiesta la massima segretezza sui criteri adottati, ma anche che una delle indicazioni è ’non rimuovere troppi contenuti’ per evitare che gli utenti abbandonino la piattaforma.