Tecnologia

Facebook elimina 1,9 milioni di contenuti terroristici

Nell'ultimo trimestre del 2017 i messaggi legati all'Isis sono aumentati del 73%: 'Merito del miglioramento della nostra tecnologia'

Ti-Press
15 maggio 2018
|

Nel primo trimestre 2018 su Facebook sono stati rimossi 1,9 milioni di contenuti legati alla propaganda terroristica dell’Isis e gruppi affiliati, nonché 583 milioni di profili falsi e 837 milioni di contenuti indesiderati (spam, ndr.).

I messaggi legati al terrorismo sono aumentati del 73% rispetto a 1,1 milioni dell’ultimo trimestre 2017. La crescita è dovuta – spiega la piattaforma in una conferenza stampa telefonica – "al miglioramento della tecnologia nel trovare contenuti che violano i nostri standard anche nelle foto e in quelli riferiti al passato". Il Rapporto sull’applicazione degli standard della Comunità, spiega Facebook, "è solo il primo passo per far comprendere alla nostra comunità come mettiamo in pratica i nostri standard per mantenere la piattaforma sicura e al contempo aperta. I parametri non sono perfetti e abbiamo molto lavoro da fare per migliorare i nostri processi interni e perfezionare i nostri strumenti e la nostra tecnologia. Uno dei motivi per cui vogliamo condividere pubblicamente il rapporto è iniziare un dialogo con la nostra comunità su Facebook".

La società ha confermato la volontà di portare a 20 mila il numero di revisori umani e ingegneri che affiancano l’Intelligenza Artificiale per scovare questi contenuti. "Abbiamo rimosso o etichettato come potenzialmente pericolosi circa tre milioni e mezzo di contenuti violenti nei primi tre mesi del 2018, l’86% dei quali identificati dalla nostra tecnologia prima che venissero segnalati. Abbiamo inoltre rimosso due milioni e mezzo di contenuti che incitavano all’odio, il 38% dei quali sono stati rilevati direttamente dalla nostra tecnologia", ha spiegato in una videoconferenza Alex Schultz, vice presidente Facebook Analytics.

"Per argomenti delicati come la violenza esplicita e l’incitamento all’odio – ha aggiunto – la nostra tecnologia ancora non riesce a funzionare in maniera del tutto efficace ed è necessario l’intervento dei nostri team di revisione". Schultz ha poi sottolineato che il parametro più importante che viene tenuto in considerazione per la compilazione di questo Rapporto è l’impatto di ogni contenuto grave su Facebook. "Misuriamo – ha sottolineato – sia la frequenza con cui viene visto sia l’impatto sui singoli o su una comunità più ampia".