No que respeita à medição do seu progresso no combate ao discurso do ódio, o Facebook anunciou hoje que, "pela primeira vez", inclui a a prevalência do discurso de ódio na rede social, como parte do seu relatório trimestral de aplicação de padrões da comunidade.

A prevalência, explica, estima a percentagem de vezes que as pessoas veem conteúdos deste género naquela plataforma.

"Calculamos a prevalência do discurso de ódio através de uma amostra de conteúdos vistos no Facebook e rotulando quando violam as nossas políticas de discurso de ódio" e, porque este tipo de discurso "depende do contexto cultural e da língua, enviamos essas amostras representativas para revisores em diferentes regiões e idiomas", explica o Facebook.

Assente nesta metodologia, "estimamos que a prevalência do discurso de ódio de julho a setembro de 2020 foi de 0,10% a 0,11%".

Ou seja, "em cada 10 mil visualizações, 10 a 11 delas incluíam discurso de ódio", referiu a rede social.

No terceiro trimestre, o Facebook removeu 22,1 milhões de peças de conteúdos de discurso de ódio e o Instagram 6,5 milhões.

"Medimos especificamente quanto o conteúdo prejudicial pode ser visto no Facebook e no Instagram, porque a quantidade de vezes que o conteúdo é visto não é distribuído" da mesma forma.

Ou seja, uma peça de conteúdo pode ser viral e ser vista por muitas pessoas num período curto de tempo, enquanto outro conteúdo pode ficar na Internet por mais tempo e ser visto apenas" por um pequeno conjunto, prossegue a rede social.

O Facebook acrescenta que definir o discurso de ódio não é algo simples, uma vez que existem opiniões diferentes sobre o que constitui esse discurso. A história, a língua, a religião e alteração de normas são importantes fatores a ter em conta na forma como a rede social define as suas políticas.

"Com base na contribuição de uma ampla gama de especialistas globais e partes interessadas, definimos discurso de ódio como qualquer coisa que ataca diretamente as pessoas com base em características protegidas, incluíndo raça, etnia, origem nacional, filiação religiosa, orientação sexual, sexo, género, identidade de género ou deficiência ou doença grave", explica.

"O nosso objetivo é remover o discurso de ódio sempre" que seja detetado, mas "sabemos que ainda temos progresso a fazer", salienta o Facebook.

A rede social desenvolveu ferramentas de Inteligência Artificial (IA) e sistemas para detetar proativamente e remover o discurso de ódio.

"Porque o discurso de ódio é tão contextual, a deteção de IA requer uma capacidade" de rever os 'posts' holisticamente, com contexto e em várias línguas, salienta.

No entanto, os avanços das tecnologias IA permitem aumentar a remoção deste tipo de conteúdos no Facebook.

A rede social refere que quando começou a reportar as suas métricas sobre o discurso de ódio, no quarto trimestre de 2017, a taxa de deteção proativa era de 23,6%.

"Isto significa que do discurso de ódio que removemos, 23,6% era detetado antes de qualquer utilizador o reportar" ao Facebook, explicou.

"Hoje, detetamos proativamente 95%" deste tido de conteúdo, o qual é removido.