A ação, apresentada na segunda-feira num tribunal da Califórnia, onde o Facebook tem a sua sede, alega que os algoritmos utilizados pelo gigante tecnológico fomentaram a desinformação e as ideologias extremistas, traduzindo-se em atos violentos contra aquela minoria muçulmana.

“O Facebook é como um robot programado para uma única missão: crescer. E a realidade inegável é que o crescimento do Facebook, alimentado pelo ódio, divisão e desinformação, deixou centenas de milhares de vidas de rohingya devastadas”, pode ler-se no documento, citado pela agência de notícias France-Presse (AFP).

Os rohingya, uma minoria étnica muçulmana, são perseguidos em Myanmar, onde são considerados “imigrantes ilegais” do vizinho Bangladesh, apesar de viverem no país há várias gerações.

Em agosto de 2017, em resposta a um ataque de um grupo guerrilheiro rohingya, os militares birmaneses lançaram uma operação de limpeza que causou o êxodo para o Bangladesh nos meses seguintes de mais de 730 mil membros desta minoria perseguida.

Muitos dos que permanecem no país enfrentam a violência e a discriminação por parte da junta militar no poder.

Em 2020, no terceiro aniversário da limpeza étnica desta comunidade predominantemente muçulmana, a Amnistia Internacional acusou as autoridades de continuarem a ocupar terrenos pertencentes aos rohingya, apesar das medidas cautelares impostas a Myanmar pelo Tribunal Internacional de Justiça de Haia, no âmbito do processo por alegado genocídio contra aquela minoria.

A ação que deu entrada num tribunal de São Francisco alega que os algoritmos usados pelo Facebook instigam alguns utilizadores a frequentar grupos extremistas, uma situação ideal para “governantes e regimes autocráticos”.

Há muito que as organizações de direitos humanos criticam o Facebook por não fazer o suficiente para combater a desinformação.

Os críticos dizem que, mesmo quando a plataforma é alertada para mensagens de ódio, não reage, o que leva à perseguição de minorias e pode mesmo afetar o resultado de eleições.

A denunciante Frances Haugen, que deixou o Facebook em maio para alertar para as práticas do seu antigo empregador, disse ao Congresso dos Estados Unidos que a rede, cuja empresa-mãe foi recentemente rebatizada Meta, estava a alimentar a “violência étnica” em alguns países, incluindo contra os rohingya em Myanmar.

Em novembro de 2018, o Facebook admitiu que não impediu que a plataforma fosse usada para “incitar violência ‘offline'” em Myanmar, após um relatório independente acusar a rede social de criar um “ambiente propício” ao discurso de ódio e à violação dos direitos humanos.

Em março desse ano, o chefe da missão de investigação da ONU em Myanmar, Marzuki Darusman, disse que o Facebook tinha desempenhado um “papel determinante” na propagação do discurso de ódio contra aquela minoria étnica.

Ao abrigo da lei norte-americana, é pouco provável que o Facebook seja responsabilizado pelas mensagens publicadas pelos seus utilizadores.

Para contornar este obstáculo legal, a ação apresentada argumenta que a lei birmanesa, que não oferece tal proteção, deve ter precedência.

Contactado pela AFP, o Facebook não reagiu.

Porque o seu tempo é precioso.

Subscreva a newsletter do SAPO 24.

Porque as notícias não escolhem hora.

Ative as notificações do SAPO 24.

Saiba sempre do que se fala.

Siga o SAPO 24 nas redes sociais. Use a #SAPO24 nas suas publicações.