“No que toca à desinformação, nunca vamos fazer o suficiente, esta é a doença do século”, afirmou o comissário europeu do Mercado Interno, Thierry Breton.
Falando um debate ‘online’ promovido pelo grupo de reflexão belga Centro de Regulação na Europa e no qual participou também o presidente executivo do Facebook, Mark Zuckerberg, o comissário europeu frisou que o combate às ‘fake news’ é, para Bruxelas, “extremamente importante para a democracia”, nomeadamente em altura de pandemia de covid-19, que já provocou um aumento na propagação deste tipo de conteúdos.
“Temos cinco ou seis comissários a trabalhar nesta área e […] se as medidas em vigor não tiverem efeito, teremos de avançar para uma regulação mais reforçada”, avisou Thierry Breton.
No início de maio, a Comissão Europeia divulgou estar a registar, diariamente, mais de 2.700 artigos com ‘fake news’ relacionadas com a covid-19 nas redes sociais, entre publicações falsas ou enganosas.
Estes dados foram transmitidos ao executivo comunitário por plataformas digitais como a Google, Facebook, Twitter, Microsoft e Mozilla, que se comprometeram no final de 2018 a combater a desinformação nas suas páginas, através da assinatura de um código de conduta contra as ‘fake news’, um mecanismo voluntário de autorregulação que nos últimos meses tem sido centrado na desinformação sobre a covid-19.
Para o responsável francês, as plataformas digitais como o Facebook “têm obrigação de fazer diligências” para combater a desinformação.
“No final do dia, o último responsável [por conteúdos falsos disseminados] será sempre o Mark [Zuckerberg], mais ninguém”, sublinhou Thierry Breton.
E exortou, por isso, a mais ação das tecnológicas, vincando ser melhor “antecipar e evitar que a Comissão tenha de intervir ao nível regulatório”.
Também participando no debate ‘online’, Mark Zuckerberg reconheceu que o combate à desinformação “é uma batalha contínua”.
Ainda assim, realçou os esforços do Facebook nesta matéria, indicando que existem, por exemplo, cerca de 30 mil pessoas a trabalhar na rede social para monitorizar se os conteúdos publicados pelos utilizadores “cumprem as regras”.
Aqui inclui-se, de acordo com Mark Zuckerberg, uma filtragem tendo por base “20 categorias de conteúdos prejudicais”, entre as quais a desinformação, a informação maliciosa e ainda a incitação ao ódio.
“Estamos a ficar melhores a detetar este tipo de conteúdos”, assegurou o responsável, falando na eliminação de cerca de 15% dos conteúdos por estarem incluídos naquelas categorias.
Contudo, “ainda há muito fazer”, reconheceu também Mark Zuckerberg.
Já em vigor na rede social Facebook, segundo o responsável, está um sistema que, ao detetar conteúdos falsos sobre a covid-19, emite alertas às pessoas que interagiram com essas publicações (ao nível de gostos ou comentários), além de eliminar estas informações.
“Essa pessoa é avisada e recebe ‘links’ para fontes de informação credíveis” sobre a pandemia, adiantou Mark Zuckerberg.
Comentários