
No último ano, vários pais apresentaram queixas à empresa Roblox, uma aplicação de jogos extremamente popular entre os mais novos. Preocupados com o vício e os perigos do online, os adultos revelaram que as crianças são abordadas por estranhos e expostas a conteúdos traumáticos.
Uma investigação a que o jornal The Guardian teve acesso confirmou as suspeitas: os especialistas em comportamento digital da Revealing Reality descobriram “algo profundamente perturbador... uma desconexão preocupante entre a aparência amigável para crianças do Roblox e a realidade do que elas vivenciam na plataforma”.
Descrevendo-se como “o universo virtual definitivo”, o Roblox apresenta milhares de jogos e ambientes interativos, conhecidos coletivamente como “experiências”. Parte do conteúdo é desenvolvido pelo próprio Roblox, e outra parte criada pelos próprios usuários.
Em 2024, a plataforma contava com mais de 85 milhões de usuários ativos diários, sendo estimado que 40% deles tenham menos de 13 anos.
Reprodução de conteúdo sexual e a interação com adultos não vigiada
Para o estudo, a Revealing Reality criou várias contas na aplicação Roblox, como utilizadores ficcionais com idades entre os cinco, nove, 10, 13 e ainda acima dos 40 anos. As contas interagiam apenas umas com as outras, sem interferir com a atividade de outros utilizadores da app, para não poderem ser influenciados.
Apesar das novas ferramentas lançadas na semana passada com o objetivo de dar aos pais mais controlo sobre as contas dos seus filhos, os investigadores concluíram que “os controlos de segurança existentes são limitados na sua eficácia e continuam a existir riscos significativos para as crianças na plataforma”.
O relatório concluiu que crianças com apenas cinco anos conseguiam comunicar com adultos enquanto jogavam na plataforma, e identificou exemplos de interações entre adultos e crianças sem qualquer verificação eficaz da idade. Isto apesar de o Roblox ter alterado as suas definições, em novembro do ano passado, para que contas associadas a menores de 13 anos deixassem de poder enviar mensagens diretas a outros utilizadores fora dos jogos ou experiências, passando a ter acesso apenas a mensagens públicas transmitidas no grupo de conversas geral.
A pesquisa descobriu também que a conta associada ao utilizador de dez anos tinha acesso a “ambientes altamente sugestivos” e com conteúdo sexual, tal como uma realidade num hotel onde podiam observar uma personagem feminina a usar meias de rede enquanto se contorcia na cama, com outros personagens deitados sobre ela, simulando posições sexuais.
O jovem de 10 anos tinha ainda acesso a uma casa de banho pública onde as personagens do jogo podiam escolher acessórios e fetiches enquanto urinavam.
Os investigadores descobriram que os seus avatares inventados conseguiam ouvir as conversas entre outros jogadores a verbalizar atividade sexual, bem como sons repetidos de beijos e gemidos, ao utilizarem a função de 'chat de voz'.
Em contrapartida, o Roblox garante que todo o 'chat de voz' – disponível apenas para contas com verificação por telemóvel e registadas como pertencentes a utilizadores com 13 anos ou mais – é moderado em tempo real por inteligência artificial.
Já a conta registada como um adulto conseguia pedir os dados de Snapchat do avatar de teste de cinco anos, outra aplicação de imagem e vídeo muito utilizada. Apesar de o Roblox referir que o grupo de conversas do jogo está sujeito a filtros incorporados e moderação, o relatório refere que este é um exemplo de como essas medidas podem ser facilmente contornadas, através de linguagem pouco codificada, criando oportunidades para comportamentos predatórios.
Ainda é possível controlar o conteúdo que crianças consomem?
Histórias partilhadas por pais, na sequência de um apelo da comunidade feito pelo The Guardian, incluem a de um rapaz de 10 anos que foi aliciado por um adulto que conheceu na plataforma, e a de uma menina de nove anos que começou a ter ataques de pânico depois de ver conteúdo sexual durante o jogo.
Damon De Ionno, diretor de investigação da Revealing Reality, afirmou: “As novas funcionalidades de segurança anunciadas pelo Roblox na semana passada não vão longe o suficiente. As crianças continuam a poder conversar com estranhos que não estão na sua lista de amigos, e com 6 milhões de experiências [na plataforma], muitas vezes com descrições e classificações imprecisas, como é que se espera que os pais consigam fazer uma moderação eficaz?”
Uma ativista para a segurança online, Beeban Kidron, declarou que a investigação revelou uma “falha sistemática da plataforma em proteger as crianças”, acrescentando: “Este tipo de investigação com utilizadores devia ser uma prática de rotina para um produto como o Roblox.”
Em resposta, o Roblox reconheceu que as crianças que usam a plataforma podem ser expostas a conteúdos nocivos e a “utilizadores mal-intencionados”. E, por isso, afirma que está a trabalhar para resolver o problema, apesar de destacar que a colaboração e intervenção governamental é indispensável.
Embora a empresa tenha dito que “se solidariza profundamente” com os pais cujos filhos sofreram danos na plataforma, também afirmou que “dezenas de milhões de pessoas têm uma experiência positiva, enriquecedora e segura no Roblox todos os dias”.
Matt Kaufman, diretor de segurança do Roblox, refutou a critica, referindo que: “A confiança e a segurança estão no centro de tudo o que fazemos. Estamos constantemente a evoluir as nossas políticas, tecnologias e esforços de moderação para proteger a nossa comunidade, especialmente os mais jovens. Isto inclui investir em ferramentas de segurança avançadas, trabalhar em estreita colaboração com especialistas e capacitar pais e cuidadores com controlos e recursos robustos".
No entanto, a empresa reconheceu que a verificação de idade para menores de 13 anos “continua a ser um desafio para o setor”.
Comentários