“Como é que definimos discurso de ódio? Como qualquer ataque que vai diretamente para qualquer pessoa ou grupo de pessoas baseados em atributos protegidos. Esta é a definição, e esses atributos podem ser a religião, a raça, a orientação sexual”, disse à Lusa Yasmina Laraudogoitia, responsável de relações institucionais do TikTok em Portugal e Espanha, durante a II Conferência Internacional de Promoção do Bem-estar Digital, que decorre hoje e sábado na Fundação Cupertino de Miranda, no Porto.
Laraudogoitia afirmou que a rede social faz “consultas regulares com legisladores, académicos, com especialistas e ONG [organizações não governamentais]” sobre o tema, mas tendo em conta um “equilíbrio” a manter “quanto à liberdade de expressão”.
“Em termos de utilizadores, estamos dedicados ao entretenimento e à criatividade, e neste sentido é o investimento que fazemos, de forma a sermos uma plataforma segura para isso”, explicou à Lusa.
Chiara Nava, mais dedicada à área de Confiança e Segurança, que aborda a utilização daquela rede social pelos mais jovens, afirmou que o TikTok “é uma plataforma para maiores de 13 anos e não tem qualquer interesse em ter pessoas com menos de 13 anos”.
“Qualquer coisa que seja nociva é retirada, não é permitida pelas nossas regras da comunidade”, refere, afirmando que este ano serão investidos dois mil milhões de dólares [1,8 mil milhões de euros] nesta área, e no último trimestre de 2023 foram retiradas 19 milhões de contas suspeitas de pertencerem a menores de 13 anos.
Questionada sobre a possível contradição entre uma plataforma feita para captar a atenção dos utilizadores, muitos dos quais jovens, e medidas como avisos sobre tempo excessivo passado no ecrã, medidas de controlo parental ou avisos sobre respostas agressivas a publicações, Chiara Nava disse que o objetivo da plataforma é “capacitar o utilizador”.
“Quando falamos em vício do ecrã, queremos que as pessoas sintam a responsabilidade e tenham o poder de moldar a sua experiência digital”, afirma Chiara Nava, com a ajuda de guias escritos em “jargão jovem, para os adolescentes, para ter a certeza que eles não se aborrecem com novas regras demasiado complexas para compreenderem”.
Segundo a responsável, além das verificações feitas automaticamente pela inteligência artificial, o TikTok afirma ter mais de 40 mil pessoas dedicadas à verificação de conteúdos, incluindo em Portugal.
“Posso ter um vídeo positivo, completamente seguro, que continua na plataforma mas pode passar por vários níveis de moderação porque se tornou viral, por exemplo. Portanto, aplica-se ao bom conteúdo e ao mau conteúdo. Há sempre um processo de filtragem”, referiu.
Questionada sobre a confrontação dos jovens com conteúdo que superficialmente pode ser divertido, mas que pode ser perigoso ou ter outro significado por detrás, Yasmina Laraudogoitia afirma que aí entra em ação a moderação humana, e que “especificamente para conteúdo político, relacionado com eleições, há uma moderação 24/7” (24 horas por dia, sete dias por semana).
Sendo uma “plataforma que é baseada nos utilizadores”, o sucesso depende de como “é bem ou mal usada em termos de criatividade e autenticidade”, refere, seja por quem for.
Para Yasmina Laraudogoitia, “muitos criadores começam no TikTok com zero seguidores e o seu primeiro vídeo pode ter milhões de visualizações”, porque no TikTok o sucesso “é mesmo sobre os vídeos que se publica e não sobre os seguidores com que se começa”.
“Acreditamos que estamos a democratizar a forma como a criação de conteúdos funciona”, afirmou.
Comentários