A selecção de imagens "psicologicamente tóxicas" colocadas online impede um enorme conjunto de pessoas de verem esses conteúdos, permite alertar as autoridades para potenciais autores de crimes e alertar para o conteúdo ilegal colocado na Web - mas não salvaguarda a sanidade mental dos humanos que as têm de escrutinar diariamente.

Uma queixa de dois funcionários contra a Microsoft permite conhecer em mais detalhe as condições de trabalho desses profissionais que são, muitas vezes, obrigados a assinar acordos de confidencialidade sobre as tarefas que vão realizar, o que impede um conhecimento mais detalhado desta profissão.

No documento apresentado no final de 2016 e divulgado pela sociedade de advogados que os representa (para encontrar casos similares), recorda-se que o programa de segurança online da Microsoft visa encontrar e reportar casos de pornografia infantil e outros "materiais tóxicos" ao National Center for Missing and Exploited Children (NCMEC) norte-americano, após a aprovação de regulamentação federal nesse sentido em 2008.

Henry Soto foi alocado ao grupo na sua fase inicial, sem o ter pedido - ao contrário de Greg Blauert, pelo que se percebe da queixa.

Soto desconhecia muitas das actividades que teria ao analisar "vídeos e fotografias concebidos para entreter as pessoas mais perversas e doentes do mundo". Apesar disso, foi elogiado pelos seus superiores no trabalho de diariamente "ver muitos milhares de fotografias e vídeos com conteúdos dos mais horríveis, desumanos e repugnantes que se possa imaginar". Os colegas elogiavam a sua "coragem", enquanto Soto tinha pesadelos e insónias por ver imagens de crianças violadas e mesmo assassinadas.

Só em 2010 ele procurou ajuda psiquiátrica, após um programa falhado de ajuda proposto internamente pela empresa. Em Maio de 2014, pediu para ser transferido para outro cargo mas o mesmo era perto do programa de segurança online, pelo que os colegas lhe continuaram a pedir ajuda em certos casos. Em Janeiro de 2015, o seu chefe disse-lhe que podia ser despedido - o que acelerou os anteriores sintomas de stress pós-traumático (PTSD, de "post traumatic-stress disorder") -, tendo conseguido uma baixa médica no mês seguinte. Deixou de usar computadores, quando já tinha problemas em relacionar-se com o próprio filho. A esposa continuou a trabalhar na Microsoft, mas foi avisada de que também o seu emprego podia estar em causa, dizem os advogados.

Blauert começou em 2012 a trabalhar para o programa de segurança online, com o mesmo tipo de exposição a conteúdos que Soto via. Apesar de poder sair do emprego mais cedo ou jogar videojogos no local de trabalho, ao abrigo de um "Wellness Plan" da empresa, foi criticado pelos superiores por usar essas prerrogativas.

Em Setembro de 2013, a sua médica considerou que ele não podia regressar ao trabalho. Como sucedeu com Soto, o Estado não considerou que tinham uma doença profissional, pelo que não podem receber qualquer apoio financeiro federal.

Ambos "não foram avisados do provável impacto perigoso" das suas tarefas na vida profissional e pessoal e é isso que pretendem demonstrar, para ajudar outros funcionários com as mesmas funções dentro da empresa, tendo entregue a esta uma lista de melhoramentos que incluem consultas semanais com psicólogos e acompanhamento familiar. Mas nenhum deles voltou ao trabalho.

Os advogados dizem ter abordado a Microsoft para obterem correcções à queixa, "sem sucesso". Ao The Guardian, a empresa afirmou "discordar" das queixas de Soto e Blauert e que "leva a sério a sua responsabilidade de remover e denunciar [às autoridades] imagens de exploração sexual e de abuso sexual de crianças a serem partilhadas nos seus serviços, bem como a saúde e a resiliência dos funcionários que fazem este importante trabalho". A Microsoft afiança ainda que "a saúde e a segurança dos nossos empregados que fazem este difícil trabalho é uma prioridade de topo".

À Courthouse News, a empresa disse "aplicar tecnologia de vanguarda para ajudar a detectar e classificar imagens ilegais de abuso e exploração infantil que são partilhadas pelos utilizadores nos serviços da Microsoft. Uma vez verificada por um funcionário especialmente treinado, a empresa remove a imagem, comunica-a ao NCMEC e bane os utilizadores que partilham as imagens dos nossos serviços. Criámos programas robustos de bem-estar para garantir que os funcionários que lidam com este material tenham os recursos e o apoio de que precisam".

Além disso, aos funcionários "não é permitido ver as imagens ofensivas em casa ou num equipamento pessoal e não estão autorizados a passar o seu inteiro dia de trabalho a vê-las", explicou ao McClatchy. "Este trabalho é difícil mas muito importante para uma Internet segura e mais confiável", diz a empresa.

Analisar conteúdos do Facebook por um dólar à hora

"Pense em como há um cano de esgoto e toda a confusão/porcaria/lixo/m**** flui para si e você tem que a limpar", sintetizava um ex-moderador do Facebook num artigo da New Yorker.

No ano passado, Monika Bickert, responsável da política global de produto do Facebook, revelou que os utilizadores desta rede social marcam diariamente mais de um milhão de conteúdos como inapropriados. Apesar de antes da decisão humana na moderação existirem algoritmos e sistemas de inteligência artificial que analisam os conteúdos, sobram inúmeros casos em que é necessária a visualização por humanos para garantir que a tecnologia não falhou, que as denúncias não são falsas ou que os conteúdos podem fazer sentido (por exemplo, não bloquear o acesso a um site de cancro da mama por este mostrar seios).

O trabalho é desumano mas "o público precisa de entender que este trabalho não é feito por um computador", lembra Ben Wells, um dos advogados que apresentou a queixa. E que tem efeitos secundários: num estudo de 2013 a mais de 600 funcionários do Internet Crimes Against Children (ICAC), um departamento do Departamento de Justiça norte-americano onde cabem tarefas como analisar vídeos de violência sexual ou exploração de crianças, cerca de um quarto deles revelava sintomas "significativos de stress traumático secundário".

Joi Podgorny aponta uma outra tendência nestes zeladores dos conteúdos. A ex-responsável da empresa de moderação de conteúdos ModSquad disse à revista The Verge que os fundadores e os programadores das plataformas digitais "resistem a ver o conteúdo tóxico" e até a "compreender a prática da moderação". Visto como um "serviço ao cliente", é tido como "um sector de salários relativamente baixos, de baixo estatuto, muitas vezes gerido e dotado de pessoal feminino, separada dos sectores de 'status' mais elevado, melhor remunerados e mais poderosos da engenharia e das finanças, que são esmagadoramente do sexo masculino".

Nas empresas em geral, como o programa de segurança online não dá lucro, mas é antes um imperativo legal, o investimento no mesmo é reduzido, nomeadamente nas precauções médicas com os moderadores humanos. A situação é ainda mais grave quando se sabe que muitos deles são subcontratados por empresas norte-americanas em países como a Índia ou as Filipinas, onde os vencimentos são mais baixos e as condições de trabalho menos vigiadas pelas autoridades.

Ao deslocar para longe o tratamento destes "detritos digitais", como lhes chama a investigadora Sarah Roberts, eles são "afastados do campo de visão dos responsáveis pela sua existência, da mesma forma como as barcaças de lixo flutuam ao redor do mundo, e torna o podre, o sujo, um problema de outra pessoa".

Em 2012, após ser formado para analisar conteúdos do Facebook por um dólar à hora, Amine Derkaoui revelou como era "humilhante" estas empresas "estarem apenas a explorar o terceiro mundo". O marroquino fez mais e divulgou as normas internas da rede social para os moderadores de conteúdos, um então recente "documento que é essencialmente um mapa do terreno moral do Facebook", dividido em "sexo e nudez", "conteúdo de ódio", "conteúdo explícito" e "intimidação e assédio".

Esta moderação passava por três níveis, após os alertas dos utilizadores: pessoas sub-contratadas como Derkaoui confirmavam o alerta e o conteúdo era apagado, podiam revogar o alerta ou, por fim, escalar o conteúdo para ser analisado e validado por funcionários do Facebook.

As normas incluíam a eliminação de mães a amamentar sem roupas, pessoas bêbedas ou inconscientes, mamilos femininos (mas não masculinos), enquanto se podiam mostrar imagens sangrentas ou piadas com discurso de ódio. Nalguns exemplos, como na negação do Holocausto e devido ao âmbito da "conformidade internacional", esses conteúdos eram sempre analisados por funcionários da rede social.

Há mais de 100 mil pessoas a "limpar" os detritos digitais

No total, entre redes sociais, aplicações móveis e serviços de armazenamento de dados, deviam existir há três anos "bem mais de 100 mil" pessoas em todo o mundo a executar estas tarefas, calculava Hemanshu Nigam, ex-responsável de segurança do MySpace e consultor de segurança online.

"Há miúdos de 20 anos que são contratados para analisar conteúdos e animam-se porque pensam que vão ver pornografia adulta", explicava Nigam anos antes. "Eles não fazem ideia de que as imagens desprezíveis e ilegais que vão ver os vão perseguir para o resto das suas vidas".

A tarefa é gigantesca. Basta lembrar que, por minuto, são transferidas 300 horas de vídeo para o YouTube. Com apenas 25 anos, Julie Mora-Blanco começou a trabalhar em 2006 nesse então recente serviço de vídeo online, lançado um ano antes. Na equipa de uma dezena de pessoas, denominada de SQUAD (de "Safety, Quality, User Advocacy Department"), "os vídeos chegavam aos ecrãs numa fila interminável", dizia a The Verge.

O modelo de moderação ia de aceitar o vídeo ou classificá-lo para adultos até à sua rejeição, com alerta aos superiores para suspender a conta do utilizador e, se fosse o caso, reportar o vídeo ao NCMEC. Mas, como Mora-Blanco explica, as regras eram difusas, sempre em actualização e alteradas perante a realidade. Em 2008, o YouTube passou a ter moderadores na Irlanda e na Índia.

Mora-Blanco saiu da empresa em 2010, para assumir funções semelhantes no Twitter, mas esse não parece ser o percurso típico de um moderador de conteúdos online. "Todos desistem, normalmente entre os três e os cinco meses", afirmava um ex-moderador de conteúdos no YouTube à Wired. Segundo a revista, "eles vêem diariamente provas da infinita variedade da depravação humana. Começam a suspeitar o pior de pessoas que conhecem na vida real, questionando-se que segredos podem os seus computadores guardar".

David Graham, presidente da Telecommunications On Demand, uma empresa norte-americana de "outsourcing" da análise de conteúdos online, compara-os a "veteranos de guerra, completamente des-sensibilizados a todos os tipos de imagens". Segundo Graham, em 2010, os cerca de 50 trabalhadores - a receberem cerca de 100 euros por dia - viam uma média semanal de 20 milhões de fotografias. Uma empresa semelhante, a Caleris, chegava a analisar  diariamente 4,5 milhões de imagens.

Nas Filipinas, a psicóloga Patricia Laperal, da Behavioral Dynamics, avalia potenciais candidatos a este tipo de trabalho e acompanha os seus problemas. "As imagens interferem com os seus processos de pensamento" e podem mesmo "baralhar a forma como se reage aos parceiros". Porque, em resumo, quando "se trabalha com lixo, vai-se ficar sujo".