"Tem sido um período complicado para o Facebook", assumiu esta quarta-feira Chris Cox, responsável de produto na empresa fundada por Mark Zuckerberg, no Palco Principal da Web Summit. "No entanto, considerando a escala que atingimos, é bom que estejamos a ter esta conversa", acrescenta.

A "conversa", como lhe chama Chris Cox, é esta: Está o Facebook a fazer o suficiente para proteger os seus utilizadores? Deve a empresa detentora das mais relevantes redes sociais do mundo — Facebook, Instagram e WhatsApp — ser desmantelada? Ou basta regular? Se sim, como? Deve o Facebook ser diretamente responsabilizado pelos conteúdos que amplifica nas suas plataformas — e cujas consequências podem ser trágicas? Onde começa o discurso de ódio e termina a liberdade de expressão? Mas é um problema de liberdade de expressão ou um problema na génese do algoritmo? O Facebook está mesmo interessado em emendar a mão?

As perguntas sucedem-se, e talvez por isso a empresa fundada por Mark Zuckerberg — que decidiu fazer um rebranding debaixo de fogo cruzado e agora se chama "Meta" — tenha sido o tema de não uma, nem duas, mas pelo menos cinco sessões nesta edição da Web Summit.

Chris Cox, CPO da Meta, à esquerda, e o jornalista Nicholas Carlson, da Insider, à direita. créditos: Eóin Noonan/Web Summit via Sportsfile

Esta não é a primeira vez que o Facebook (ou Meta) se vê envolvido numa polémica, antes pelo contrário: ainda hoje se questiona o papel que as redes sociais da empresa desempenharam na eleição de Donald Trump; uma fragilidade do Facebook permitiu à Cambridge Analytica, cujo negócio passava por influenciar eleições, recolher indevidamente dados de milhões de utilizadores da rede social; o Facebook foi acusado (juntamente com Google e Twitter) de ter falhado em conter a desinformação e as teorias da conspiração que levaram à invasão do Capitólio, o que resultou na morte de cinco pessoas; a empresa de Zuckerberg foi criticada por amplificar o discurso anti-vacinas que está a colocar em causa a imunização da população norte-americana contra a covid-19; e investigadores da ONU consideraram que o Facebook foi instrumental para disseminar o ódio que conduziu ao genocídio de muçulmanos de origem rohingya em Myanmar.

O que há de diferente desta vez, com os chamados "Facebook Papers" — o conjunto de documento internos divulgados pela denunciante Fraces Haugen, que trabalhou na Meta como gestora de produto, no departamento de integridade cívica, entre entre 2019 e maio de 2021, e que deram deram origem a uma investigação do Wall Street Journal e a uma audição no Senado norte-americano?

Em primeiro lugar, "Frances Haugen foi a primeira denunciante a perceber que podia fazê-lo como se estivesse a fazer o lançamento de um produto tecnológico, maximizando o impacto", diz Roger McNamee, um dos primeiros investidores do Facebook e que, entretanto, se transformou num dos seus maiores críticos. A cientista de dados começou por entregar os papéis que recolheu ao Wall Street Journal, depois deu a cara no programa 60 Minutos e, por fim, testemunhou perante o Senado.

Em segundo lugar, a documentação indicia que a empresa de Mark Zuckerberg sabia dos problemas que estava a causar e escolheu não agir. “Há um padrão de comportamento no Facebook de colocar o lucro à frente da nossa segurança”, resume Haugen. Em concreto, os documentos revelam que o Instagram pode ser tóxico para jovens adolescentes e a empresa sabe, apesar de ter consistentemente minimizado os seus efeitos negativos publicamente; que o algoritmo amplifica intencionalmente conteúdos que são nocivos para gerar engajamento; que não há tradutores suficientes na empresa, o que inviabiliza a verificação de conteúdos em zonas mais frágeis do globo, entre outras questões.

Mas há sempre "dois lados numa história", lembra Nick Clegg, vice-presidente para os Assuntos Globais e Comunicação da Meta, que também marcou presença (remotamente) no Palco Principal da Web Summit.

O VP recusa esta ideia "de que o Facebook alimenta propositadamente os seus utilizadores com conteúdo desagradável para os manter engajados", até porque isso, diz, "derrotaria o interesse comercial da empresa". "Manter as pessoas num estado de fúria não é a melhor forma de lhes dar uma boa experiência de utilização, captar a sua atenção e fazê-las comprar coisas", o que é no fundo o que pretendem os anunciantes que efetivamente pagam pelo Facebook, nota.

E é por isso, acrescenta, que a Meta "investe tanto — 13 mil milhões de dólares nos últimos anos; 5 mil milhões só este ano, 14 mil pessoas dedicadas — para tentar reduzir a quantidade de conteúdo nocivo na plataforma. A quantidade de discurso de ódio no Facebook, por exemplo, situa-se atualmente nos 0,095%. Eu gostava que o conseguíssemos reduzir a zero, mas isso nunca será possível. No entanto, acho que isto ilustra que o real incentivo para nós está em reduzir e não amplificar este tipo de conteúdo", reitera. 

"Claro que se pode questionar se estamos a mover-nos rápido o suficiente e nós não fugimos ao escrutínio. Concordamos com Frances Haugen quando diz que é preciso mais regulação, transparência e investigação sobre o impacto das redes sociais na população mais jovem", enumera Clegg. 

Para o VP, "quando és confrontado com uma crítica tens de defender-te onde sentes que deves defender-te, mas também tens de ser humilde o suficiente para admitir que há coisas que merecem ser endereçadas". E dá exemplos: "foi por isso que suspendemos o Instagram Kids", que "vamos lançar ferramentas para ajudar os pais a perceberem o que os filhos fazem online e ferramentas para incentivar os adolescentes a tirar os olhos do ecrã quando navegam no mesmo conteúdo repetidamente"; foi por isso que "criámos uma equipa de direitos humanos", que "montámos gabinetes de risco", que "temos atualmente moderação de conteúdos em 70 países e contratámos revisores em 12 novas línguas", continua. "Temos de fazer mais? Sim. Mas estamos a agir de forma metódica? Sim, acredito genuinamente que sim", conclui. 

Clegg procurou ainda desmontar a ideia "de que os utilizadores estão desprotegidos, a receber conteúdo que é decidido pelo algoritmo. Mais de 90% do conteúdo que um utilizador vê no seu feed vem de três fontes simples: conteúdo gerado pelo próprio e pelos seus amigos; por grupos aos quais pertence e, por fim, pelas páginas que segue. Menos de 10% dos conteúdos são 'não relacionados', isto é, recomendados pelo Facebook. Logo, o feed é muito condicionado pelas escolhas que cada utilizador faz. Acho que isso tem ficado 'perdido' quando se entra nestas discussões", lamenta.

"Nós não somos perfeitos, sabemos que temos de melhorar, mas estes são assuntos que levamos a sério e queremos resolver", reiterou mais tarde Chris Cox, apelando a que o debate se faça "para lá do soundbyte".

"O que é discurso de ódio? Qual é a quantidade aceitável de conteúdo nocivo? Quando é que este conduz a violência? Quando é que estamos perante o exercício da liberdade de expressão?", estas são as questões que o responsável de produtor da Meta gostava de ver respondidas. 

Cecilia Kang, Autora do livro "An Ugly Truth: Inside Facebook's Battle or Domination" créditos: Eóin Noonan/Web Summit via Sportsfile

Cecilia Kang, autora do livro "An Ugly Truth: Inside Facebook'S Battle For Domination", discorda.

"Esta conversa sobre o que é ou não liberdade de expressão distrai-nos do que devia estar no centro do debate: a tecnologia que amplifica o discurso, o algoritmo do Facebook, que continua a crescer e a evoluir, está ou não na origem do problema? É nisto que os reguladores estão a tentar centrar a conversa e não na liberdade de expressão — até porque os EUA nunca vão regular a liberdade de expressão e isto tem permitido ao Facebook fugir ao debate", diz. 

Na ótica da jornalista do New York Times, até a mudança do nome da empresa-mãe do Facebook, Instagram e WhatsApp é uma forma de "desviar a conversa para longe das controvérsias".

Questionada sobre qual é "verdade mais feia" — numa referência ao título do seu livro — do Facebook, é perentória: "Esta ideia de que o Facebook quer conectar o mundo é um ótimo slogan, mas não passa de um eufemismo para crescimento e para escala".

"Em algum momento, considerando as questões de segurança [levantadas pelos Facebook Papers] eles consideraram tirar o pé do acelerador? Antes mergulham de cabeça no metaverso, em coisas novas, em vez de resolver problemas antigos. Crescer é a prioridade do Facebook, mesmo que isso possa ter consequências devastadoras, sendo o que aconteceu em Myanmar um dos exemplos mais obscuros", considera. 

Roger McNamee, da Elevation Partners, à esquerda, e Laurie Segall, fundadora e CEO da Dot Dot Dot Media, à direita. créditos: Stephen McCarthy/Web Summit via Sportsfile

E se nem os Facebook Papers tiverem "um impacto efetivo no negócio do Facebook, então a democracia e a nossa capacidade de fazer escolhas pode nunca recuperar", considera Roger McNamee, que se afastou de Zuckerberg no dia em que este lhe disse que queria chegar aos mil milhões de utilizadores — "eu disse-lhe que isso só seria possível se começasse a fazer negócio com países autoritários e clientes com quem não deveria envolver-se e que não podia compactuar com isso", conta.

Na análise do investidor, "nos EUA perdeu-se de vista algo muito importante: a democracia e a autodeterminação requerem a participação de todos, e os negócios precisam dos governos para agirem como árbitros, para proteger as pessoas".

"O Facebook construiu uma rede com três mil milhões de pessoas sem qualquer tipo de rede de segurança. Depois, construiu um modelo de negócio que tem por base a vigilância e usou os dados recolhidos para entender todos os padrões da vida humana. Em seguida, criou um modelo para cada um de nós, para ver em que padrões encaixamos e assim poder prever o nosso comportamento. Por fim, usam algoritmos de recomendação para manipular o nosso comportamento. Isso só por si já é mau, mas os incentivos deste negócio impulsionam e amplificam os conteúdos mais emotivos. O resultado é que todas aquelas ideias que populam a periferia da sociedade — o discurso supremacista, anti-vacinas, etc. — são sugadas para o centro da discussão. No fundo, eles criaram um ambiente sem regras onde as ideias extremistas têm uma vantagem evolutiva. E nós deixámos que isto acontecesse". E neste "mundo sem regras foi permitido ao Facebook criar problemas de segurança, de privacidade e de concorrência", conclui.

"Se olharem para a resposta dos norte-americanos à vacina contra a covid-19 ou para a invasão do Capitólio, isso são exemplos daquilo que o futuro vai ser se não regularmos isto", antecipa Roger McNamee, que compara a indústria tecnológica de hoje à indústria alimentar nos anos 1900 e à indústria farmacêutica nos anos 1960. 

"São indústrias fundamentais à economia, mas precisam desesperadamente de regulação para proteger as pessoas afetadas pelos seus produtos. Eu gostava que existisse um regulador para a indústria tecnológica que definisse um conjunto de regras que todos são obrigados a cumprir", defende.

A par, defende, é fundamental atualizar as leis da concorrência e garantir que não ficamos reféns "do capitalismo de vigilância". "Este modelo assente na captação e tratamento de dados que são usados para manipular o nosso comportamento é tão pouco ético como o trabalho infantil. E deve ser banido, tal como o trabalho infantil foi banido", diz. 

Questionado sobre se a resposta pode passar pelo desmantelamento da empresa de Mark Zuckerberg, uma possibilidade que tem vindo a ser discutida nos EUA, McNamee considera que esse é "o último passo. Se não fizemos algo já, algo para garantir a segurança e a privacidade, desmontar o Facebook só vai criar espaço para outras empresas mais perigosas". 

No que à regulação diz respeito, tanto Clegg como Cox fizeram questão de referir que a Meta não se opõe, aliás, defende-a. Cecília Kang, todavia, considera que a empresa de Mark Zuckerberg "é grande o suficiente para absorver um determinado nível de regulação, mas não quer uma regulação que obrigue a mudanças estruturais e que tenha impacto direto no seu modelo de negócio".

"O negócio do Facebook é ganhar a tua atenção para recolher dados e fazer-te interagir com a plataforma constantemente, permitindo aos anunciantes direcionar a sua publicidade o melhor possível. E como é que o Facebook consegue isto? Mexendo contigo, seja de uma forma negativa ou positiva. Isto é perigoso porque não há protocolos de segurança instalados. E o que eles não querem é que a regulação desacelere este modelo de negócio", explica. 

"No final do dia, eles não querem ser considerados responsáveis pelo tipo de conteúdo que os utilizadores carregam para a plataforma; não querem que a empresa seja desmantelada; não querem regulação que dite que tipo de conteúdo pode ser amplificado; não querem regulação que afete os seus sistemas de ranking ou o seu algoritmo, ou determine a forma como podem usar os grupos e as recomendações. Porque aí é que está o poder da tecnologia do Facebook", analisa. 

E mesmo que se avance para uma regulação mais efetiva, "há um grande risco de os legisladores legislarem muito mal". Kang dá um exemplo ilustrativo da sua apreensão: "quando Mark Zuckerberg testemunhou pela primeira vez no Congresso, em abril de 2018, no Comité Judicial do Senado, teve de responder a perguntas de um painel de legisladores com idades a rondar os 70 anos e que lhe perguntaram coisas tão estapafúrdias como por exemplo 'como é que se envia um e-mail pelo WhatsApp?'".

A jornalista defende que, mais tarde ou mais cedo, a regulação será "inevitável". "Os americanos e os europeus, culturalmente, não gostam da ideia de empresas que se tornam demasiado dominantes e o Facebook tornou-se demasiado dominante". Além disso, "todas as plataformas de comunicação na história acabaram por ser reguladas, da ondas de televisão às de rádio, porque se transformaram em utilitários, e o mesmo vai acontecer com as redes sociais. Mas como é que vai ser regulado é a questão central, porque se for mal regulado pode ter consequências muito negativas para todos — menos para o Facebook", diz. 

Roger McNamee esteve lá desde o início, investiu no Facebook e aconselhou Zuckerberg durante anos. Foi a ele que coube responder ao seguinte: "o que é que nos escapou? O que é que nós não vimos quando o Facebook nasceu?".

E esta é a verdade que se configura como muito inconveniente para qualquer solução futura: "a eficiência e a democracia não são compatíveis. E uma vai ter de ganhar — sendo que a primeira tem uma vantagem evolutiva".

"Aquilo que nós não percebemos é que o Facebook e o Google têm um sistema de valores que advêm da engenharia, onde se valoriza a eficiência e se associa isso a velocidade e a escala. E o facto é que isso produziu riqueza sem precedentes. O problema é que vivemos em democracias, com direito à autodeterminação, isto é, o direito a fazer as suas próprias escolhas. A democracia e autodeterminação são ineficientes por defeito, requerem deliberação, requerem que todos participemos. Já a eficiência não precisa de se preocupar com isso, vai direto ao alvo. Então, quando um negócio tem a escala de uma nação, como acontece com o Facebook ou o Google, e é otimizado para garantir eficiência, ele tem uma vantagem evolutiva. E há um conflito entre eficiência e democracia, elas não são compatíveis, não é possível negociar, uma tem de ganhar. Tudo o que peço hoje é que tenhamos um debate honesto sobre isto: qual é sistema preferimos? Eu acredito que há pessoas que seriam perfeitamente felizes num universo, como o metaverso, em que todas as escolhas são feitas por elas. Mas se não temos um debate sobre isso hoje, vamos acabar nesse sítio queiramos ou não. E acho que isso será um resultado terrível".