Perante um cada vez mais denso clima de suspeição online, entre “fake news”, esquemas fraudulentos e aldrabices de diferentes graus de gravidade escritas um pouco por toda a Internet, uma equipa de investigadores procurou desenvolver uma forma de detetar essas mentiras.

O projeto, desenvolvido por um grupo de investigadores das Universidades do Estado da Flórida (FSU) e de Stanford, passou por criar um sistema que utiliza algoritmos automatizados para separar a verdade da mentira.

Trata-se de uma espécie de polígrafo, só que, em vez de fazer uma avaliação através de elementos contextuais numa conversa - como tom de voz ou expressões faciais, inexistentes online - o sistema analisa o conteúdo das mensagens e a velocidade a que foram enviadas para medir a sua validade.

Os responsáveis deste estudo, publicado na revista Computers in Human Behavior, dizem ter dado o primeiro passo para um “protótipo de um sistema de deteção de mentiras para mediações computadorizadas quando a interação cara-a-cara não é possível”.

Ao jornal da Universidade do Estado da Flórida, Shuyuan Ho, professora na Escola de Comunicação e Informação desta instituição, falou de um futuro onde esta tecnologia poderá distinguir entre mentirosos e honestos. “Pode ser usado para encontros online, Facebook, Twitter - as aplicações são intermináveis. Penso que o futuro não tem limites para um sistema de polígrafo online”.

Para testar as capacidades de deteção do polígrafo em comparação com o julgamento de um ser humano, a equipa criou um jogo onde havia duas equipas - uma de “santos” e outra de “pecadores” - constituídas por jogadores escolhidos aleatoriamente. Ao passo que os integrantes do primeiro grupo tinham de falar sempre a verdade, os do segundo tinham de mentir.

Com este modelo de análise, o sistema começou a avaliar as interações a fim de descobrir quem eram os jogadores honestos e os mentirosos, escrutinando padrões de escrita e palavras.

Segundo os resultados do estudo, os algoritmos conseguiram detetar quem era quem com um grau de precisão entre 85% e os 100%, ao passo que uma pessoa só conseguiria fazer uma avaliação correta em 50% das ocasiões.

Para fazer as suas escolhas, o sistema baseou-se num interessante conjunto de tendências linguísticas.

Do lado dos mentirosos, a sua linguagem foi avaliada como sendo menos expressiva mas mais floreada, demonstrando mais emoções negativas e revelando alguma ansiedade quando falavam com pessoas honestas. Para além disso, os “pecadores” demoraram menos tempo a responder e usaram mais palavras indicativas de certeza, como “sempre” e “nunca”.

Já quanto aos honestos, estes usaram mais palavras especulativas, como “talvez” e “acho”, e ligaram mais as suas ideias com palavras de causalidade, como “porque”, demonstrando uma linha de pensamento mais ponderada e reflexiva, presente também em termos como “podia” ou “devia”.

Para além da avaliação linguística, os investigadores calcularam também o espaçamento temporal entre mensagens, verificando quem é que parava mais tempo entre comunicações para escrever.

Com base nestes resultados, Shuyuan Ho disse acreditar que esta tecnologia pode ser revolucionária na Internet. “Eu quero que o mundo repare nesta investigação para que possivelmente a tornemos num produto comercial que pode ser usado em todo o tipo de fóruns sociais online”, admitiu ao jornal da escola.

O mundo reparou, mas a reação não foi das melhores. A revista Wired apresentou os resultados do estudo a vários especialistas, que reagiram com profundo ceticismo, não só por acreditarem que o estudo não serve de base para qualquer tipo de algoritmo fidedigno, mas também porque as potencialidades do mesmo podem ser perigosas.

Jevin West, professor da Escola de Informação da Universidade de Washington, disse que os resultados são “vistosos”, mas que é preciso ter em conta as consequências de aplicar uma tecnologia destas pois “quando lidamos com humanos, temos de ser extra cuidadosos, especialmente quando as implicações de alguém mentir poderem levar a detenções, censura ou perda de emprego.”

Já Cathy O’Neill foi mais longe, tendo a consultora de data science dito que este se trata de “um mau estudo”, apontando para a sua artificialidade, pois os resultados foram conseguidos num cenário altamente restrito e controlado em vez de avaliar mentirosos imprevisíveis e inconsistentes no mundo real. “Dizer às pessoas para mentir num estudo é um cenário muito diferente do que ter alguém a mentir consecutivamente sobre algo durante meses ou anos”, defendeu, acrescentando que “mesmo que se consiga determinar quem é que está a mentir num estudo, isso não quer dizer que se consiga fazer o mesmo no caso de um mentiroso mais experiente.”

Perante as críticas, Shuyuan Ho refreou o entusiasmo que tinha revelado na entrevista ao jornal da FSU, dizendo à Wired que o estudo é apenas um primeiro passo e que seriam necessários mais testes, lembrando que o próprio texto publicado na revista Computers in Human Behavior continha ressalvas para o seu caráter preliminar.

Todavia, se a precisão dos polígrafos tradicionais sempre foi colocada em causa, a sua versão online terá de ser alvo de bastante mais trabalho. 

Newsletter

As notí­cias não escolhem hora, mas o seu tempo é precioso. O SAPO 24 leva ao seu email a informação que realmente importa comentada pelos nossos cronistas.

Notificações

Porque as noticias não escolhem hora e o seu tempo é precioso.

Na sua rede favorita

Siga-nos na sua rede favorita.

Um artigo do parceiro

The Next Big Idea é um site de inovação e empreendedorismo, com a mais completa base de dados de startups e incubadoras do país. Aqui encontra as histórias e os protagonistas que contam como estamos a mudar o presente e a inventar o que vai ser o futuro. Veja todas as histórias em www.thenextbigidea.pt