Rogério Carapuça refere que a interação com o sistema é muito semelhante a um diálogo com um humano, mas as pessoas precisam de “ter o cuidado, naturalmente, de saber que estão a falar ou que estão a interagir com uma máquina e não propriamente com uma pessoa e que as respostas que estão a obter não têm que ser forçosamente exatas”.
E esta “é uma questão essencial, até para quem está na área da comunicação social, que é cada vez é mais difícil distinguir aquilo que é verdade daquilo que não é, sobretudo quando interagimos com sistemas que não dizem qual é a referência (…) da fonte da origem daquela informação”, alerta o presidente da APDC – Digital Business Community, em entrevista à Lusa.
Já quando se interage com um motor de busca tradicional, como o Google, por exemplo, este apresenta um “conjunto de respostas e as respostas dizem de onde é que aquilo vem e qual é a fonte”.
Ora, “este sistema não diz qual é a fonte” e como ele “interage connosco de uma forma muito mais natural, nós temos o risco de lhe atribuir a credibilidade, de achar que aquilo por definição é verdade, quando isso não é o caso”, reforça Rogério Carapuça.
Aliás, o próprio ChatGPT já passou em exames da Universidade de Wharton, nos Estados Unidos.
“Tem o risco de as pessoas poderem pensar que se trata de algo que dá sempre respostas certas, isso não é o caso. Ele não só falha, como pode ser manipulado. E, portanto, a questão de saber se algo é verdade ou não é verdade, se nós temos fontes que corroboram aquela resposta ou não vai ser uma questão cada vez mais premente nas nossas sociedades e uma das qualidades que nós temos que desenvolver como humanos e os alunos como alunos”, entre outros, “é precisamente esta validação se aquilo que nos estão a dizer é ou não algo que possamos tomar como verdadeiro”, reforça Rogério Carapuça.
Soluções como o ChatGPT também colocam desafios à comunicação social, já que “com um sistema deste tipo será facílimo gerar notícias automaticamente que podem ou não ser verdade porque ele é muito credível do ponto de vista da interação”.
Por exemplo, as ‘deep fakes’, desinformação que resulta da manipulação de imagens e áudio, em que é possível colocar imagens de uma determinada pessoa, com uma voz semelhante à sua, a dizer coisas que não disse, através de uma voz que foi gerada.
“Cada vez vai ser mais difícil a gente perceber se uma determinada imagem corresponde àquela pessoa ou não, se a pessoa disse aquilo ou não e/ou, neste caso, se este sistema está a dizer algo que é verdade ou não, portanto, a nossa capacidade como humanos, de conseguir entender, distinguir o que é verdade do que não é, será cada vez mais desafiada”, antecipa o presidente da APDC, que antevê que seja “um grande desafio também aos aos jornalistas”.
Com sistemas como o ChatGPT, os jornalistas “terão aqui um bom assistente para produzir” notícias simples como o fecho dos mercados, por exemplo, mas “também há o risco de se escrever uma coisa que nem sequer é verdade”, remata.
Comentários