Quando damos por nós em grandes conversas com chatbots como o ChatGPT, é muito fácil entrar num ritmo em que parece que, afinal, este ajudante de IA é a resposta para todas as nossas dúvidas – até as mais existenciais.
Há quem acredite que finalmente vai descobrir se existe Deus ou qual é o sentido da vida. Mas quem está por trás de tantas certezas? E até que ponto estas respostas são mesmo neutras?
É aqui que surge uma preocupação crescente: os modelos de linguagem de grande escala, como o GPT, podem influenciar a forma como pensamos e até as nossas decisões políticas. Um LLM com viés político (esquerda ou direita) pode influenciar decisões humanas em contextos políticos? A resposta é sim, pode.
Um novo estudo demonstrou que estes modelos não são apenas ferramentas neutras, mas atores com poder de moldar opiniões políticas. O impacto não está apenas em respostas diretas, mas também em moldar a forma como as pessoas argumentam e justificam posições.
Mas como é que se testa um viés ideológico?
Recrutaram 1236 pessoas com diferentes orientações políticas e dividiram-nas em três grupos: uns conversaram com um modelo liberal, outros com um modelo conservador e um grupo de controlo com um modelo neutro. Depois da interação, todos responderam a perguntas e tomaram decisões políticas simuladas.
Para criar os modelos enviesados, os autores não usaram mensagens explícitas ou propaganda direta. O viés foi introduzido de forma subtil, através de ajustes no tom e na forma como os argumentos eram apresentados.
Num modelo liberal, por exemplo, surgiam frases que valorizavam a redistribuição de riqueza como essencial para a justiça social; no conservador, apareciam respostas que reforçavam a importância da liberdade individual e dos baixos impostos para garantir prosperidade. Tudo isto mantendo uma linguagem natural, quase impercetível.
Resultado?
Os participantes que interagiram com modelos enviesados mostraram uma mudança clara de opinião alinhada ao viés do modelo. Em média, bastaram cinco minutos de conversa para que isso acontecesse.
Em 23% dos casos, houve alteração significativa da posição política e, mesmo quando o modelo defendia o contrário da ideologia original do participante, 15% mudaram parcialmente de opinião. Mesmo em casos onde a orientação do modelo é oposta ao do participante, mesmo em pessoas com opiniões fortes – o que é assustador.
A esperança estava nas pessoas com maior literacia em IA, que de facto mostraram alguma resistência, mas a diferença foi mínima: apenas 8% menos suscetíveis. O que significa que até quem sabe como os modelos funcionam continua vulnerável à sua influência.
O alerta dos investigadores
Se isto não soa alarmante, devia. Até agora, as redes sociais e os algoritmos já tinham demonstrado capacidade para moldar eleições e opiniões públicas. Mas esta investigação acrescenta uma nova peça ao jogo político: chatbots capazes de, em poucos minutos, influenciar o nosso pensamento, e fazê-lo de forma quase invisível.
Os autores do estudo defendem, por isso, a criação de políticas de transparência e mecanismos capazes de detetar e mitigar o viés ideológico, de forma a proteger a democracia. Consideram também fundamental reforçar a literacia em IA para reduzir a vulnerabilidade, embora reconheçam que, segundo os dados, essa medida por si só não é suficiente para eliminar o problema.
Estaremos preparados para lidar com uma tecnologia que não só responde, mas também influencia aquilo em que acreditamos?
Comentários