Ainda em negociação pelas empresas, o chamado "acordo" sobre "deepfakes" (representações ultrarrealistas com IA) e outros conteúdos perigosos está pronto para ser anunciado na sexta-feira durante a Conferência de Segurança de Munique.

"Num ano crítico para as eleições globais, as empresas de tecnologia estão a trabalhar num acordo para combater o uso malicioso da IA que visa os eleitores", disse um porta-voz da Meta em comunicado por e-mail à AFP nesta terça-feira.

"Adobe, Google, Meta, Microsoft, OpenAI, TikTok e outros estão trabalhar juntos para alcançar este objetivo compartilhado", acrescentou.

Segundo o The Washington Post, que primeiro informou sobre a existência do projeto, as empresas procuram desenvolver formas de identificar, rotular e controlar imagens, vídeos e áudios gerados por IA que buscam enganar os eleitores.

A ideia surge num momento em que as grandes empresas de tecnologia enfrentam fortes pressões devido aos temores sobre o mau uso que certas aplicações com IA despertam num agitado ano eleitoral.

Meta, Google e OpenAI já concordaram em usar uma marca d'água padrão que rotula imagens geradas pelos seus aplicativos, como ChatGPT, Copilot e Gemini (antes Bard).

Exemplos recentes de "deepfakes" convincentes com IA aumentaram a preocupação com o fácil acesso a essa tecnologia.

No mês passado, uma chamada telefónica automática que se passava pelo presidente dos Estados Unidos, Joe Biden, chegou a dezenas de milhares de eleitores com uma mensagem pedindo às pessoas para não votarem nas primárias de New Hampshire.

Já no Paquistão, o partido do ex-primeiro-ministro Imran Khan usou a IA para gerar discursos em nome do líder encarcerado.