Um grupo de vários especialistas na área da Inteligência Artificial (IA), académicos, líderes de tecnológicas, juntamente com figuras públicas, partilharam uma carta aberta em que alertam para os possíveis riscos do desenvolvimento da IA.

Para estes especialistas, "mitigar o risco de extinção pela Inteligência Artificial deve ser uma prioridade global ao mesmo nível de outros riscos que ameaçam a sociedade, tais como pandemias e guerra nuclear", sublinham.

A carta foi publicada no site do Center for AI Safety, uma organização sem fins lucrativos sediada em São Francisco, nos Estados Unidos (EUA).

Neste momento, o documento está assinado por 350 figuras proeminentes da sociedade e é feito o convite a que mais gente se junte ao movimento. Entre os subscritores estão três grandes referências de Inteligência Artificial: Sam Altman (CEO da OpenAI, ciradora do ChatGPT), Demis Hassabis (Google DeepMind) e Dario Amodei (Anthropic).

Além destes, também estão envolvidos o investigador britânico Geoffrey Hinton e Yoshua Bengio, que são frequentemente considerados padrinhos do movimento moderno de IA.

O caso de Hinton é relevante tendo em conta que deixou a Google há algumas semanas, onde ocupou a vice-presidência, por acreditar que este tipo de tecnologia pode levar ao fim da civilização em apenas alguns anos, como confessou em declarações ao no início deste mês ao jornal americano New York Times.

Até ao ano passado, o especialista acreditava que a Google agia como um “administrador adequado” da tecnologia, tendo cuidado para não lançar algo que pudesse causar danos. Mas agora que a Microsoft ampliou o seu mecanismo de busca Bing com um chatbot - como forma a desafiar o core business do Google - a Google está a acelerar a implantação do mesmo tipo de tecnologia. Os gigantes da tecnologia estão presos numa competição que pode ser impossível de parar, disse o Hinton.

Como principais perigos salientou que a sua preocupação imediata é que a internet seja inundada com fotos, vídeos e textos falsos, e a pessoa comum “não consiga mais saber o que é verdade”.

Manifestou ainda a preocupação que com o facto de as tecnologias de IA poderem, com o tempo, transformar o mercado de trabalho. Hoje, chatbots como o ChatGPT tendem a complementar os trabalhadores humanos, mas podem substituir juristas, assistentes pessoais, tradutores e outros que lidam com tarefas rotineiras. “Isso elimina trabalho”, disse. “Pode eliminar mais do que isso”, acrescentou.

Preocupa-o também que no futuro as versões da tecnologia representem uma ameaça para a humanidade, porque muitas vezes aprendem comportamentos inesperados com a grande quantidade de dados que analisam. Isto começa a ser um problema, revelou ao jornal, tendo em conta que indivíduos e empresas permitem que os sistemas de IA não apenas gerem o seu próprio código de computador, mas também executem esse código por conta própria, podendo um dia ser "armas verdadeiramente autónomas" e que "robôs assassinos" dos filmes se tornem realidade.

“Apenas alguns acreditaram na ideia de que esta tecnologia poderia ficar mais inteligente que as pessoas”, sublinha. “Mas a maioria das pessoas achou que tal era muito difícil. E eu pensei que era muito difícil. Eu pensei que isso aconteceria daqui a 30 a 50 anos ou até depois. Obviamente, não penso mais assim”.

Avisou ainda que, ao contrário das armas nucleares, não há como saber se empresas ou países estão a trabalhar na tecnologia em segredo. A melhor esperança é que os principais cientistas do mundo colaborem em formas de controlar a tecnologia. “Não acho que eles devam ampliar mais até que tenham entendido se podem controlá-la”, referiu.

Na carta aberta, os especialistas sublinham que "especialistas em IA, jornalistas, legisladores e o público estão a discutir cada vez mais um amplo espectro de riscos importantes e urgentes da IA. Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA ​​avançada. A sucinta declaração abaixo visa superar esse obstáculo e abrir a discussão. Também visa criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA ​​avançada".