Joe Biden assinou esta segunda-feira uma ordem executiva que estabelece novas normas e regras para a inteligência artificial. Tal como todas as ordens executivas, "tem força de lei", de acordo com a CNBC.

A ordem tem oito objetivos: criar novas normas para a garantir a segurança nacional; proteger a privacidade dos americanos; promover a equidade e os direitos civis; defender os consumidores, os doentes e os estudantes; apoiar os trabalhadores e promover a inovação e a concorrência; promover a liderança dos EUA nas tecnologias de IA; e, por último, garantir a utilização responsável e eficaz da tecnologia pelo governo.

SUBSCREVA AQUI

E se por agora a ordem visa só o que se passa "em casa", a administração assegura que vai trabalhar com os seus aliados e parceiros para criar uma estrutura internacional "forte" para supervisionar o desenvolvimento e utilização da IA.

O documento com as todas as nuances e detalhes pode ser consultado neste link oficial. Mas pegando no resumo do The Guardian, os pontos que mais se destacam são:

  • As empresas que estão ou venham a desenvolver modelos de IA que possam representar uma ameaça à segurança nacional, à segurança económica ou à saúde e segurança dos norte-americanos, devem partilhar os resultados dos seus testes de segurança com o governo;
  • O National Institute of Standards and Technology (NIST), vai criar orientações para se fazerem testes de segurança. Ou seja, vão criar o guia para que equipas especializadas ("red-team testing") se ponham no papel dos mal-intencionados para se certificarem que as ferramentas não viram o ChatGPT do crime;
  • Serão emitidas orientações oficiais para que exista uma marca de água nos conteúdos produzidos por IA — para reduzir o risco de danos causados por fraudes e deep fakes. Ou seja, vão criar uma maneira de detetar mais facilmente a manipulação de imagens para não criar ou aumentar a confusão nas pessoas;
  • Os direitos civis também foram contemplados. Se há vários anos que estudos ditam que os algoritmos são falíveis e aprofundam preconceitos e discriminação, a ordem executiva quer garantir que isto não acontece. Seja num caso de justiça ou num arredamento de uma casa;
  • Vão ser desenvolvidas novas normas para atenuar a ameaça de os sistemas de IA ajudarem a criar armas biológicas.

Um passo anunciado e pedido

Sobre a medida mais sonante, a que obriga as empresas a partilhar os testes das suas ferramentas com o governo, a Casa Branca explica que é uma maneira de garantir que os sistemas de IA são seguros e fiáveis "antes de as empresas os tornarem públicos". A par, administração vai produzir um relatório sobre os impactos da inteligência artificial no mercado laboral e identificar formas de reduzir os problemas.

Esta ordem executiva vem no seguimento de um acordo voluntário que a administração Biden já tinha alcançado com 15 grandes empresas norte-americanas e é o primeiro grande conjunto de regras estabelecido para regular a tecnologia que muitos acreditar definir o futuro - algo repetidamente pedido por muitos atores ligados à indústria.

Porquê agora? Algumas tecnologias de IA já existem há mais de 50 anos e muitas delas já fazerem parte do nosso quotidiano. Só que graças à explosão de popularidade de ferramentas como o ChatGPT, e à nova capacidade de processamento destes sistemas e aos seus algoritmos cada vez mais eficazes, a IA saltou para a ribalta e tomou conta do panorama diário.

Se a tecnologia tem um potencial tremendo? Tem. Se é capaz de impulsionar áreas que vão da saúde aos negócios? Também. No entanto, também traz riscos. Veja-se o caso da IA não regulada (ao contrário dos medicamentos e outros fármacos) que já entrou em muitos gabinetes médicos norte-americanos e faz diagnósticos. Já para não falar dos direitos humanos e à própria democracia ou até da falta de lei para a responsabilidade — em caso de acidente, quem é responsável pelos danos causados: utilizador, fabricante ou programador? É por tudo isto que se pedia uma atuação rápido dos estados e governos.

E esta segunda-feira, os EUA averiguaram alguns destes problemas através desta ordem executiva. Isto é, deram o primeiro passo nesse sentido. Mas como disse um diretor da Federação dos Cientistas Americanos ao Politico, falta agora ver quem é que vai pagar a implementação destas novas regras e depois averiguar como é que se vão pôr em prática. De acordo com a ordem executiva, as novas diretrizes terão de ser executadas num prazo de 90 dias a um ano.

Na Europa, também já se trabalha há algum tempo para fazer o mesmo, tendo a Comissão Europeia proposto o primeiro quadro regulamentar da União Europeia (UE) para a IA já em 2021. Mais recentemente, em junho, o Parlamento Europeu adotou a sua posição de negociação sobre a legislação em matéria de inteligência artificial, sendo esperado que em breve os países da UE discutam a forma final da lei.