Na Europa, foi já aprovada o pacote de regulamentação para o setor, mas esta legislação só tem efeito daqui a dois anos, o que Moniz Pereira entende ser um problema, a que se soma ausência de mecanismos de controlo.

“Qualquer empresa, qualquer programador pode desenvolver ferramentas que podem causar danos muito grandes”, afirmou à Lusa, salientando que o mundo também não está atento ao impacto social, quando grandes fatias de trabalho forem entregues a instrumentos de IA.

“Há uma falta de previsão em relação a consequências [da IA] e estou a pensar especificamente em consequências sobre o desemprego e o subemprego”, observou o diretor do Centro de Inteligência Artificial na Universidade Nova de Lisboa e autor do livro Máquinas Éticas.

Os “governantes e outras entidades dizem: acabam uns empregos, mas criam-se outros, mas isso não está estudado” e “não está a ser feito um estudo sobre quais são [as consequências], em que quantidade e com que probabilidade”, salientou.

A “filosofia da nossa época, o que interessa, é ganhar mais dinheiro, mais negócio, ganhar o mais possível e é a ganância” e a IA vai permitir o surgimento de novos protagonistas, com um impacto social grande, considerou.

Por outro lado, disse, há muitos países que não têm ferramentas desenvolvidas e podemos assistir a “um novo colonialismo de informática e, especificamente, de Inteligência Artificial”, com a redução de línguas locais ou idiomas menos falados.

Por muito extraordinária que a tecnologia seja, ainda só existem “coisas básicas”, porque, a médio-prazo, a IA vai substituir grandes fatias da população, previu.

A IA “entra no nível cognitivo”, algo que “é novo até em relação a revoluções industriais anteriores” e quebra uma área que “ainda é do monopólio humano”, explicou o responsável do Centro de Inteligência Artificial na Universidade Nova de Lisboa.

No futuro próximo, “esse monopólio vai ser substituído por máquinas” e, mesmo que as pessoas tenham formação, o numero de novos empregos será inferior aos que forem extintos.

Além disso, “quem é que vai monitorar a aplicação da legislação?” – questionou, salientando que entregar essa responsabilidade a mecanismos privados poderá ser um problema.

Elon Musk planeia construir maior supercomputador da história para a sua empresa de IA
Elon Musk planeia construir maior supercomputador da história para a sua empresa de IA
Ver artigo

Além disso, o pacote legislativo europeu “prevê que, em cada país, se crie uma comissão de monitorização” e, nesse capítulo, Portugal está já atrasado.

“Em Portugal ainda não foi nomeada essa comissão, embora noutros países já tenha sido”, lamentou, considerando: “nós não podemos estar simplesmente à espera de que a Europa nos diga o que fazer, também temos obrigação de contribuir para a opinião europeia”.

Por outro lado, o docente emérito da Universidade Nova julga que a regulamentação deve ser “mais apertada”.

“Eu temo que possa haver tragédias", por falta de regulação, avisou, salientando que o crescimento está a ser exponencial e o legislador não está atento ao problema.

O que está a ser feito na regulação

O parlamento europeu aprovou em março o primeiro grande conjunto de regras para supervisionar os avanços da tecnologia que tem estado nas bocas do mundo.

Em dezembro, a União Europeia (UE) já tinha conseguido o consenso necessário para avançar com o AI Act, mas só agora foi aprovado numa sessão em plenário, com 523 votos a favor, 46 contra e 49 de abstenção.

Em traços gerais, segundo os legisladores do parlamento europeu, o AI Act visa proteger “os direitos fundamentais, a democracia, o Estado de direito e a sustentabilidade ambiental da IA de alto risco, ao mesmo tempo que promove a inovação e estabelece a Europa como líder neste domínio”.

“A inteligência artificial já faz parte da nossa vida quotidiana. Agora, também fará parte da nossa legislação”, escreveu nas redes sociais a presidente do Parlamento Europeu, Roberta Metsola.

O AI Act começou a ser idealizado em 2021, mas foi atualizado para acomodar o aparecimento de novos sistemas de inteligência artificial generativos, como o ChatGPT. Em termos simples, o regulamento tem uma abordagem baseada no risco, dividida em quatro categorias de risco:

  • Risco Inaceitável (em casos em que a IA manipula o comportamento humano ou explora as vulnerabilidades das pessoas);
  • Risco Elevado (todos os sistemas de identificação biométrica à distância são considerados de alto risco e estão sujeitos a requisitos rigorosos, por exemplo);
  • Risco limitado (refere-se aos riscos associados à falta de transparência na utilização da IA, como no caso das deep fakes, obrigando os agentes tipo OpenAI a ter que dar a garantia de que os conteúdos gerados pela sua IA são devidamente identificados como tal);
  • Risco Mínimo (aplicações ou plataformas para aplicar IA no gaming ou filtros de spam, por exemplo, são consideradas de baixo ou nenhum risco).

Artigo da Lusa editado com informação complementar por MadreMedia