Nick Srnicek, que é professor no departamento de Humanidades Digitais do King’s College London, vai estar em Portugal em 01 de junho, no “Human Entities 2022: A cultura na era da inteligência artificial”, a falar de economia política de IA, em Lisboa.
Em vésperas de ser orador em Portugal, o professor de economia digital explica a importância de se começar a discutir sobre a economia política da inteligência artificial.
“A IA é uma tecnologia que está a sustentar muita da economia do século XXI, vai ser central para os negócios, utilizadores, consumidores, governos”, começa por dizer Srnicek.
“E, neste momento, a IA está a ser detida por cinco ou seis empresas globalmente, o que significa muito poder e muita capacidade para extrair mais e mais dinheiro de pessoas, governos, negócios”, o que “conduz a uma economia e uma sociedade amplamente desequilibrada”, salienta o académico.
Em suma, a IA favorece a concentração de capital, mas não há muito debate sobre o tema.
“Há muito foco no impacto da IA sobre como pode automatizar empregos, que tipos de empregos serão necessários e que impacto isso pode ter na desigualdade”, entre outras coisas, “há também uma quantidade razoável de estudos sobre empresas que podem usar” esta tecnologia, diz.
Mas, “não há muitos estudos sobre quem está a fornecer serviços” de inteligência artificial e, “quando se aprofunda isso”, torna-se claro que “tendem a ser as mesmas ‘big tech’ [gigantes tecnológicas] que dominaram o mundo da tecnologia nos últimos dez anos”, aponta.
Entre as ‘big tech’ estão a Amazon, Google, Microsoft, Facebook, entre outros.
“São estas grandes corporações que estão efetivamente a desenvolver serviços de inteligência artificial, são elas que estão a treinar os modelos nos seus grandes ‘data centers’ [centros de dados], que estão a ‘caçar’ todo esse talento que pode executar e treinar os modelos de IA”, elenca, acrescentando que “são elas que estão a alugar esses modelos de dados a outras empresas”.
Tecnologias sofisticadas como IA “exigem uma enorme quantidade de poder computacional que é controlado” pelas gigantes tecnológicas.
“O tipo emergente de modelo de IA que parecemos ter é que as ‘big tech’ detêm os modelos e o ‘hardware’ que os executa e então alugam a outros”, o que resulta numa “concentração de todo este tipo de riqueza e poder que isso implica”, salienta Nick Srnicek.
Na maior parte das vezes, “a menos que você esteja realmente envolvido no mundo de IA, na construção de modelos de IA, acho que não há muita discussão sobre isso” e esta “é uma das coisas que estou a tentar trazer à luz na minha investigação, que é apontar o domínio contínuo das ‘big tech'” no mundo da inteligência artificial, prossegue o professor de economia digital.
A inteligência artificial “requer enormes quantidades de investimento e poder computacional que só são realmente alcançáveis pelas ‘big tech’ atualmente”, claro que “isso pode mudar, podemos desenvolver diferentes abordagens à IA”, mas, “de momento, acho que não há uma mudança fundamental no capitalismo”, que continua a ser “concentração de riqueza e procura de lucro”, sublinha.
Questionado sobre os riscos, Srnicek destacou três, em que um deles passa pelos grandes modelos de linguagem IA e o preconceito intrínseco neles.
“Por exemplo, a automação dos sistemas de reconhecimento facial e vigilância, a automação de prestação de bem-estar às pessoas através do Estado Social, este tipo de coisas têm viés embutido e temos realmente de estar cientes desse potencial”, este é um dos riscos, aponta.
Outro risco é a “dependência que estamos a construir das ‘big tech’, isso é já o caso de dependência da Amazon, da Google como motor de pesquisa, Facebook para as redes sociais, diz.
“A pandemia acelerou muito isso e, particularmente, quando olhamos para coisas como ‘cloud computing’ [computação na nuvem]”, que fornece infraestrutura e ‘software’ que “sustentam a maioria dos negócios” a nível global.
“Não estamos a falar apenas de negócios pequenos, estamos a falar de Zoom, Netflix, Twitter, estão todos na unidade de ‘cloud’ da Amazon Web Services. Portanto, são grandes empresas de tecnologia que dependem de empresas de tecnologia ainda maiores”, sublinha.
E esta dependência de toda “a sua infraestrutura a ser administrada por outra empresa tem implicações sobre o tipo de renda económica que pode ser extraída de empresas mais pequenas, mas também tem um impacto político”, refere o professor.
“Por exemplo, os governos são dependentes da Amazon Web Services” [por isso] os reguladores estão menos dispostos a “pisar os calos” da Amazon” se souberem que o seu governo e serviços de segurança, onde aponta o caso da NSA, estão dependentes da ‘cloud’” da tecnológica, considera.
Portanto, “há o aspeto económico, a dependência política em que não estão dispostos a regular e o preconceito”, resume, apontando serem questões-chave.
No seu recente livro “Plataform Capitalism”, Nick Srnicek defende a existência de plataformas públicas, o que não quer dizer que sejam necessariamente detidas pelo Estado.
Podem ser detidas “pela autarquia ou por qualquer outro tipo de órgão público”, diz, garantido que esta ideia não quer dizer tomar conta da Google ou Amazon.
Quando estamos a falar de ‘cloud computing’, motores de pesquisa ou de redes sociais, “talvez queiramos que o público tenha a propriedade e a responsabilidade” e algo a dizer sobre estas plataformas, defende.
Atualmente, a União Europeia prepara-se para lançar a Lei dos Mercados Digitais (‘Digital Markets Act’) e a Lei dos Serviços Digitais (‘Digital Services Act’).
“Daquilo que li sobre o seu conteúdo não fala de ‘cloud computing’ e não fala sobre inteligência artificial”, salienta.
Mas há outra lei “à volta da IA também, que está largamente focada, de acordo com o que sei, sobre a ética e a aplicação da IA, em vez da política económica da IA”, lamenta Srnicek.
“A minha preocupação é a crescente dependência destas empresas, nunca é impossível desfazer essa dependência, mas torna-se mais difícil” quanto mais o tempo passa, remata.
Comentários