Este ano registou grandes avanços na área da IA generativa, através das ferramentas ChatGPT e Bard, que representaram investimentos gigantescos – a Microsoft investiu 9,5 mil milhões de euros na OpenAI e a Amazon gastou 3,7 mil milhões de euros na Anthropic – e uma maior atenção dos decisores políticos, de que é exemplo a legislação de regulação da União Europeia ou a ordem executiva do Presidente dos Estados Unidos, que impõe 150 requisitos para as agências federais lidarem com a tecnologia.
Dentro de uma década, estimam especialistas, a IA pode começar a aproximar-se dos padrões de funcionamento da inteligência humana e alcançar a chamada “inteligência geral artificial” (AGI, na sigla em inglês), em que as máquinas teriam a capacidade de entender, aprender e desenvolver qualquer tarefa intelectual que um ser humano possa realizar.
Para já, a vulgarização do novo modelo de linguagem generativa da OpenAI, denominado GPT-4, irá marcar os primeiros meses de 2024, e estão previstos os lançamentos de outros modelos de linguagem de grande dimensão (LLM), como o PaLM2 da Google e o Gopher da DeepMind, subsidiária da Google, treinados com centenas de milhares de milhões de parâmetros.
A futura AGI poderá tecer narrativas complexas ou compor sinfonias, harmonizando várias entradas de conteúdo, como texto, voz, melodias e elementos visuais, numa abordagem que poderá permitir experiências multissensoriais.
Citado num relatório da Universidade de Stanford, o diretor do Laboratório de Economia Digital da universidade, Erik Brynjolfsson, disse esperar que as empresas comecem a promover as primeiras substituições de quadros em 2024, optando por aqueles que mais se adaptam ao novo ecossistema tecnológico e eliminando os cargos redundantes.
A IA “vai afetar os trabalhadores do conhecimento, pessoas que foram largamente poupadas por grande parte da revolução informática dos últimos 30 anos”, como “criativos, advogados, financeiros, entre outros”, que irão ser considerados dispensáveis, avançou Erik Brynjolfsson.
A aplicação da IA “raramente automatizará completamente qualquer trabalho”, mas irá exigir menos recursos humanos, adiantou.
O aumento dos casos de conteúdos falsos de grande sofisticação (‘deepfake’), com segmentação de conteúdo para os cidadãos, constitui uma preocupação para o investigador Venky Harinarayan, principalmente num ano de eleições nos Estados Unidos, a Índia ou o Reino Unido.
Segundo o investigador, são esperados “novos modelos multimodais de grande dimensão, especialmente na produção de vídeos” que serão distribuídos nas redes sociais, com segmentação quase individual, porque é possível categorizar o consumo de cada pessoa.
Isto também irá gerar novos desafios éticos, que exigirão mais medidas de proteção dos cidadãos. A UE já definiu um modelo de regulação abrangente e a Califórnia e o Colorado já aprovaram regulamentos sobre decisões automatizadas no contexto da privacidade do consumidor.
“Embora estes regulamentos estejam limitados a sistemas de IA que são treinados a partir de informações pessoais dos indivíduos ou recolhem essas informações, ambos oferecem aos consumidores o direito de optar por não utilizar a IA em sistemas que tenham impactos significativos, como a contratação ou os seguros”, escreve Jennifer King, especialista da Universidade de Stanford em política de dados.
Finale Doshi-Velez, professora da escola Paulson de engenharia e ciência aplicada da Universidade de Harvard, concorda e vai mais longe: “Há hoje um reconhecimento muito claro de que não devemos esperar que as ferramentas de IA se tornem comuns para nos certificarmos de que são éticas”.
Por outro lado, o volume de informação em causa é de tal modo gigantesco que exige bases de dados e novos processadores especializados em computação gráfica, que terão custos ambientais imediatos devido ao elevado consumo de energia.
Novos recursos em ‘design’ generativo, uma nova geração de ferramentas que permitem aos 'designers' descrever requisitos para obter projetos finais, são também esperados em 2024, a par de novos modelos de programação para IA.
Até 2024, de acordo com um estudo da consultora AIM Research, 40% das aplicações empresariais terão ‘chatbots’ ou interface de linguagem natural com IA nas suas plataformas.
No plano da educação, esperam-se novas ferramentas de resumo de conteúdo de uso comum e os modelos de ensino terão alterar a forma de avaliação porque o uso será generalizado, segundo o mesmo estudo.
Apesar do crescimento exponencial, especialistas sublinham que a IA ainda está longe de adquirir alguma forma de autoconsciência plena que define as condições em que, numa conversa com um ‘chatbot’, um ser humano não conseguirá discernir que está a falar com uma máquina.
Comentários