Os avanços recentes da Inteligência Artificial (IA), mais concretamente dos chatbots tipo ChatGPT, alimentam manchetes e artigos na comunicação social há meses. Seja pela adesão em massa do público, seja pelo receio do que possa implicar no futuro, seja pela falta de ética de como os modelos são treinados, seja pela necessidade de regulamentação. No entanto, a discussão em torno da IA mudou de tom nos últimos dias após um dos pioneiros da área ter deixado a Google por ter receio que a machine learning supere a inteligência dos seres humanos. Será agora que vamos dar ouvidos aos especialistas e vamos começar a ter mais respeito pela inteligência das máquinas?
Em 2017, a organização Future of Life Institute juntou investigadores, cientistas e legisladores numa conferência para delinear os "Princípios da Inteligência Artificial". A intenção deste encontro passava por estabelecer os mandamentos que nos iam ajudar a evitar aquilo a que um artigo apelidou de "Apocalipse IA”. No final, 23 "princípios" foram criados. Porém, volvidos seis anos, o que aconteceu? O mesmíssimo Future of Life Institute viu-se forçado a publicar, em março, uma carta aberta a pedir uma "pausa", de pelo menos seis meses, no desenvolvimento de novos sistemas de inteligência artificial porque os mandamentos estavam a ser ignorados. Entre os signatários da carta, constam nomes como Elon Musk, fundador da Tesla e da SpaceX, ou Steve Wozniak, cofundador da Apple.
Até ver, não há grandes indícios de que o pedido venha a ser aceite pelas empresas responsáveis pelo desenvolvimento da tecnologia e as questões da carta ("Devemos deixar que as máquinas inundem os nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os empregos, incluindo os que nos satisfazem? Devemos desenvolver mentes não-humanas que possam eventualmente ultrapassar-nos, ser mais inteligentes, obsoletos e substituir-nos? Devemos arriscar perder o controlo da nossa civilização?") devem continuar sem resposta. Sobre isto, a conceituada jornalista e autora Naomi Klein, num extenso mas interessante artigo de opinião, além de acusar os CEOs das grandes tecnológicas de serem eles que estão a "alucinar" (jargão utilizado para definir os "erros" que encontramos nas respostas dadas pelos modelos tipo ChatGPT) e não as máquinas que estão a potenciar, enumera umas poucas razões para que isso aconteça. De forma sumária, Klein salienta que as empresas de Silicon Valley lançam os produtos de forma gratuita com a desculpa de ser "disruptivo", para depois lucrar com ele anos depois — e como já está completamente inserido nas nossas vidas não há maneira de punir os responsáveis, que criaram uma tecnologia à custa do trabalho de outros (i.e, modelos treinados com a arte e imagens de outros criadores). Assim como diz que a IA não vai resolver os problemas climáticos, nem nos vai livrar "dos trabalhos aborrecidos", nem tampouco dar-nos confiança nos líderes das tecnológicas ou dar governos mais justos.
No entanto, ainda que não existam respostas, parece existir uma certeza: a indústria tecnológica continua a estar um passo à frente dos governos e quem está por dentro do assunto a assistir a todo este avanço frenético está a prever que, sem regulamentação e discussão ponderada, a sociedade como a conhecemos hoje pode estar com os dias contados. Ou não estivéssemos num ponto em que a IA já consegue fazer diagnósticos certeiros na saúde, já ganha competições de fotografia sem que o júri humano se aperceba e até já oferece companhia ("que nunca morre, discute ou trai") por 300 dólares. Convém lembrar: isto é apenas o início. E se
- Mas quais são os receios dos especialistas em concreto? A Axios falou com vários - programadores, investigadores e reguladores - e pediu-lhes que descrevessem os seus medos para o futuro próximo. Num resumo, temem:
- O escalar da massificação dos ciberataques e burlas. Com as instruções corretas, as chamadas "prompts", vai ser mais fácil diversificar e concretizar este tipo de ataques; além disso, a IA vai “turbinar” as ferramentas existentes dando aos malfeitores uma oportunidade para aperfeiçoarem os seus esquemas de phishing e fraude. Esqueçam os e-mails mal traduzidos e amanhados, é imaginar um áudio/vídeo com a voz de um familiar aflito a pedir dinheiro.
- A desinformação em modo imparável e indistinguível ao olho humano. À medida que evolui, a IA multimodal — texto, discurso, vídeo — vai ser de tal maneira realista que não vamos saber o que é gerado por IA ou por humanos. Depois, falam ainda na vigilância massificada e na força que pode dar ao totalitarismo. Nas mãos erradas, há especialistas que temem que a democracia não sobreviva.
Tudo isto são problemas conhecidos e a vontade de regular e responsabilizar existe. Ainda no final da semana passada, num artigo de opinião publicado no New York Times, Lina Khan, líder da FTC, a autoridade federal norte-americana equivalente à nossa Autoridade da Concorrência, salientou isso mesmo e até detalhou como o pretende fazer. Na Europa, os legisladores tentam andar para a frente com o AI Act, mas não está fácil porque a tecnologia evolui mais rápido do que a lei.
E é precisamente esta rapidez de evolução que fez com que recentemente se juntasse ao grupo de gente preocupada alguém que sabe uma coisa ou duas sobre inteligência artificial, mais especificamente sobre machine learning: o investigador Geoffrey Hinton. Hinton foi apelidado pela imprensa como sendo um dos três "Padrinhos da IA" e anunciou a sua saída da Google depois de lá trabalhar durante 10 anos. A razão? Queria ter a liberdade de exprimir os seus receios quanto ao rumo que a tecnologia que ajudou a criar está a levar.
- "É preciso imaginar algo mais inteligente do que nós, pela mesma diferença que nós somos mais inteligentes do que um sapo", alertou em entrevista o cientista, de 75 anos, que, em 2018, juntamente com dois colegas (Yoshua Bengi e Yoshua Bengio, dois signatários da carta que pede a pausa no desenvolvido desta tecnologia), foi distinguido com o ACM Turing, o prémio Nobel para os cientistas da computação.
Nessa entrevista, Hinton, além de notar que Bernie Sanders, a Casa Branca e Elon Musk querem a sua atenção, e explicar melhor os motivos que o levaram a sair da Google, o investigador confessou aquilo que o faz “tremer”: a inteligência biológica é diferente da inteligência digital e esta última é “provavelmente muito melhor”. Por outras palavras, o cientista teme que não falte muito para que o machine learning seja mais inteligente do que os humanos.
Ou seja: como sugere o académico irlandês John Naughton no The Guardian, se o facto de mais de 27 mil pessoas - muitas delas conhecedoras do que está em jogo - terem assinado uma carta aberta a pedir uma pausa de seis meses para pensar a IA não for suficiente para captar a atenção geral, se calhar quando se junta a estas vozes a mente que "desbloqueou a tecnologia que agora anda à solta no mundo", talvez devêssemos de começar, realmente, a prestar mais atenção enquanto sociedade à evolução e discussão em torno da IA.
Comentários