"Não vamos construir algo com chips e fios que seja tão próximo da nossa fenomenologia como vacas, ratos ou moscas da fruta. E como não estamos muito preocupados com a fenomenologia das moscas da fruta, também não nos devíamos preocupar tanto com a fenomenologia dos robôs", diz Joanna Bryson, académica que aconselha governos, agências transnacionais e ONG em todo o mundo sobre políticas de Inteligência Artificial.
A investigadora começou a conferência, onde o SAPO24 esteve presente, a dizer, em tom de brincadeira, que nenhuma parte da mesma foi escrita com ChatGPT. Numa discussão sobre se a Inteligência Artificial se pode tornar senciente, soberana ou mesmo ambiciosa, Joanna Bryson desafiou algumas suposições e mitos relacionados com esta tecnologia.
Antes de mais, Joanna começa por explicar que a inteligência está presente em todas as formas de vida. Como tal, quando máquinas, como o ChatGPT, se tornam mais inteligentes, isso não significa que as máquinas estão a ficar mais humanas, porque a inteligência não é exclusiva dos seres humanos.
Para a professora e investigadora, Inteligência Artificial é simplesmente inteligência numa máquina. E mesmo que, no limite, esta evolua ao ponto de não haver uma única capacidade - como a criatividade -, que a distinga dos humanos, Joanna acredita que não faz sentido falar em máquinas como pessoas.
“Se se atribui o mesmo peso moral a algo que pode ser trivial e facilmente replicado digitalmente, como se atribui a um macaco que demora décadas a desenvolver-se, arruinamos tudo - sociedade, ética, valores”. E acrescenta: “Não sei dizer-vos exatamente como é ser-se robô, mas posso dizer-vos que ser uma vaca é muito mais idêntico a ser uma pessoa”.
Para a investigadora “é de loucos” dizer que o ChatGPT4, por exemplo, leu mais do que qualquer ser humano alguma vez conseguirá ler. “Pensar no ChatGPT4 como uma pessoa não faz sentido. Porque não pensar como uma cidade inteira, ou um país inteiro de pessoas?”, questiona. “Se juntarmos os livros que todos lemos, é um número muito maior”.
Sublinha que Inteligência Artificial “custa imenso dinheiro, tempo e energia”, bem como infraestruturas. Isto significa que nunca vai existir, na sua opinião, um algoritmo que perceba tudo perfeitamente. A razão para esta tecnologia ficar tantas vezes perto da verdade não é mística, “é porque há tanta informação”, e a Inteligência Artificial faz simplesmente uma extrapolação baseada no que as pessoas já disseram.
Isto não significa que esta tecnologia é um espelho que reflete passivamente “quem nós somos”, uma vez que consegue “gerar novas ideias, imagens, histórias”. E também não significa que é um papagaio, porque “os papagaios percebem muitas das mesmas cores e sons que nós, da mesma maneira que nós” e são altamente sociais. Para a investigadora, “isso é muito pouco parecido ao que a Google ou a Amazon fazem”.
Com isto, Joanna Bryson pretende mostrar a importância da transparência na Inteligência Artificial, de as pessoas conhecerem e compreenderem o seu funcionamento. Para a professora, só se pode quebrar o misticismo que existe à volta desta tecnologia “expondo como o sistema funciona”.
A conferência surge numa altura de grande discussão à volta da Inteligência Artificial, que deverá tornar-se omnipresente dentro de dez anos, diz o cientista português Tiago Ramalho, antigo engenheiro na Google DeepMind Technologies. Acredita que, dentro de uma década, estará “incluída na maioria dos produtos e serviços” ao ponto de a população mundial já não “imaginar o que é a vida sem” ela.
De acordo com um estudo publicado em março por investigadores da Microsoft, a popularização da inteligência artificial vai afetar profissões sobretudo nas áreas de telemarketing, contabilidade, tradução, ensino e programação.
“Quando há uma transição tecnológica, há sempre pessoas que vão ficar prejudicadas e outras que vão beneficiar”, admitiu Tiago Ramalho, que acredita que “o resultado final tende sempre a ser positivo”.
Alguns cientistas acreditam que uma inteligência artificial com consciência poderá ser outro perigo. Um deles, o engenheiro da Google Blake Lemoine, disse em junho de 2022 que o modelo linguístico LaMDA da gigante tecnológica estava “vivo”.
Para Joanna Bryson, afirmações como esta demonstram “a necessidade urgente de desmistificar a condição humana” pois “se não conseguirmos reconhecer e entender como a Inteligência Artificial funciona - se até mesmo engenheiros especializados podem enganar-se a si mesmos”, então “não temos como nos proteger de produtos negligentes ou malévolos”.
*Pesquisa e texto pela jornalista estagiária Raquel Almeida. Edição pela jornalista Ana Maria Pimentel
*Com Lusa
Comentários