Uns louvam as suas potencialidades para aumentar a produtividade, outros temem que vá eliminar vários postos de trabalho. No entanto, a tecnologia não está a mexer com o quotidiano de amanhã e do futuro — já mexe no de hoje. Tanto que a capacidade das novas ferramentas Generative AI está a ocupar muito do foco do que hoje encontramos nas secções de tecnologia dos media. (Chega até a parecer que nada mais acontece na indústria!) Porém, não admira que assim seja: o seu potencial é tão grande e vasto que há receios do que possa representar no nosso futuro. E ainda que o ChatGPT só tenha aparecido no final do ano passado, chegou a todo o vapor e veio alimentar o debate das implicações da Inteligência Artificial (IA) no mercado de trabalho, bem como levantar uma série de questões sobre ética e de perigos.
Note-se que estes perigos a que fazemos referência são reais e já acontecem no presente; não são do tipo de perigos oriundos da ficção científica em que a maquinaria quer controlar a humanidade. Os que aqui referimos mexem com a vida das pessoas e podem ser bem mais graves do que se possa pensar. Basta prestar atenção ao que se está a passar na Austrália, onde pode estar a nascer a primeira ação judicial por difamação do mundo devido a declarações do ChatGPT.
A história: Brian Hood, Presidente da Câmara de Hepburn Shire Council, um pequeno município com 16 mil habitantes do estado de Victoria (no sudeste australiano), alega que a ferramenta da OpenAI escreveu que tinha sido preso há 20 anos por ter estado envolvido num caso de corrupção numa filial do banco nacional da Austrália. O escândalo, segundo a BBC, é real e Hood esteve de facto envolvido no processo; mas Hood não só não cometeu qualquer infração como na verdade foi o delator que ajudou a expor os verdadeiros criminosos — sem nunca ter sido acusado de nada. Ou seja, o ChatGPT fabricou factos falsos que podem ter consequências para a vida de Hood.
Porque é que isto é importante?
Porque levanta e traz à tona uma série de questões. Para começar, pode-se sequer ser difamado por alguém que não é, bom, uma pessoa? Ou faz sentido processar um chabot na primeira instância? Ou devem as empresas como a OpenAI ser responsabilizadas pelas coisas comprovadamente falsas que os seus chatbots insinuam, ainda que aleguem não conseguir controlar os triliões de dados de uma “ferramenta em testes”? Está tudo tudo tão no início, que ninguém sabe responder ao certo. Nem peritos, nem legisladores. Mas é claro que há urgência em começar a debater a matéria.
Este artigo da TechCrunch explica o que está em causa da melhor maneira. Embora processar um chatbot por dizer algo falso possa parecer ser uma tolice, os chatbots não são o que eram — são muito mais evoluídos. Mais: com algumas das maiores empresas do mundo a integrá-los nos seus motores de busca, estes já não são meros brinquedos para ajudar a fazer o TPC para a escola, mas são sim uma ferramenta utilizada regularmente por milhões de pessoas.
Note-se, o caso do autarca Hood não é o único. Segundo a Business Insider, o ChatGPT inventou recentemente um outro escândalo, este de assédio sexual, que envolveu Jonathan Turley, um advogado e professor de Direito na Universidade George Washington, citando um artigo inexistente do The Washington Post como prova para as suas alegações (tendo posteriormente o The Washington Post publicado um artigo a explicar a situação). De acordo com o chatbot, o professor havia feito comentários e tentativas de avanços a uma aluna durante uma visita de estudo ao Alaska. O problema? A visita nunca aconteceu e a notícia não existe. A única parte real é o nome e o professor — e, claro, as consequências, que podem ser graves para o acusado.
IA: veio para ficar
Há uns tempos, o conteúdo criado por estes modelos de IA mais antigos não era suficientemente bom para ser confundido com a realidade (texto ou fotografias), levando a que todas estas questões éticas fossem vistas como mero tópico a ser debatido pelos académicos. Porém, a realidade de hoje é outra. A Generative AI evoluiu para uma coisa que já consegue criar algo que o ser humano não consegue dizer se é gerado por uma máquina ou se é real. Dois exemplos recentes:
- A fotografia do Papa Francisco com um casaco branco passa bem por verdadeira e soltamos um riso ou outro sem ligar muito (apesar de um olhar atento permitir perceber que é gerado por IA); e não é difícil partilhar ou seguir em frente num scroll no telemóvel sem duvidar do que vimos porque nos aparenta ser real.
- Esta nova música com a voz do rapper Jay-Z foi totalmente criada por IA e é só um episódio do que esta tecnologia pode vir a fazer no futuro. Repare-se: este é um caso que envolve “apenas” a voz (e os maneirismos) do marido de Beyoncé, mas há o mesmo a passar-se no vídeo. Tanto que a startup que viralizou por criar deepfakes com a cara de Tom Cruise, recomenda que as celebridades registem legalmente… o seu look!
Como frisa o artigo da TechCrunch, a natureza destas ferramentas/modelos não quer saber da verdade; só quer saber se parece ou não real. E é por isso que este caso de difamação é importante, ainda que ninguém saiba muito bem como vai decorrer o caso se chegar aos tribunais — é que tudo é novo. Assim como vai ser interessante perceber como é que as gigantes tecnológicas vão reagir aos seus desenvolvimentos. Vão fingir que tomam decisões para continuar a investir em algo que as pessoas aderiram em massa e que agrada a quem injeta dinheiro ou vão assumir uma posição de responsabilidade pelo que estão a criar?
É importante saber porque os insiders em Silicon Valley já se pronunciaram: se há dúvidas quanto à adoção global das criptomoedas ou da concretização do sonho de uma sociedade descentralizada, não as há quanto à revolução da IA. Esta última veio para ficar.
Comentários