A Comissão Europeia deve votar em Fevereiro um conjunto de recomendações para ter um quadro legal e ético no uso de robôs civis. Nos EUA, o Institute of Electrical and Electronics Engineers (IEEE) colocou em análise pública um outro documento para "encorajar os tecnólogos a darem prioridade às considerações éticas na criação de tecnologias autónomas e inteligentes".

As preocupações actuais com a ética na robótica e nos sistemas ditos "inteligentes" surgem mais de 60 anos após a primeira conferência sobre inteligência artificial (IA), organizada em 1956, porque estão a disseminar-se a uma rápida velocidade, atingindo praticamente todos os sectores da sociedade, com impactos reais na vida das pessoas - incluindo no local de trabalho, onde podem ser substituídas pelos "robo-trabalhadores".

Em "The Promise of Artificial Intelligence", publicado pelo Center for Data Innovation em Outubro passado, os autores Daniel Castro e Joshua New listam 70 aplicações onde a IA já está a ter um impacto concreto, das acessibilidades e da agricultura aos transportes. A lista apenas contempla o que chamam de "IA fraca", capaz de fazer tarefas básicas, mas os autores salientam que é no lado da "IA forte" - ou da inteligência geral artificial (AGI, de "artificial general intelligence") - que se colocam os "medos distópicos", como a eliminação dos postos de trabalho, gerados pela "noção de que os AGI são viáveis, iminentes e incontroláveis".

Do lado da robótica, os números são igualmente impressionantes. Até 2019, o número de robôs industriais em funcionamento deve crescer para 2,9 milhões, mais de um milhão de unidades do que as registadas em 2015, com ênfase nos sectores automóvel, eléctrico/electrónica e metalúrgico/maquinaria. No ano passado, calcula-se que tenham sido instaladas 290 mil novas unidades, segundo dados da International Federation of Robotics (IFR).

Em 2015, foram vendidos cerca de 5,4 milhões de robôs para uso pessoal ou doméstico, 16% mais do que em 2014, ainda segundo a IFR.

Para esta organização, "os enormes programas de automação com robôs têm um efeito positivo no emprego, não apenas nos EUA. No sector automóvel alemão, o número de empregados cresceu em paralelo com o crescimento da automação robótica", com um aumento médio de 2,5% entre 2010 e 2015, enquanto o número de robôs industriais cresceu 3%.

Esta não é uma opinião unânime, com uma fractura entre os que acreditam nela e os que defendem que mais robôs equivalem a um maior desemprego.

Robôs a pagar segurança social

O documento do Parlamento Europeu para a Comissão Europeia aponta que, "neste momento, a humanidade se encontra no limiar de uma era em que robôs, 'bots', andróides e outras manifestações de IA, cada vez mais sofisticados, parecem estar preparados para desencadear uma nova revolução industrial, que provavelmente não deixa nenhuma camada da sociedade intacta".

Se o desenvolvimento da robótica e da IA pode substituir muito do trabalho actualmente realizado por humanos, suscita "crescentes apreensões sobre o futuro do emprego e a viabilidade dos sistemas de segurança social, se a actual base de fiscalidade for mantida, criando o potencial para uma maior desigualdade na distribuição da riqueza".

O documento "insta a Comissão a começar a controlar mais de perto as tendências laborais, com especial ênfase para a criação e a perda de empregos nos diferentes domínios/áreas de qualificação, a fim de saber em que domínios estão a ser criados empregos e quais os que estão a destruir empregos em consequência de uma maior utilização de robôs". Tendo em conta esses efeitos, "deve ser ponderada a eventual necessidade de introduzir requisitos" para taxar as empresas "na proporção do contributo da robótica e da IA nos resultados económicos" das mesmas, "para efeitos de tributação e de contribuições para a segurança social".

A taxação das empresas passa pela obrigatoriedade destas revelarem o número de robôs que utilizam, "as poupanças efectuadas em contribuições para a segurança social com a utilização de robótica em vez de recursos humanos" e, por fim, "a avaliação do montante e da percentagem de receita das empresas decorrentes da utilização de robótica e de IA".

Em paralelo, "à luz dos possíveis efeitos no mercado de trabalho da robótica e da IA, deve ser ponderado seriamente um rendimento básico generalizado e convida todos os Estados-Membros a fazê-lo".

Quem é responsável pelas acções dos robôs?

O Parlamento Europeu preocupa-se igualmente com os sistemas de IA autónomos, incluindo os veículos, salientando que caso "os robôs se tornem ou sejam auto-conscientes, as leis de Asimov têm de ser perspectivadas como sendo direccionadas aos criadores, produtores e operadores de robôs". Estas leis ou princípios, apontados por Isaac Asimov no texto "Runaround" de 1942, dizem que:

1) Um robô não pode magoar um ser humano ou, por inação, permitir que tal aconteça;

2) Um robô tem de obedecer às ordens dos seres humanos, excepto quando tais ordens entram em conflito com a primeira lei;

3) Um robô tem de proteger a sua própria existência desde que tal protecção não entre em conflito com a primeira ou com a segunda lei.

Há ainda um outro princípio, adicionado posteriormente mas que antecede as três leis, segundo o qual um robô não pode magoar a humanidade ou, por inação, permitir que tal aconteça.

No actual quadro jurídico, como "os robôs não podem ser responsabilizados por si só pelas acções ou omissões que causam danos a terceiros", essa responsabilização pode ser atribuída "a um agente humano específico, tal como o fabricante, o proprietário ou o utilizador".

É neste sentido que a instituição pretende agir, com a criação de um sistema de registo de robôs avançados numa nova agência europeia para a robótica e a IA, estabelecer "um quadro ético orientador para a concepção, produção e utilização de robôs", bem como códigos de conduta para os engenheiros de robótica e para os comités de ética de projectos de investigação nestas áreas.

Em paralelo, perante o vazio legal, pretende-se avançar com um sistema de seguros obrigatórios semelhante ao existente para os automóveis. Esta "possível solução" seria assegurada pelo produtor dos mesmos, "complementado por um fundo [de compensação] para garantir que possa ser efectuada a reparação de danos para os casos não abrangidos por qualquer seguro".

A Comissão deve ainda elaborar "critérios para uma 'criação intelectual própria' em relação a obras" realizadas por computadores ou robôs e que possam ser protegidas por direito de autor, no âmbito da criação de "um estatuto jurídico específico para os robôs, de modo a que, pelo menos, os robôs autónomos mais sofisticados possam ser determinados como detentores do estatuto de pessoas eletrónicas com direitos e obrigações específicos".

Os novos responsáveis de valores éticos

Perante esta visão mais legal, o mundo anglo-saxónico contrapõe um mercado mais livre. No Reino Unido, o Science and Technology Committee governamental publicou recentemente o relatório "Robotics and artificial intelligence" onde defende ser demasiado cedo para impor regulação sectorial, embora com o apelo a um imediato "escrutínio cuidadoso das dimensões éticas, legais e societais" dos sistemas de IA. Este passa pela criação de uma Commission on Artificial Intelligence para estabelecer princípios no desenvolvimento da IA e propor recomendações ao governo.

Por seu lado, a universidade norte-americana de Stanford considera no estudo "Artificial Intelligence and Life in 2030", que "as tentativas para regular a 'IA' em geral seriam equivocadas, uma vez que não há uma definição clara da IA (não é uma coisa), e os riscos e as considerações são muito diferentes em domínios diferentes". Em alternativa, deve-se "reconhecer que em vários graus e ao longo do tempo, várias indústrias necessitarão de regulações distintas e apropriadas", cabendo aos governos, com o apoio de "conhecimentos especializados", examinar "as normas e a tecnologia desenvolvida pelos sectores público e privado e elaborar regulamentações quando necessário".

Numa posição contrária à eliminação dos empregos, os autores do estudo recordam que a IA e a robótica podem ter um impacto em sectores onde é "difícil contratar jovens trabalhadores, como a agricultura, processamento alimentar, centros de atendimento e fábricas".

Também o IEEE, no documento "Ethically Aligned Design"e que está em debate público até Março, considera que "o processo de utilização de múltiplas abordagens éticas" deve colocar "o respeito pelos indivíduos acima do crescimento exponencial" económico. Serão as organizações com valores a terem um maior apoio dos utilizadores. Por exemplo, "a IA e os sistemas autónomos que dirigem a economia algorítmica têm acesso generalizado aos nossos dados [pessoais], mas permanecemos isolados dos ganhos que poderíamos obter a partir das percepções derivadas das nossas vidas".

O IEEE propõe a criação nas organizações do cargo de responsável de valores ("chief values officers" ou CVO), apontados a "profissionais de marketing de nível superior, especialistas em ética ou advogados que possam implementar pragmaticamente um projecto alinhado eticamente". Mas considera que este cargo não deve ser isolado, devendo todos os membros de uma equipa de inovação agirem responsavelmente no processo de criação dos produtos.

Os impactos podem igualmente fazer-se sentir na vida pessoal. Na recente conferência "Love and Sex with Robots", o autor David Levy antecipou que o casamento entre humanos e robôs pode ser legal em 2050. Mesmo Oliver Bendel, professor da universidade suíça de Ciências Aplicadas e Artes, apesar de não estar convencido de que os robôs venham a ter direitos e deveres, afirmou que este tipo de união pode vir a ocorrer por "pressão pública".

Também por isso, considerar os robôs como "personalidade electrónica" pode ter um impacto futuro nestas questões mais... sentimentais?