Segundo o dicionário online da Priberam, é definida como o “Estudo do espaço de proximidade ou distância entre indivíduos, nomeadamente do ponto de vista comportamental, cultural ou social.”

De repente, a proxémica ganhou relevância nas nossas vidas, ainda que não tanto como análise da distância física mantida entre indivíduos devido a causas sociais e culturais, mas sobretudo por causa de alterações na prescrição dessa distância em resultado da nova realidade social em que vivemos.

Vários investigadores em robótica lidam há muitos anos com a proxémica, como suporte ao desenvolvimento de robôs sociais. Paradoxalmente, sendo os robôs representados no imaginário público como máquinas desprovidas de capacidades sociais, vivemos momentos em que, por um lado, os robôs se tornaram apetecíveis em cenários onde o distanciamento físico necessário entre humanos é importante (hospitais, restaurantes), mas por outro lado aumentou a importância de, nesses como noutros cenários, se comportarem de forma socialmente aceitável pelos humanos com quem interagem.

Há muitas formas de um robô, ou um conjunto de robôs, apresentar um comportamento social. De robôs ligados à automação em fábricas, ou ao desempenho de tarefas em locais onde a interação social com humanos é irrelevante, como a limpeza de um espaço ou a monitorização de intrusões através da cerca de uma propriedade, esperam-se decisões que maximizem a eficiência, podendo ser opacas desde que resultem e que tenham um efeito imediato. Já um robô social pode tomar decisões apenas satisfatórias, ainda que não ótimas segundo critérios de eficiência, deve interagir mais do que agir, deve conseguir explicar as suas decisões, e deve procurar que o impacto das suas decisões contemple sobretudo os efeitos a mais longo prazo, no contexto de uma relação prolongada. Para tal, é necessário que o robô não lide com os humanos como lida com outros objetos no meio envolvente, mas antes os leve em conta de forma explícita, colaborando com eles bilateralmente — por exemplo, os Co-Bots não se limitam a ajudar os humanos, podendo eles próprios pedir ajuda a um humano quando não têm capacidade para resolver um problema (“por favor chame o elevador” – pede um robô sem braços nem mãos a uma pessoa que aguarda com ele no átrio do elevador).

Como se concretiza tudo isto num robô social? Por exemplo, quando um robô não social se move entre duas salas numa casa, executa uma cadeia de controlo em que estima a sua localização na casa e determina os comandos de velocidade para se dirigir em direção à sala de destino. O percurso é realizado levando em conta a proximidade de objetos e pessoas detetadas como obstáculos, dos quais o robô se deve desviar. Já um robô social distingue os humanos de obstáculos com os quais não tem deveres de socialização. Por exemplo, um robô não se aproxima por trás de uma pessoa a quem vai colocar uma questão, nem se atravessa entre a televisão e o sofá onde está uma pessoa sentada a ver um filme. Para garantir estas regras sociais, um robô integra regras de proxémica no seu algoritmo de determinação dos comandos de movimento, por exemplo considerando como espaço proibido aquele que fica entre um sofá ocupado e um monitor de televisão ligado.

A utilização de regras sociais em robótica não se limita às decisões de movimento. Quando toma decisões sobre a repartição de tarefas com um humano, ou de como coordenar as suas ações com os humanos com os quais interage, o robô tem que utilizar regras, conhecidas na literatura como de atribuição de tarefas, ou sincronização e trabalho de equipa, que podem ou não incluir normas sociais. Por exemplo, um coletivo de humanos e robôs podem utilizar mecanismos de mediação da sua interação inspirados em instituições. Uma instituição pode ser vista em sentido lato com um artefacto (suponhamos uma rotunda) com uma componente material (uma rotunda é um obstáculo no meio de uma estrada que deve ser evitado pelos veículos) e uma componente mental (regras de condução que indicam que todos os veículos devem contornar a rotunda sempre por um dos lados). Nesse sentido, a instituição pode ser usada como artefacto de mediação entre robôs, facilitando a sua coordenação; por exemplo, veículos autónomos seguindo o Código da Estrada para contornar uma rotunda sem acidentes. Se as regras institucionais utilizadas pelos robôs forem regras sociais usadas por humanos, então essas instituições podem mediar convenientemente a interação entre humanos e robôs, de forma semelhante ao que fazem só entre humanos as instituições tradicionais, como o Parlamento ou os Tribunais.

No entanto, a cooperação (entre robôs ou entre robôs e humanos num coletivo) exige mais do que a simples coordenação. Para além desta, deve existir trabalho de equipa. Este pode ser formalizado através da obrigação, por qualquer elemento da equipa, de informar os seus colegas quando o objetivo da mesma foi atingido, quando percebe que o objetivo é inatingível, ou quando este se tornou irrelevante. As regras de trabalho de equipa transformam-se em regras sociais quando os objetivos da equipa envolvem humanos. Sabemos bem disto quando combinamos com amigos um encontro, por exemplo para almoçar num dado local. Caso nos atrasemos, coordenamo-nos com os outros através de um telefonema informando-os do nosso atraso. Mas só estamos a agir de forma sociavelmente aceitável e cooperativamente se, além disso, nos comprometermos a avisar os restantes que acabámos de chegar e o restaurante está fechado, ou que foi resolvido por alguns que o almoço fica sem efeito. Neste caso estamos a cooperar e a ser sociáveis. Os robôs podem cumprir estas regras por exemplo através de comunicação sem fios entre si ou, por voz ou envio de emails, com os humanos.

As equipas de robôs e humanos que cooperam para atingir determinados objetivos úteis são hoje tópicos mais ativos na investigação em robótica do que o desenvolvimento de robôs que substituem humanos na realização de tarefas com o objetivo único de precisão e eficiência, sendo pouco sociais na interação com eles. Algum deste trabalho, sobretudo quando envolve equipas com múltiplos robôs e humanos, tem parte da sua origem na investigação em robótica de enxame (swarm robotics), onde se estuda como populações com um número elevado de agentes robóticos, com comportamentos individualmente limitados e simples, podem exibir comportamentos de equipa complexos, através do uso de regras de interação entre membros da equipa. Um dos casos mais conhecidos são as regras que o investigador Craig Reynolds criou para a simulação de criaturas artificiais que designou como Boids, cujo comportamento, seguindo essas regras, se assemelha ao de bandos de pássaros e cardumes de peixes. É um exemplo mais de interdisciplinaridade entre a robótica e outras áreas do saber, aqui focado na Biologia. Frequentemente, investigadores dessas áreas usam robôs bio-inspirados para testar hipóteses científicas que não podem testar em animais. Na Robótica Social essa interdisciplinaridade estende-se às Ciências Sociais, ou à Psicologia, e sistemas com múltiplos robôs começam a ser usados para testar algumas hipóteses caracterizadoras das sociedades humanas.

Porque o seu tempo é precioso.

Subscreva a newsletter do SAPO 24.

Porque as notícias não escolhem hora.

Ative as notificações do SAPO 24.

Saiba sempre do que se fala.

Siga o SAPO 24 nas redes sociais. Use a #SAPO24 nas suas publicações.