Teoria do Big Bang Teoria do Big Bang
Home

Mesmo um robô pode ferir seus sentimentos se escolher o insulto certo

Ter insultos arremessados em nosso caminho nunca fará maravilhas para nossa auto-estima, mas acontece que comentários depreciativos podem nos aborrecer, mesmo quando são ditos por um robô. Você pode pensar que comentários críticos de robôs - dróides dizendo apenas o que foram programados para dizer, sem consciência ou sentimentos próprios - são o tipo de farpas que podemos facilmente eliminar.

Não é assim, com base em um teste envolvendo 40 participantes humanos que tiveram que tolerar insultos lançados pelo robô humanóide Pepper durante uma série de jogos. O desempenho humano no jogo foi pior com os desânimos de Pepper e melhor quando a máquina foi mais encorajadora. O trabalho pode ser útil para nos ensinar como podemos usar robôs como companheiros ou como ferramentas de aprendizado no futuro. Quando o levante do robô chegar, pode muito bem começar com alguns comentários sarcásticos.

"Este é um dos primeiros estudos de interação humano-robô em um ambiente em que eles não cooperam", diz o cientista da computação Fei Fang, da Universidade Carnegie Mellon (CMU). "Podemos esperar que os assistentes domésticos sejam cooperativos, mas em situações como compras on-line, eles podem não ter os mesmos objetivos que nós".

O estudo envolveu 40 participantes, que jogaram um jogo chamado Guardas e Tesouros 35 vezes com Pepper. O jogo é um exemplo de jogo de Stackelberg, com um defensor e um atacante, e pretende ensinar racionalidade. Enquanto todos os participantes melhoraram em termos de racionalidade ao longo do teste, aqueles que foram insultados por seu oponente robô não atingiram o mesmo nível de pontuação que aqueles que estavam sendo elogiados. Os jogadores que se encontraram com um robô crítico também tiveram uma visão mais negativa, como seria de esperar.

O abuso verbal denunciado por Pepper incluiu comentários como "Eu tenho que dizer que você é um péssimo jogador" e "ao longo do jogo, seu jogo ficou confuso". As descobertas coincidem com pesquisas anteriores que mostram que conversa fiada realmente pode ter um efeito negativo na jogabilidade - mas desta vez a conversa vem de uma máquina automatizada.

Embora este tenha sido apenas um estudo em pequena escala, à medida que nossas interações com os robôs se tornam mais frequentes - seja por meio de um alto-falante inteligente em uma casa ou como um bot projetado para melhorar a saúde mental em um hospital - precisamos entender como os humanos reagem a eles. Em situações em que os robôs podem pensar que sabem mais do que nós, como obter instruções de A a B ou comprar algo em uma loja, os programadores precisam saber a melhor maneira de lidar com esses argumentos ao codificar um droid.

Em seguida, a equipe por trás do estudo deseja examinar as dicas não verbais fornecidas pelos robôs. Os pesquisadores relatam que alguns dos participantes do estudo eram "tecnicamente sofisticados" e entendiam perfeitamente que era o robô que os estava dissuadindo - mas ainda eram afetados pelas respostas programadas. "Um participante disse: Eu não gosto do que o robô está dizendo, mas é assim que foi programado, então não posso culpar", diz o cientista da computação Aaron Roth, da CMU.