À medida que os avanços em robótica e inteligência artificial continuam, os esforços para tornar os robôs menos assustadores e inquietantes e mais amigáveis e humanos são uma área de desenvolvimento cobiçada. Agora, pesquisadores financiados pelo governo afirmam ter criado um robô que pode imitar as expressões faciais da pessoa com quem está conversando.
Em um artigo publicado recentemente, pesquisadores que trabalham sob uma subvenção da National Science Foundation explicaram como construíram seu mais novo robô, “Emo”, e os esforços que fizeram para tornar a máquina mais receptiva às interações humanas. No início do artigo, os pesquisadores destacam a importância do sorriso humano no espelhamento social.
O novo robô dos pesquisadores é um “robô facial antropomórfico”. Este não é o primeiro robô deles. Uma iteração anterior do robô foi apelidada de “Eva”. No entanto, os pesquisadores afirmam que o Emo é significativamente mais avançado do que Eva.
O objetivo com o Emo era alcançar o que os pesquisadores chamam de “coexpressão”, ou a emulação simultânea da expressão facial de um interlocutor humano. Para realizar isso, os pesquisadores desenvolveram um algoritmo preditivo que foi treinado em um grande conjunto de dados de vídeo de humanos fazendo expressões faciais. Os pesquisadores afirmam que o algoritmo que desenvolveram é capaz de “prever a expressão alvo que uma pessoa produzirá com base apenas em mudanças iniciais e sutis em seu rosto”. O algoritmo então comunica ao hardware do robô qual configuração facial deve imitar em “tempo real”, dizem os pesquisadores.
Na verdade, fazer o robô fazer uma expressão facial é uma história diferente. As várias configurações faciais do robô são alimentadas por 26 motores diferentes e 26 atuadores. Os pesquisadores afirmam que a maioria dos motores é “distribuída simetricamente” – ou seja, são projetados para criar expressões simétricas – com exceção daquele que controla a mandíbula do robô. Três motores controlam os movimentos do pescoço do robô. Enquanto isso, os atuadores permitem a criação de expressões mais assimétricas.
O Emo também vem equipado com uma “pele” de silicone intercambiável que é fixada no rosto do robô usando 30 ímãs. Os pesquisadores observam que essa pele pode ser “substituída por designs alternativos para uma aparência diferente e para manutenção da pele”, tornando o rosto personalizável. O robô também tem “olhos”, equipados com câmeras RGB de alta resolução. Essas câmeras permitem que o Emo veja seu interlocutor na conversa e, assim, imite sua expressão facial.
Ao mesmo tempo, os pesquisadores escrevem que eles implementam o que chamam de “estrutura de aprendizagem composta por duas redes neurais – uma para prever a própria expressão facial do Emo (o modelo próprio) e outra para prever a expressão facial do interlocutor (o modelo do interlocutor)”. Quando você junta o software e o hardware, o que você obtém é uma máquina que pode fazer coisas como essa.