Pesquisadores Desenvolvem Robô Assustador que Imita Rostos

À medida que avanços em robótica e inteligência artificial continuam, esforços para tornar os robôs menos assustadores e perturbadores e mais amigáveis e humanos são um nicho de desenvolvimento cobiçado. Agora, pesquisadores financiados pelo governo federal afirmam ter criado um robô que pode imitar as expressões faciais da pessoa com quem está conversando.

Em um artigo recentemente publicado, pesquisadores trabalhando sob uma bolsa da National Science Foundation explicaram como construíram seu novo robô, “Emo”, e os esforços que fizeram para tornar a máquina mais responsiva às interações humanas. No início do artigo, os pesquisadores ressaltam a importância do sorriso humano na reflexão social:

“Poucos gestos são mais cativantes do que um sorriso. Mas quando duas pessoas sorriem uma para a outra simultaneamente, o efeito é amplificado: não só o sentimento é mútuo, mas também para ambas as partes executarem o sorriso simultaneamente, elas provavelmente são capazes de inferir corretamente o estado mental um do outro com antecedência.”

O novo robô dos pesquisadores é um “robô facial antropomórfico”. Esta não é o primeiro robô deles. Uma iteração anterior do robô foi apelidada de “Eva”. No entanto, os pesquisadores afirmam que Emo é notavelmente mais avançado do que Eva.

O objetivo com Emo era alcançar o que os pesquisadores chamam de “coexpressão”, ou a emulação simultânea da expressão facial de um interlocutor humano. Para realizar isso, os pesquisadores desenvolveram um algoritmo preditivo que foi treinado em um grande conjunto de dados de vídeo de humanos fazendo expressões faciais. Os pesquisadores afirmam que o algoritmo que desenvolveram é capaz de “prever a expressão alvo que uma pessoa irá produzir com base em mudanças iniciais e sutis em seu rosto.” O algoritmo então comunica ao hardware do robô qual configuração facial emular em “tempo real”, dizem os pesquisadores.

Na verdade, fazer o robô fazer uma expressão facial é uma história diferente. As várias configurações faciais do robô são alimentadas por 26 motores diferentes e 26 atuadores. Os pesquisadores afirmam que a maioria dos motores é “simetricamente distribuída” – o que significa que são projetados para criar expressões simétricas – com exceção daquele que controla a mandíbula do robô. Três motores controlam os movimentos do pescoço do robô. Enquanto isso, os atuadores permitem a criação de expressões mais assimétricas.

Emo também vem equipado com “pele” de silicone intercambiável que é anexada ao rosto do robô usando 30 ímãs. Os pesquisadores observam que esta pele pode ser “substituída por designs alternativos para uma aparência diferente e para a manutenção da pele”, tornando o rosto personalizável. O robô também tem “olhos” equipados com câmeras RGB de alta resolução. Estas câmeras permitem que Emo veja seu interlocutor na conversa e assim emule sua expressão facial.

Ao mesmo tempo, os pesquisadores escrevem que eles implementam o que chamam de um “framework de aprendizagem consistindo de duas redes neurais – uma para prever a própria expressão facial de Emo (o modelo próprio) e outra para prever a expressão facial do interlocutor (o modelo do interlocutor).” Quando você coloca o software e o hardware juntos, o que você obtém é uma máquina que pode fazer coisas como esta: [vídeo do robô que pode imitar expressões faciais humanas].

Este é um resumo do artigo sobre o desenvolvimento do robô Emo que pode imitar expressões faciais humanas.