A Figure AI e a OpenAI uniram forças para aprimorar o robô humanoide Figure-01, tornando-o mais inteligente e interativo. Na última demonstração, o robô é capaz de conversar com um humano, seguir comandos e descrever detalhadamente o que vê, utilizando a tecnologia de reconhecimento visual.
No vídeo disponível no canal oficial da Figure, é possível observar o Figure-01 atuando como um chatbot com corpo, cabeça, braços e pernas. Assim como o ChatGPT, o robô recebe instruções, analisa o ambiente e responde de forma adequada.
Ao ser questionado sobre o que estava vendo, o robô descreveu com precisão uma maçã vermelha em um prato, um escorredor com copos e pratos, e o humano em pé com uma mão apoiada na mesa. Em seguida, atende ao pedido do humano entregando-lhe a maçã e recolhendo o lixo da mesa conforme solicitado. O robô explica sua escolha da maçã por ser o único item comestível disponível.
O Figure-01 consegue identificar onde o prato deve ser colocado e guarda não só o prato, mas também o copo ao lado, demonstrando agilidade e precisão nas tarefas solicitadas. Ao ser questionado sobre seu desempenho, o robô considera ter feito um bom trabalho, evidenciando as capacidades dos modelos de linguagem da OpenAI.
O Figure-01 combina influências de diversas empresas especializadas em robótica, como Boston Dynamics, Tesla, Google Deep Mind e Archer Aviation. Além disso, em uma demonstração anterior, o robô aprendeu a fazer café simplesmente observando um humano, mostrando avanços significativos na interação homem-máquina.