A Figure AI e a OpenAI se uniram para aprimorar a inteligência e interatividade do robô humanoide Figure-01. Em uma demonstração recente, o robô foi capaz de conversar com um humano, seguir comandos e descrever detalhadamente o que estava vendo, utilizando a tecnologia de reconhecimento visual.
No vídeo disponível no canal oficial da Figure, é possível ver o Figure-01 atuando como um tipo de chatbot com características físicas, como cabeça, braços e pernas. Assim como o ChatGPT, o robô recebe instruções, analisa o ambiente ao seu redor e responde de maneira apropriada.
Quando questionado sobre o que estava vendo, o robô respondeu com precisão, identificando uma maçã vermelha em um prato no centro da mesa, um escorredor com copos e pratos, e o humano de pé com uma mão apoiada na mesa. Em seguida, atende ao pedido do humano entregando a maçã. Após, o robô recolhe o lixo em uma cesta e explica por que escolheu oferecer a maçã.
O Figure-01 também recebe a instrução de onde colocar o prato e decide guardá-lo no escorredor, juntamente com o copo ao lado. Ao ser questionado sobre seu desempenho, o robô considera ter feito um bom trabalho, pois “a maçã encontrou seu novo dono, o lixo desapareceu e a mesa está organizada”.
O robô Figure-01 demonstra o potencial dos modelos de linguagem da OpenAI ao realizar tarefas simples enquanto interage de forma natural com um humano. A capacidade de identificar o ambiente à sua frente e responder de acordo impressiona, sendo possível graças a um novo modelo de linguagem visual (VLM) que confere habilidades quase humanas à máquina.
Vale ressaltar que o Figure-01 é resultado da colaboração entre a Figure e a OpenAI, incorporando influências de importantes projetos de empresas especializadas em robótica. Em janeiro deste ano, a Figure havia mostrado o robô aprendendo a fazer café simplesmente observando um humano, evidenciando o avanço contínuo na área da robótica e inteligência artificial.