Cinco Curiosidades Sobre a Aurora Boreal

A OpenAI apresentou uma versão menor e mais econômica de seu modelo mais poderoso, o GPT-4o, e isso poderia significar ainda mais aplicativos impulsionados por IA.

O novo modelo, GPT-4o mini, é mais inteligente e mais de 60% mais barato que o GPT-3.5 Turbo, de acordo com a OpenAI, o que significa que é mais acessível para os desenvolvedores construírem aplicações nos modelos da OpenAI. O GPT-4o mini é precificado em 15 centavos por 1 milhão de tokens de entrada – ou a unidade de informação que um modelo de IA utiliza, por exemplo, uma palavra ou frase – e 60 centavos por 1 milhão de tokens de saída. Isso é equivalente a 2.500 páginas em um livro, disse a OpenAI.

“Esperamos que o GPT-4o mini expanda significativamente a gama de aplicações construídas com IA tornando a inteligência muito mais acessível”, afirmou a OpenAI em comunicado.

No benchmark de Compreensão de Linguagem Multitarefa Massiva (MMLU), que mede as capacidades de modelos de linguagem em 57 disciplinas, incluindo matemática e direito, o GPT-4o mini obteve uma pontuação de 82%, superando outros modelos pequenos e o GPT-3.5 Turbo, de acordo com a OpenAI. O modelo pequeno substituirá o GPT-3.5 Turbo no ChatGPT, e os usuários Free, Plus e Team já têm acesso ao novo modelo.

No seu lançamento, o GPT-4o mini pode suportar texto e visão na API, ou interface de programação de aplicativos, que permite aos desenvolvedores construir seus próprios modelos de IA com base na tecnologia da OpenAI. No futuro, o GPT-4o terá suporte para texto, imagem, vídeo e áudio, disse a OpenAI. O modelo pequeno tem conhecimento até outubro de 2023.

“Imaginamos um futuro onde os modelos se tornam integrados de forma transparente em cada aplicativo e em cada site”, disse a OpenAI. “O GPT-4o mini está pavimentando o caminho para que os desenvolvedores construam e dimensionem aplicativos de IA poderosos de forma mais eficiente e acessível.”

A OpenAI apresentou o ChatGPT-4o em maio, que é multimodal, o que significa que pode ver, ouvir e ter conversas em tempo real.