GPT-5-Codex e atualizações para o Codex
GPT-5-Codex e atualizações para o Codex. O OpenIAi divulgou hoje um novo modelo: GPT-5-Codex, uma variante GPT-5 ajustada, projetada explicitamente para suas várias ferramentas de programação assistidas pela AA.
Atualizar: OpenAI chama de “versão do GPT-5”, eles não o descrevem explicitamente como um modelo de ajuste fino. Chamar-o de tune fino foi o meu erro aqui.
Eu digo meio lançado porque ainda não está disponível por meio de sua API, mas eles “planejam disponibilizar o GPT-5-Codex na API em breve”.
Eu escrevi sobre a matriz confusa de produtos Openai que compartilham o nome Codex há alguns meses. Esse novo modelo adiciona mais um, embora pelo menos “GPT-5-Codex” (usando dois hífens) seja inequívoco o suficiente para não adicionar muito mais à confusão.
Neste ponto, é melhor pensar em Códice como a marca da Openai para sua família de modelos e ferramentas codificadores.
O novo modelo já está integrado à sua extensão de código VS, a CDEX CLI e seu Codex Cloud Cloud Coding Agent. Eu chamava esse último de “Web Codex”, mas acho que o Codex Cloud é um nome melhor, pois também pode ser acessado diretamente do aplicativo para iPhone.
O Codex Cloud também possui um novo recurso: você pode configurá-lo para executar automaticamente a revisão de código contra repositórios específicos do github (achei essa opção em chatgpt.com/codex/settings/code-review) e criará um contêiner temporário para usar como parte dessas análises. Aqui está a documentação relevante.
Alguns recursos documentados do novo modelo GPT-5-Codex:
- Treinado especificamente para revisão de código, que suporta diretamente seu novo recurso de revisão de código.
- “O GPT-5-Codex adapta quanto tempo passa pensando mais dinamicamente com base na complexidade da tarefa”. Tarefas simples (como “Arquivos de lista neste diretório”) devem ser executadas mais rapidamente. Tarefas grandes e complexas devem usar o RUN por muito mais tempo – o OpenAi Relatório Codex Crunching por sete horas em alguns casos!
- A pontuação aumentada em sua “avaliação de refatoração de código” proprietária de 33,9% para GPT-5 (alta) para 51,3% para o GPT-5-Codex (alta). É difícil avaliar isso sem ver os detalhes da avaliação, mas ilustra pelo menos que a refatoração do desempenho é algo em que eles se concentraram aqui.
- “O GPT-5-Codex também mostra melhorias significativas nas avaliações de preferência humana ao criar sites móveis”-no passado, eu habitualmente providenciei modelos a “torná-lo amigável para dispositivos móveis”, talvez não precise mais fazer isso.
- “Descobrimos que os comentários do GPT -5 -Codex têm menos probabilidade de estar incorreto ou sem importância” – originalmente interpretei mal isso como referindo -se a comentários no código, mas na verdade é sobre comentários deixados nas análises de código.
O prompt do sistema para o GPT-5-Codex na CLI do Codex vale a pena ler. É notavelmente mais curto que o prompt do sistema para outros modelos – aqui está um diferencial.
Aqui está a seção do prompt do sistema atualizado que fala sobre comentários:
Add succinct code comments that explain what is going on if code is not self-explanatory. You should not add comments like "Assigns the value to the variable", but a brief comment might be useful ahead of a complex code block that the user would otherwise have to spend time parsing out. Usage of these comments should be rare.
Theo Browne tem uma revisão em vídeo do modelo e recursos que o acompanham. Ele geralmente ficou impressionado, mas observou que era surpreendentemente ruim em usar a ferramenta de pesquisa da CLI Codex para navegar no código. Espero que isso seja algo que possa corrigir com uma atualização de prompt do sistema.
Finalmente, ele pode desenhar um pelicano andando de bicicleta? Sem acesso da API, em vez disso, consegui o Codex Cloud para tentar:
Generate an SVG of a pelican riding a bicycle, save as pelican.svg
Aqui está o resultado:

