OpenAI está adotando habilidades silenciosamente, agora disponíveis em ChatGPT e Codex CLI

OpenAI está adotando habilidades silenciosamente, agora disponíveis em ChatGPT e Codex CLI


OpenAI está adotando habilidades silenciosamente, agora disponíveis em ChatGPT e Codex CLI

12 de dezembro de 2025

Uma das coisas que mais me entusiasmou no novo mecanismo Skills da Anthropic em outubro foi a facilidade de implementação de outras plataformas. Uma habilidade é apenas uma pasta com um arquivo Markdown e alguns recursos e scripts extras opcionais, portanto, qualquer ferramenta LLM com capacidade de navegar e ler um sistema de arquivos deve ser capaz de usá-los. Acontece que a OpenAI está fazendo exatamente isso, com o suporte de habilidades aparecendo silenciosamente em sua ferramenta Codex CLI e agora também no próprio ChatGPT.

Habilidades em ChatGPT

Fiquei sabendo disso por Elias Judin esta manhã. Acontece que o recurso Code Interpreter do ChatGPT agora tem um novo /home/oai/skills pasta que você pode acessar simplesmente solicitando:

Create a zip file of /home/oai/skills

Eu tentei isso sozinho e recuperei este arquivo zip. Aqui está uma UI para explorar seu conteúdo (mais sobre essa ferramenta).

Captura de tela do explorador de arquivos. Arquivos skills/docs/render_docsx.py e skills/docs/skill.md e skills/pdfs/ e skills/pdfs/skill.md - esse último é expandido e diz: # Orientação para leitura, criação e revisão de PDF ## Leitura de PDFs - Use pdftoppm -png $OUTDIR/$BASENAME.pdf $OUTDIR/$BASENAME para converter PDFs em PNGs. - Depois abra os PNGs e leia as imagens. - pdfplumber também está instalado e pode ser usado para ler PDFs. Pode ser utilizado como ferramenta complementar ao pdftoppm, mas não o substituindo. - Faça impressão em python apenas como último recurso, pois você perderá detalhes importantes na extração de texto (por exemplo, figuras, tabelas, diagramas). ## Ferramentas primárias para criação de PDFs - Gere PDFs programaticamente com reportlab como ferramenta principal. Na maioria dos casos, você deve usar o reportlab para criar PDFs. - Se houver outros pacotes que você acha necessários para a tarefa (por exemplo, pypdf, pyMuPDF), você pode usá-los, mas pode ser necessário que o toip os instale primeiro. - Após cada atualização significativa — adições de conteúdo, ajustes de layout ou alterações de estilo — renderize o PDF em imagens para verificar a fidelidade do layout: - pdftoppm -png $INPUT_PDF $OUTPUT_PREFIX - Inspecione cada PNG exportado antes de continuar o trabalho. Se algo parecer errado, corrija a fonte e execute novamente o loop render → inspecionar até que as páginas estejam limpas. ## Expectativas de qualidade - Mantenha um design visual sofisticado e intencional: tipografia, espaçamento, margens, paleta de cores consistentes e quebras de seção claras em todas as páginas. - Evite grandes problemas de renderização: sem texto cortado, elementos sobrepostos, quadrados pretos, tabelas quebradas ou glifos ilegíveis. As páginas renderizadas devem se parecer com um documento selecionado, e não com a saída bruta do modelo. - Gráficos, tabelas, diagramas e imagens devem ser nítidos, bem alinhados e devidamente rotulados nos PNGs. As legendas e os eixos devem ser legíveis sem zoom excessivo. - O texto deve ser legível em tamanho normal de visualização; evite paredes de texto de preenchimento ou listas de marcadores densas e não estruturadas. Use espaços em branco para separar ideias. - Nunca use o hífen inseparável U+2011 ou outros travessões Unicode, pois eles não serão

Até agora eles cobrem planilhas, docx e PDFs. Curiosamente, a abordagem escolhida para PDFs e documentos é convertê-los em PNGs renderizados por página e, em seguida, passá-los através de seus modelos GPT habilitados para visão, presumivelmente para manter informações de layout e gráficos que seriam perdidas se apenas executassem a extração de texto.

Elias compartilhou cópias em um repositório GitHub. Eles se parecem muito com a implementação do mesmo tipo de ideia pela Anthropic, atualmente publicada em seu repositório anthropics/skills.

Eu tentei perguntando:

Crie um PDF com um resumo da situação atual da árvore rimu e o que isso significa para a época de reprodução do kakapo

Com certeza, o pensamento GPT-5.2 começou com:

Lendo skill.md para diretrizes de criação de PDF

Então:

Pesquisando mastro rimu e status reprodutivo Kākāpō 2025

Demorei pouco mais de onze minutos para produzir este PDF, tempo suficiente para que Claude Code para web criasse uma ferramenta personalizada de visualização de PDF enquanto eu esperava.

Aqui está o PDF do ChatGPT nessa ferramenta.

Captura de tela da minha ferramenta. Há um URL na parte superior, um botão Carregar PDF e controles de paginação. Em seguida, o próprio PDF é mostrado, onde se lê: Status do mastro Rimu e o que isso significa para a temporada de reprodução de kākāpō Resumo em 12 de dezembro de 2025 (contexto do Pacífico / Auckland) A criação de Kākāpō está intimamente ligada aos eventos de mastro de rimu (Dacrydium cupressinum): quando as árvores rimu põem e amadurecem grandes quantidades de frutas, as fêmeas de kākāpō têm muito mais probabilidade de nidificar e mais filhotes podem ser criados com sucesso. O monitoramento atual indica um sinal de frutificação de rimu incomumente forte rumo à temporada 2025/26, o que prepara o cenário para um ano reprodutivo potencialmente grande em 2026. ^ 1,2 Resumo dos principais números População de Kākāpō (contagem oficial de DOC) 237 aves vivas Gatilho de reprodução (frutificação de rimu)> 10% das pontas dos ramos de rimu produzindo frutos Previsão de frutificação de rimu para 2026 (monitoramento de DOC) Cerca de 50-60% frutificando em ilhas de reprodução¹Fêmeas em idade reprodutiva (número de planejamento DOC 2025) Cerca de 87 fêmeas (potencialmente quase todas poderiam nidificar)” style=”max-width: 100%;”/></p>
<p>(Eu sou <strong>muito animado</strong> sobre a temporada de reprodução do Kākāpō este ano.)</p>
<p>A razão pela qual demorou tanto é que ele foi meticuloso em analisar e ajustar seu próprio trabalho. Apreciei que a certa altura ele tentou renderizar o PDF e percebeu que os macrons em kākāpō não eram suportados pela fonte escolhida, então mudou para outra coisa:</p>
<p><img decoding=

Habilidades em Codex CLI

Enquanto isso, há duas semanas, a ferramenta Codex CLI de código aberto da OpenAI conseguiu um feito PR intitulado: suporte experimental para skills.md. Os documentos mais recentes sobre isso estão em docs/skills.md.

A documentação sugere que qualquer pasta em ~/.codex/skills será tratado como uma habilidade.

Usei a habilidade de autoria de Claude Opus 4.5 para criar essa habilidade para criar plug-ins Datasette e, em seguida, instalei-a em minha pasta de habilidades Codex CLI assim:

git clone https://github.com/datasette/skill \
  ~/.codex/skills/datasette-plugin

Você tem que executar o Codex com o --enable skills opção. Eu corri isso:

cd /tmp
mkdir datasette-cowsay
cd datasette-cowsay
codex --enable skills -m gpt-5.2

Então solicitado:

list skills

E o Codex respondeu:

- datasette-plugins — Writing Datasette plugins using Python + pluggy (file: /Users/simon/.codex/skills/datasette-plugin/SKILL.md)
- Discovery — How to find/identify available skills (no SKILL.md path provided in the list)

Então eu disse:

Write a Datasette plugin in this folder adding a /-/cowsay?text=hello page that displays a pre with cowsay from PyPI saying that text

Funcionou perfeitamente! Aqui está o código do plugin que ele escreveu e aqui está uma cópia da transcrição completa do Codex CLI, gerada com minha ferramenta terminal para HTML.

Você pode tentar isso sozinho se tiver uvx instalado assim:

uvx --with https://github.com/simonw/datasette-cowsay/archive/refs/heads/main.zip \
  datasette

Então visite:

http://127.0.0.1:8001/-/cowsay?text=This+is+pretty+fun

Captura de tela desse URL no Firefox, uma vaca artística ASCII diz Isso é muito divertido.

Habilidades são um guardião

Quando escrevi pela primeira vez sobre habilidades em outubro, eu disse que Claude Skills é incrível, talvez mais importante do que MCP. O fato de ter acabado de chegar em dezembro e a OpenAI já ter se apoiado bastante neles reforça para mim que chamei isso corretamente.

As habilidades são baseadas em muito especificação leve, se você pudesse chamá-la assim, mas ainda acho que seria bom que elas fossem formalmente documentadas em algum lugar. Esta poderia ser uma boa iniciativa para a nova Agentic AI Foundation (anteriormente).



Source link

Postagens Similares

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *