Mais dois pelicanos chineses
Dois novos modelos do Chinese AI Labs nos últimos dias. Eu experimentei os dois usando LLM-OpenRouter:
Deepseek-V3.2-EXP De Deepseek. Anúncio, relatório de tecnologia, rosto abraçando (690 GB, licença do MIT).
Como uma etapa intermediária em direção à nossa arquitetura de próxima geração, a v3.2-exp se baseia no terminal V3.1, introduzindo atenção escassa profunda-um mecanismo de atenção escasso projetado para explorar e validar otimizações para o treinamento e a eficiência de inferência em cenários de longo prazo.
Este sentiu muito lento Quando o acessei via OpenRouter – provavelmente fui roteado para um dos fornecedores mais lentos. Aqui está o pelicano:

GLM-4.6 de Z.ai. Anúncio, Abraçando o rosto (714 GB, MIT Licença).
A janela de contexto foi expandida de 128k para 200k tokens (…) pontuações mais altas nos benchmarks de código (…) GLM-4.6 exibe desempenho mais forte na ferramenta usando agentes baseados em pesquisa.
Aqui está o pelicano para isso:

