A DeepSeek acaba de lançar um novo modelo – DeepSeek-V3.2-Speciale! A julgar pelos resultados, trata-se de uma versão otimizada do DeepSeek-V3.2-Exp. A pontuação AIME25 no teste de matemática atingiu 99,2%, um valor excepcional. A pontuação SWE-Bench Verified também alcançou 73,1, ainda bem distante dos 77,2 do claude-sonnet-4.5. Aqui está um resumo dos principais pontos desta versão. O mais importante é que o DeepSeek implementou seu próprio mecanismo de atenção esparsa otimizado (a atenção esparsa é usada para otimizar contextos longos, apresentando bom desempenho em contextos extremamente longos e economizando recursos). O comprimento do contexto nativo foi reduzido para 163 KB. Em segundo lugar, acredito que o mais importante seja a síntese de dados de tarefas de agentes em larga escala. A maior limitação na velocidade de evolução de modelos grandes reside nos materiais de treinamento. Materiais gerados manualmente já não são suficientes para treinar modelos de grande porte. O DeepSeek explorou um método para sintetizar automaticamente dados de treinamento de tarefas de agentes, o que desempenha um papel crucial na rápida melhoria do desempenho de modelos grandes em um curto período de tempo. Eles também mencionaram uma estrutura de aprendizado por reforço escalável. No entanto, os detalhes específicos não estão visíveis na descrição do modelo. O relatório técnico ainda não foi publicado, mas fornecerei uma interpretação detalhada assim que for disponibilizado. E estou testando agora! Mais tarde, trarei um teste prático das capacidades de programação do DeepSeek-V3.2-Speciale!
Parâmetros de desempenho / 2
Parâmetros de desempenho / 3











