⚠️ Atenção a todos que utilizam a demonstração de inferência DeepSeek-V3.2-Exp: versões anteriores apresentavam uma incompatibilidade na implementação do RoPE no módulo de indexação, o que poderia prejudicar o desempenho. O RoPE do indexador espera entradgithub.com/deepseek-ai/De…anto o RoPE do MLA espera entrada intercalada. Corrigido em https://t.co/2BDzSyt1cW.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.