A DeepSeek se gaba ao chamar esse modelo, que corresponde ao GPT-5-High e ao Gemini-3 Pro, de DeepSeek-v3.2, nem mesmo 3.5 😂 A Deepseek também explica, com humildade, por que seus índices em benchmarks de conhecimento, como HLE e GPQA, são um pouco baixos. Isso se deve à menor capacidade computacional disponível! Algo que eles não conseguem alcançar apenas com aprendizado por reforço! @SemiAnalysis_ hora de atualizar as probabilidades a priori - certamente eles não têm 50 mil equivalentes de H100/A100. Na minha humilde opinião, se tivessem 50% disso, teriam superado todos os outros laboratórios do planeta. @teortaxesTex - ainda não optaram pela multimodalidade. Por que você acha que é isso? Acho que estão guardando para a versão 4.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
