DeepSeek se luce al llamar a este modelo que coincide con GPT-5-High y Gemini-3 Pro, solo que DeepSeek-v3.2 ni siquiera 3.5 😂 Deepseek también explica con humildad por qué tienen un bajo rendimiento en estándares de conocimiento como HLE y GPQA. ¡Se debe a la menor cantidad de cómputo pertinente que tienen! ¡Esto es algo que no pueden lograr solo con aprendizaje de refuerzo! @SemiAnalysis_, hora de actualizar las estadísticas previas. Seguramente no tienen 50 mil equivalentes de H100/A100. En mi humilde opinión, si tuvieran el 50% de eso, habrían superado a todos los demás laboratorios del planeta. @teortaxesTex - Todavía no se apuesta por la multimodalidad. ¿Por qué crees que será? Creo que lo están guardando para la versión 4.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.
