DeepSeek se vante en appelant ce modèle, équivalent à GPT-5-High et Gemini-3 Pro, DeepSeek-v3.2 et même pas 3.5 😂 Deepseek explique également avec humilité pourquoi leurs performances sont légèrement inférieures aux attentes sur des benchmarks de connaissances comme HLE et GPQA. Cela est dû à une puissance de calcul limitée ! C'est quelque chose qu'ils ne peuvent pas atteindre uniquement grâce à l'apprentissage par renforcement ! @SemiAnalysis_ Il est temps de revoir vos hypothèses : ils n'ont certainement pas 50 000 équivalents H100/A100. À mon humble avis, s'ils en avaient la moitié, ils auraient surclassé tous les autres laboratoires de la planète. @teortaxesTex – Ils ne prévoient toujours pas de mode multimodal. À votre avis, pourquoi ? Je pense qu’ils le réservent pour la v4.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
