DeepSeek は新しいモデル DeepSeek-V3.2-Speciale をリリースしました。 スコアから判断すると、これはDeepSeek-V3.2-Expの最適化版です。数学テストのAIME25スコアは99.2%に達し、すでに驚異的なスコアです。SWE-Bench Verifiedスコアも73.1に達しましたが、claude-sonnet-4.5の77.2には依然として及ばない結果となっています。 今回のリリースの要点を以下にまとめます。最も重要なのは、DeepSeekが独自の最適化されたスパースアテンション機構を実装したことです(スパースアテンションは長いコンテキストを最適化するために使用され、非常に長いコンテキストでもリソースを節約しながら優れたパフォーマンスを発揮します)。ネイティブコンテキストの長さは163KBに短縮されました。 第二に、最も重要なのは大規模なエージェントタスクデータの合成だと考えています。大規模モデルの進化速度を最も制限しているのは、学習教材です。手作業で生成した教材では、もはや大規模モデルの学習には不十分です。DeepSeekは、エージェントタスク学習データを自動合成する手法を研究しており、これは大規模モデルの性能を短期間で飛躍的に向上させる上で重要な役割を果たします。 彼らはスケーラブルな強化学習フレームワークについても言及していました。しかし、モデルカードの説明には具体的な詳細は記載されていません。彼らの技術レポートはまだアップロードされていませんが、アップロードされ次第、詳細な解説をさせていただきます。 そして、今まさにテスト中です!DeepSeek-V3.2-Specialeのプログラミング機能の実践テストは後ほどお届けします!
パフォーマンスパラメータ / 2
パフォーマンスパラメータ / 3











