Cerebras がまたやってきました! 削減版の DeepSeek-V3.2 をリリースしました。 508Bと345Bの2つのバージョンがあり、それぞれ25%と50%のサイズ削減を実現しています。マシンリソースが限られているローカル展開シナリオに適しています。 REAPプルーニング手法は引き続き使用されており、冗長なエキスパートをインテリジェントに選択・削除することでMoEモデルを圧縮できます。しかしながら、正直なところ、議論の余地のある点がいくつかあります。まず、cerebrasはHumanEvalとMBPPテストのみを公開しており、それ以上のテスト結果は公開されていません。DeepSeekがv3.2を正式にリリースした時点では、これら2つのテストは提供されていませんでした(あるいは私が見落としていただけかもしれません)。 さらに、これら2つのテストでは、345Bが508Bよりも高いスコアを獲得しました。したがって、このプルーニングモデルを大規模に使用する予定の方は、使用前に具体的なパフォーマンスをご自身でテストすることをお勧めします。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
