cerebras 又出手啦! 推出了DeepSeek-V3.2 剪枝版本 兩個版本分別是508B 和345B, 分別體積減少了25% 和50%. 適合機器資源緊張的本地部署場景. 同樣還是使用REAP剪枝方法, 可以智能的選擇和移除冗餘專家來壓縮MoE 模型. 不過說實話有點需要討論的, 第一, cerebras 並沒有放出更多測試結果, 只放出了HumanEval 和MBPP 測試, 這兩個DeepSeek 官方發布v3.2 的時候並沒有給出測試結果(也有可能是我沒看到測試結果(). 另外這兩項測驗345B 的得分比508B 要高? 所以建議想要投入大面積使用的朋友還是自己測試下這個剪枝模型的具體表現後再使用.
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
