顺便一提,我刚刚才注意到 DeepSeek 的“由自我原则性批评调整 (SPCT) 赋能的生成式奖励模型 (GRM)”检查点在某个时候发布了。 这仍然使用Gemmas和V2-lite + V2.5作为教学模型。想象一下,如果基于V3.2,他们的GRM会有多么出色。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 1 条推文 · 2025年12月3日 06:10
顺便一提,我刚刚才注意到 DeepSeek 的“由自我原则性批评调整 (SPCT) 赋能的生成式奖励模型 (GRM)”检查点在某个时候发布了。 这仍然使用Gemmas和V2-lite + V2.5作为教学模型。想象一下,如果基于V3.2,他们的GRM会有多么出色。