RT @AdtRaghunathan:强化学习后训练悖论:✅ Pass@1 上升❌ Pass@K 下降(多样性崩溃) 以往的方法通常需要权衡取舍……
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 1 条推文 · 2025年12月18日 20:00
RT @AdtRaghunathan:强化学习后训练悖论:✅ Pass@1 上升❌ Pass@K 下降(多样性崩溃) 以往的方法通常需要权衡取舍……