我开始觉得,如果不大幅提升推理能力,我们短期内恐怕无法解决幻觉问题。这不仅仅是一个训练问题,至少短期内如此。LLM的世界模型就像一块高斯斑点:稍微偏离完全覆盖的视角,就会出现模糊不清的区域。LLM虽然号称具备内部置信度检测功能,却仍然无法意识到这种模糊不清的边缘正是应该说“我不知道”的时候。我对通过知识探测+强化学习等方法解决这个问题持悲观态度,因为知识球的面积巨大且表面崎岖,使得子领域之间的泛化变得异常困难,就像在玩打地鼠游戏一样。 双子座的奇妙之处在于,它不仅能鹦鹉学舌地重复我的话,有时还能预判我*下一回合*要说的话(而且如果我同时使用十四行诗,它还会说出来,因为十四行诗做不到这一点)。它拥有极其丰富的长尾知识。但如果进一步激发它,它就会产生一些看似合理*你可能信以为真*的荒谬幻觉。和之前一样,我们不能仅仅依靠规模来解决幻觉问题。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
