各位,看来这篇帖子引起了太多关注,所以我觉得有必要提醒大家,我只是个在网上随便说说心里话的普通人。我觉得暗示Anthropic公司贬低模特的做法并不公平,为此我道歉。 此外,我认为最可能的解释是,随着模型的改进,我们也相应地增加了代码库和任务的复杂性,这导致上下文信息过载,使模型再次变得不堪一击。存在一种类似于维尔斯定律的自我平衡机制,在真正解决长期上下文和持续学习问题之前,我们永远不会对任何学习生命周期模型感到满意。 总之,我已经把日志发给了 Anthropic,我真的很希望能在 Vertex AI 下重新运行同样的指令,看看结果是否有所差异。可惜的是,我的配额申请被拒绝了,谷歌的技术支持也帮不上忙,所以,我无法就此事提供任何额外的见解。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。