多年来我一直对法学硕士(LLM)持悲观态度,但现在我认为法学硕士和推理工具已经发展到足以真正改变科学和工程领域的程度。我不认为这是通用人工智能(AGI),而更像是将谷歌搜索或SAT求解器等以往工具的通用性应用到更广泛的领域。 这引发了一些问题。在编程和写作领域,这门学科的实践似乎正在发生彻底的变革。禁止学生使用人工智能似乎很难,但使用人工智能确实可能会削弱初学者的理解和成长。与此同时,人工智能似乎也能成为专家的强大助力。有人问我学生应该如何应对这种情况。我的看法是,学习在不使用人工智能的情况下进行编程和写作,对于取得最佳成果可能至关重要。 此外,人工智能还会带来其他风险,例如法学硕士(LLM)的“精神错乱”。我们会看到更多初学者声称在他们并不了解的领域取得了“突破性”成果。这很可惜,因为它很可能会导致证书至上的风气盛行。遗憾的是,专家们没有足够的时间来仔细审查初学者的作品。在法学硕士的世界模型发展到足够完善、能够自我验证之前,这种情况或许难以避免。 这对科学或工程意味着什么?我或许有些悲观,但我认为奇点还远未到来。相反,我认为人工智能的低效几乎会抵消其带来的收益,最终只能取得有限的进步。就我个人而言,由于我对贡献代码的信任度降低,我处理 @deep_chem 的 PR 的速度有所放缓。学生们尝试使用人工智能,却贡献了错误的代码。因此,我只合并由经验丰富的现有贡献者审核过的代码……人工智能通过增加代码审查负担减缓了进展。这只是一个个例,但我看到类似的模式在其他地方也正在上演。与此同时,专家们将利用人工智能取得突破性进展。效率的提升和低效将处于一种微妙的平衡之中。 因此,开发自动化验证器的问题成为人工智能领域最大的挑战。我预感这将是一个漫长而艰辛的过程,但这正是取得真正突破的必经之路。 (最后一点说明,这篇文章完全没有使用人工智能!避免使用人工智能有助于在头脑风暴时进行更清晰的思考。)
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。