我讨厌人们说从传统编程到人工智能编程的转变不是“确定性的”。 那不是问题所在。如果你愿意,你可以让它具有确定性。 这种变化在于它本质上是不明确的、模糊的,并且完全依赖于概括——这是不透明的、广泛的(而且是“锯齿状的”,感谢 karpathy 的提醒),这意味着你无法轻易推断两个不同的“相似”输入会如何表现。 这不是决定论的问题。我们一直以来都在编写非确定性系统,比如任何需要进行API或网络调用的程序。 (欠规范的问题非常根本,并非范式本身的缺陷。如果开发者事先不知道如何处理所有极端情况,最好的办法有时是假设程序具有合理的智能,会在需要时做出明智的选择。但你需要将这种自由度限定在特定区域,并使其适应你的需求。)
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。