分享一段最近关于人工智能对经济影响的有趣对话。 人工智能已被比作各种历史先例:电力、工业革命等等,我认为最恰当的类比是将人工智能视为一种新的计算范式(软件 2.0),因为两者从根本上来说都是关于数字信息处理的自动化。 如果要预测计算机技术在20世纪80年代对就业市场的影响,那么一项任务/工作最能预测其前景的特征,就是它的算法在多大程度上是固定的,也就是说,你是否只是机械地按照一些易于规定的规则来转换信息(例如打字、记账、人工计算器等等)?在当时,以当时的计算机能力,我们只能编写这类程序(手动编写)。 有了人工智能,我们现在能够编写以前手动编写根本无法实现的程序。我们通过设定目标(例如分类准确率、奖励函数)来实现这一点,然后利用梯度下降法在程序空间中搜索能够很好地实现该目标的神经网络。这是我之前写的一篇关于软件 2.0 的博客文章。在这种新的编程范式中,最具预测性的特征是可验证性。如果一项任务/工作是可验证的,那么它就可以直接优化,也可以通过强化学习进行优化,神经网络也可以被训练得非常出色。这关乎人工智能能够“练习”到什么程度。环境必须是可重置的(可以开始新的尝试)、高效的(可以进行多次尝试)和可奖励的(存在某种自动化流程来奖励任何特定的尝试)。 任务/工作的可验证性越高,就越容易在新编程范式下实现自动化。如果任务/工作不可验证,则只能寄希望于神经网络的泛化能力,或者通过模仿等较弱的手段来实现。这正是LLM(学习型学习)发展进程“崎岖不平”的原因所在。可验证的任务进展迅速,甚至可能超越了顶尖专家的能力范围(例如数学、代码、观看视频的时间、任何看起来像有正确答案的谜题),而许多其他任务则相对滞后(例如创造性、策略性、结合现实世界知识、状态、上下文和常识的任务)。 软件 1.0 可以轻松实现您指定功能的自动化。 软件 2.0 可以轻松实现可验证事项的自动化。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。