我比以往任何时候都更看好“LLM”的原因之一是,该领域基本上已经*没有人*再是 DNN 前向传递最大化主义者或自监督最大化主义者了。 它与 2020-22 年的 LLM 学位含义并不相同。
不过,和以往一样,一旦系统具备了某种能力,就很容易将其还原为模型权重:
更广泛的背景是:
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 3 条推文 · 2025年11月2日 18:48
我比以往任何时候都更看好“LLM”的原因之一是,该领域基本上已经*没有人*再是 DNN 前向传递最大化主义者或自监督最大化主义者了。 它与 2020-22 年的 LLM 学位含义并不相同。
不过,和以往一样,一旦系统具备了某种能力,就很容易将其还原为模型权重:
更广泛的背景是: