實驗驗證: Google 設計了一個模型叫做Hope。 它的特點是: 能自我修改,自動決定哪些部分需要學習。 每層都有不同的更新速度。 會根據「驚訝程度」決定要不要記住某個知識(例如遇到前所未見的數據時,會優先記住)。 實驗結果:Hope 在「長上下文理解」 和「知識保留」 上超越所有現有模型。
Hope: 長文本記憶力更強推理和常識判斷更準確學新任務時幾乎不會忘舊任務 在長上下文「大海撈針」(NIAH)下游任務中展現出卓越的記憶體管理能力。
為什麼這件事重要? Nested Learning 的出現,意味著AI 不再只是“被訓練出來”,而是能自己持續成長。它能: 像人一樣累積經驗學會如何學習長期保持穩定的知識結構 這對很多方向都有重大意義: 🤖 持續學習AI:模型可以一直學習新知識而不忘舊的。 🧠 類人智能:學習方式較接近人類腦神經可塑性。 ⚙️ 自我優化AI:模型不只學內容,還學「學習的方法」。


