Ilya 最新訪談影片完整中英文雙語版本 Ilya:Scaling 時代結束下一階段:如何讓模型學得像人 這是Ilya 離開OpenAI 創辦SSI之後,首次系統性地闡述他對當下AI 發展、未來智慧、安全對齊與人類社會演化的全面思考。 整場對話的主線是三件事: 為什麼目前AI 的測驗成績很高,但現實表現卻遠不理想; 人類智慧的「泛化與價值函數」如何啟發未來的AI 訓練方式; SSI 想要建構怎樣的「安全超智慧(Safe Superintelligence)」。 1.AI 現況的根本問題:能考高分,卻不會做事 目前模型(如GPT 系列)在測試任務(evals)表現極佳,但實際經濟影響有限。 模型在複雜任務中會出現「循環錯誤」-修復一個bug 又引入另一個。 Ilya 指出:這是因為我們在強化學習階段過於「針對評測優化」(reward hacking humans),忽略了真實世界的泛化能力。 2.預訓練vs 強化學習:真正的智能誕生在哪裡 預訓練(Pre-training):用“所有數據”,不需要人為篩選,模型學到人類世界的廣泛投影。 強化學習(RL):需人工設計環境,目標常設定為「讓模型在評測中更好看」。 Ilya 認為:這使得模型像“只會考試的學生”,但缺乏真正的洞察與遷移能力。 3.人類智慧的關鍵:價值函數(Value Function)與情感 lya 提出:人類之所以能在複雜世界中學習和泛化,是因為我們擁有「內在價值系統」。 這個系統就是情感(emotion): 快樂→ 正向回饋; 焦慮→ 提醒可能的風險; 羞愧→ 調整社交策略; 好奇→ 激勵探索。 在強化學習中,這就像一個隱形的value function。 它能讓人提前知道“方向錯了”,而不是等待懲罰信號。 因此,他認為: “真正的智能不只是預測能力,而是一個不斷更新的價值系統。” 如果未來的AI 能學會“自我評估任務是否在正確方向”,它才會像人類一樣具備“意義驅動的學習能力”。 4、“Scaling 時代結束,研究時代重新到來” Ilya 對當下的AI 產業提出了尖銳批評。他說過去10 年的AI 進展分為兩個時代: 2012–2020:研究時代(Research Era) → 創新來自突破性架構(AlexNet、Transformer)。 2020–2025:規模時代(Scaling Era) → 一切努力都在「堆數據、堆算力、堆模型參數」。 他認為這種方向已經觸頂: “Scaling 吸乾了創新的空氣。” 現在:算力繼續大,但「再堆料」收益遞減 下一階段的突破,必須回到:如何讓模型學得像人,而不是算力更大。 也就是從數量擴張回到結構創新。未來競爭的關鍵:不是算力,而是誰能提出新的學習原理 5.未來十年的路線圖 Ilya 預測: 未來5–20 年,AI 將學會以人類方式學習; 它能: 主動探索世界; 理解物理與社會規律; 自我反思; 並實現跨模態推理(多感官整合)。 這種系統一旦成熟,將帶來: 經濟生產力爆炸; 教育和研究模式徹底重塑; 人機關係進入「合作共智(co-intelligence)」時代。 但Ilya 強調:這類系統應逐步部署、透明展示,以讓民眾與政府理解其能力與風險。 他強調,SSI 會以漸進、安全、公開的方式推進:每個階段的能力、風險、控制策略都會被外部檢視。 (由於是AI翻譯,可能會有細微的錯誤,請注意甄別)
完整文字稿:xiaohu.ai/c/ai/ilya-scal… 原文影片:youtu.be/aR20FWCCjAs