速度提升4 倍、精度比肩Claude Code:深度解讀@relace_ai 的「程式碼檢索新架構」 🚀 核心概覽:什麼是Fast Agentic Search (FAS)? FAS 是Relace 最新發布的專門針對程式碼庫搜尋任務訓練的小型智能體模型。它利用強化學習進行最佳化,能夠透過並行呼叫工具(如grep、view 等)來快速定位與使用者請求相關的程式碼檔案。 💡 背景:RAG 與Agentic Search 的困境 RAG · 優點:速度極快,成本低。 · 缺點:對於複雜的程式碼邏輯往往不夠準確。它依賴向量相似度,缺乏推理能力,經常漏掉關鍵上下文。 Agentic Search · 優點:非常精準。模型像人類程式設計師一樣,透過一步步推理、檢視檔案、跳轉引用來尋找程式碼。 · 缺點:速度慢,成本高。通常是「串列」操作(思考-> 查一個檔案-> 再思考-> 查下一個),導致延遲很高。 FAS 的切入點:試圖結合兩者的優點-既有Agentic Search 的推理深度,又有RAG 的反應速度。 🛠️ 技術解密:FAS 是如何做到的? FAS 的成功主要依賴三個關鍵技術策略: 1. 並行工具呼叫(Parallel Tool Calls) 不同於普通智能體“一次只查一個文件”,FAS 被訓練為可以同時發出多個指令。例如,它可以同時查看4-12 個不同的檔案路徑或執行多個搜尋命令。這大大減少了多輪對話帶來的網路延遲。 2. 專門的強化學習(On-Policy RL) 團隊沒有隻使用普通的監督微調(SFT),而是建構了一套強化學習環境: · 獎勵機制(Reward Function):設計了一個特殊的獎勵公式。既獎勵「找得準」(高召回率和精確率),又懲罰「動作慢」(如果搜尋輪數過多,得分會降低)。 ` 湧現的推理能力:在訓練後期,模型「自學」出了一種策略-在進行大規模並行搜尋之前,會先進行一步推理思考。這證明了它不是在盲目亂猜,而是在有邏輯地並發操作。 3. 任務分離(Subagent Architecture) 文章透過數據分析發現,在真實的程式設計任務中,約60% 的Token 都消耗在了「找程式碼」這個步驟上。 因此,將「搜尋」從主智能體中剝離出來,交給FAS 這個專門的小模型去完成,既能節省主模型的昂貴Token,又能防止無關上下文幹擾主模型的判斷。 📊 實測效果· 速度與準確率:在同等準確率下,FAS 比傳統的串列智能體搜尋快了4 倍。 · SWE-bench 測試:將FAS 整合到編碼智能體中後,中位數延遲降低了9.3%,Token 消耗減少了13.6%。 · 註:在真實複雜的開發場景(相較於定義明確的Benchmark),由於搜尋佔比更高,預期效能提升會更加顯著。 📝 總結與啟示這篇文章不僅僅是一個新功能的發布,它向我們展示了AI Agent 發展的一個重要趨勢:從「全能大模型」轉變為「專家子模型」。 透過讓一個經過專門RL 訓練的小模型極致地優化「搜尋」這一單一環節,我們可以用更低的成本和更快的速度,達到甚至超越昂貴大模型的綜合表現。這為未來建立更有效率的AI 程式設計助理提供了一條清晰的路徑。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
