這篇總結也很好: x.com/omarsar0/statu…G Anthropic 又發布了一篇神級指南。 這次的主題是:如何建構更有效率的AI 智能體(AI Agent),讓它們能更聰明地使用工具,並且大幅節省Token 。 如果你是AI 開發者,這篇文章絕對不容錯過! 它主要解決了AI 智能體在呼叫工具時遇到的三大難題:Token 成本、延遲(latency) 和工具組合的效率。 怎麼做到的?簡單來說,它把「程式碼執行」和「模型寫的程式碼」 (MCP, Model-Written Code) 結合了起來。它不再讓AI 智能體直接去“調用工具”,而是把這些工具“偽裝”成代碼API,讓AI 智能體像程式設計師一樣透過編寫程式碼來使用它們。 以下是這篇指南的核心乾貨: 1. Token 效率的「黑洞」:想像一下,如果AI 智能體一上來就把所有可能用到的工具定義全塞進大腦(上下文視窗(context window)),並且在執行任務時,每一步的中間結果都塞回去。這樣會導致Token 開銷大到爆炸,一個複雜的多工具任務跑下來,有時會超過15 萬個Token。 2. 「程式碼即API」 策略:新方法是,不直接呼叫工具,而是把這些「模型寫的程式碼」 (MCP) 工具包打包成程式碼API(例如TypeScript 模組)。 AI 智能體可以像程式設計師一樣「導入」 (import) 並透過程式設計來呼叫它們。效果立竿見影:一個15 萬Token 的任務,瞬間被壓縮到了2000 個Token,節省了98.7%! 3. 工具的「漸進式發現」:不再一股腦加載所有工具。 AI 智能體學會了“按需取用”,透過搜尋檔案系統或呼叫search_tools(搜尋工具)函數,只在需要時才載入目前任務相關的工具定義。這完美解決了「上下文臃腫」 (context rot) 和Token 過載的問題。 4. 「資料本地處理」:在把結果餵給大語言模型(LLM) 之前,先在程式碼執行環境裡把資料處理好(例如篩選、轉換、匯總)。舉個例子:AI 智能體不需要查看1 萬行的表格,程式碼環境會先幫它篩選出那5 行最重要的,再交給它。 5. 更優的控制流(Control Flow):與其讓AI 智能體一步一步地「指揮」工具(例如「做完A,再做B」),不如直接用程式碼原生的循環(loops)、條件判斷(conditionals) 和錯誤處理來管理流程。這樣做,既減少了延遲,也省了Token。 6. 隱私權保護:敏感資料可以在整個工作流程中傳遞,而完全不進入大模型的「視野」(上下文)。只有那些被明確指定「返回」或「記錄」的值才會被模型看到,也可以選擇自動對個人識別資訊(PII) 進行脫敏。 7. 狀態持久化(State Persistence):AI 智能體可以把中間結果存成文件,「斷點續傳」。這樣一來,它們就能處理那些需要跑很久的“大任務”,並且能追蹤進度。 8. 可重複使用的「技能包」:AI 智能體可以把寫好的有效程式碼保存成「可重複使用函數」(並配上SKILL .MD 文件),久而久之,它就能累積出一個強大的高階「技能庫」。 這種方法雖然更複雜,也還不完美,但它絕對能全面提升你所建構的AI 智能體的效率和準確性。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。