關於智能體工程以及將 UI/UX 與技能捆綁在一起的想法: 所以,你之所以想知道代理何時調用工具、何時需要人工審批、何時在思考還是在無意識地操作等等,是因為你的程式碼是確定性的,它會根據實際情況調整用戶的用戶介面/用戶體驗。 所以基本上: 1. 發生了X事件 2. 根據 X 事件觸發的程式碼路徑會更新 UI 如今的熱門話題是智能體技能(我個人非常看好它們,認為它們是智能體能力的一種很好的分發機制)。 技能本質上是指令/文檔和程式碼的“打包器”。它們賦予智能體一系列能力,並告訴它如何使用這些能力。它們解釋了執行路徑。 但如果他們還捆綁了 UI/UX 路徑呢? ——> 執行此技能時,UI/UX 應該是什麼樣子? 終端並非最終形態…它慘敗於「媽媽測試」。將執行路徑映射到使用者介面還有很多有趣的事情要做。 來自 @CopilotKit 的 ag-ui 和最近的 A2UI 看起來很有意思,得好好研究一下。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。