关于智能体工程以及将 UI/UX 与技能捆绑在一起的想法: 所以,你之所以想知道代理何时调用工具、何时需要人工审批、何时在思考还是在无意识地操作等等,是因为你的代码是确定性的,它会根据实际情况调整用户的用户界面/用户体验。 所以基本上: 1. 发生了X事件 2. 根据 X 事件触发的代码路径会更新 UI 如今的热门话题是智能体技能(我个人非常看好它们,认为它们是智能体能力的一种很好的分发机制)。 技能本质上是指令/文档和代码的“打包器”。它们赋予智能体一系列能力,并告诉它如何使用这些能力。它们解释了执行路径。 但如果他们还捆绑了 UI/UX 路径呢?——> 当执行此技能时,UI/UX 应该是什么样子? 终端并非最终形态……它惨败于“妈妈测试”。将执行路径映射到用户界面还有很多有趣的事情要做。 来自 @CopilotKit 的 ag-ui 和最近的 A2UI 看起来很有意思,得好好研究一下。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。