Reflexões sobre engenharia de agentes e a ideia de integrar UI/UX com habilidades: Então, o motivo pelo qual você quer saber quando um agente aciona uma ferramenta ou precisa de aprovação humana — seja por raciocínio ou inércia, etc. — é porque você tem um código determinístico que ajusta a interface do usuário/experiência do usuário com base no que está acontecendo. Então, basicamente: 1. Acontece algo X 2. Caminho de código acionado que atualiza a interface do usuário com base em um evento X A grande novidade do momento são as Habilidades de Agente (pessoalmente, sou muito otimista quanto a elas como um bom mecanismo de distribuição de capacidades de agentes). As habilidades são basicamente "agrupadoras" de instruções/documentação e código. Elas fornecem ao agente um conjunto de capacidades e indicam como utilizá-las. Elas explicam um caminho de execução. Mas e se eles também incluíssem um caminho de UI/UX? Como a UI/UX deveria ser quando essa Skill for executada? O Terminal não é o formato final... ele falha miseravelmente no teste da mãe. Há muitas coisas interessantes a serem feitas com o mapeamento de caminhos de execução para a interface do usuário. ag-ui do @CopilotKit e, mais recentemente, o A2UI parecem interessantes; preciso investigar mais a fundo.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.