Reflexiones sobre la ingeniería de agentes y la idea de combinar UI/UX con habilidades: Entonces, la razón por la que desea saber cuándo un agente llama a una herramienta o necesita aprobación humana, está pensando o no pensando, etc., es porque tiene un código determinista que ajusta la UI/UX para el usuario en función de lo que está sucediendo. Así que básicamente: 1. Sucede X cosa 2. Se activó la ruta del código que actualiza la interfaz de usuario en función de la cosa X Lo más popular hoy son las Habilidades del Agente (personalmente, soy muy optimista al respecto porque considero que son un buen mecanismo de distribución de las capacidades del agente). Las habilidades son básicamente "agrupadores" de instrucciones, documentos y código. Proporcionan al agente un conjunto de capacidades y le indican cómo usarlas. Explican una ruta de ejecución. Pero, ¿qué sucedería si también incluyeran una ruta UI/UX? ¿Cómo debería verse la UI/UX cuando se ejecuta esta habilidad? La Terminal no es el formato final… falla miserablemente la prueba de Mamá. Hay muchas cosas interesantes que hacer con el mapeo de rutas de ejecución a la UI. ag-ui de @CopilotKit y recientemente A2UI parecen interesantes. Hay que profundizar más aquí.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.