Este resux.com/omarsar0/statu…o: https://t.co/rQqEhdiORG Anthropic ha publicado otra guía increíble. El tema de esta ocasión es: Cómo construir agentes de IA más eficientes que puedan usar las herramientas de forma más inteligente y ahorrar tokens de forma significativa. Si eres desarrollador de IA, ¡no puedes perderte este artículo! Aborda principalmente tres grandes desafíos a los que se enfrentan los agentes de IA al invocar herramientas: el coste del token, la latencia y la eficiencia de las combinaciones de herramientas. ¿Cómo lo hace? En pocas palabras, combina la ejecución de código con el código escrito por el modelo (MCP). En lugar de permitir que el agente de IA llame directamente a las herramientas, las disfraza de API de código, lo que le permite usarlas escribiendo código, como un programador. Aquí están las principales conclusiones de esta guía: 1. El «agujero negro» de la eficiencia de tokens: Imagine que un agente de IA almacena inmediatamente todas las definiciones de herramientas posibles en su memoria (ventana de contexto) y luego descarta los resultados intermedios en cada paso de la tarea. Esto provocaría un aumento desmesurado en el consumo de tokens; una tarea compleja con múltiples herramientas podría llegar a superar los 150 000 tokens. 2. La estrategia de "Código como API": Este nuevo enfoque evita la invocación directa de herramientas. En su lugar, estos conjuntos de herramientas de "código escrito por el modelo" (MCP) se empaquetan en API de código (como módulos TypeScript). Los agentes de IA pueden entonces "importar" estas API e invocarlas mediante programación, al igual que los programadores. El efecto es inmediato: una tarea que requería 150 000 tokens se redujo instantáneamente a 2000, ¡ahorrando un 98,7%! 3. «Descubrimiento progresivo» de herramientas: En lugar de cargar todas las herramientas a la vez, el agente de IA aprende a «usarlas bajo demanda», buscando en el sistema de archivos o llamando a la función `search_tools` para cargar las definiciones de herramientas relevantes para la tarea actual solo cuando sea necesario. Esto resuelve perfectamente los problemas de «perturbación del contexto» y sobrecarga de tokens. 4. "Procesamiento local de datos": Antes de enviar los resultados al Modelo de Lenguaje Grande (LLM), procese los datos en el entorno de ejecución del código (por ejemplo, filtrándolos, transformándolos y resumiéndolos). Por ejemplo, el agente de IA no necesita visualizar una tabla con 10 000 filas; el entorno de código primero filtrará las 5 filas más importantes antes de enviárselas. 5. Flujo de control mejorado: En lugar de que un agente de IA «ordene» la herramienta paso a paso (p. ej., «hacer A, luego hacer B»), es mejor gestionar el proceso directamente mediante bucles nativos, condicionales y control de errores en el código. Esto reduce la latencia y ahorra tokens. 6. Protección de la privacidad: Los datos sensibles pueden transmitirse a lo largo del flujo de trabajo sin entrar nunca en la "vista" (contexto) del modelo principal. El modelo solo verá los valores explícitamente designados para ser "devueltos" o "registrados", y también existe la opción de anonimizar automáticamente la información de identificación personal (IIP). 7. Persistencia de estado: Los agentes de IA pueden guardar resultados intermedios en archivos y "reanudar descargas interrumpidas". Esto les permite manejar "tareas grandes" de larga duración y realizar un seguimiento del progreso. 8. Paquetes de habilidades reutilizables: Los agentes de IA pueden guardar su código escrito y eficaz como funciones reutilizables (junto con archivos SKILL.MD). Con el tiempo, pueden acumular una potente y avanzada biblioteca de habilidades. Si bien este método es más complejo y aún no es perfecto, definitivamente puede mejorar la eficiencia y la precisión de los agentes de IA que usted cree.
Cargando el detalle del hilo
Obteniendo los tweets originales de X para ofrecer una lectura limpia.
Esto suele tardar solo unos segundos.