Tradubaoyu.io/blog/code-exec….co/YXBXYDv0e4
Este resux.com/omarsar0/statu… https://t.co/rQqEhdiORG A Anthropic lançou mais um guia incrível. Desta vez, o tema é: Como construir agentes de IA mais eficientes que possam usar as ferramentas de forma mais inteligente e economizar tokens significativamente. Se você é um desenvolvedor de IA, não pode perder este artigo de jeito nenhum! Ele aborda principalmente três grandes desafios enfrentados por agentes de IA ao invocar ferramentas: custo do token, latência e eficiência das combinações de ferramentas. Como isso é possível? Simplificando, combina "execução de código" com "código escrito pelo modelo" (MCP). Em vez de permitir que o agente de IA "chame ferramentas" diretamente, ele "disfarça" essas ferramentas como APIs de código, permitindo que o agente de IA as utilize escrevendo código, assim como um programador. Aqui estão os principais pontos a serem destacados deste guia: 1. O "Buraco Negro" da Eficiência de Tokens: Imagine se um agente de IA armazenasse imediatamente todas as definições de ferramentas possíveis em seu cérebro (janela de contexto) e, em seguida, enviasse os resultados intermediários a cada etapa da tarefa. Isso levaria a um aumento explosivo na sobrecarga de tokens; uma tarefa complexa com múltiplas ferramentas poderia, às vezes, ultrapassar 150.000 tokens. 2. A estratégia "Código como API": A nova abordagem evita a chamada direta de ferramentas. Em vez disso, esses kits de ferramentas de "código escrito por modelo" (MCP) são empacotados em APIs de código (como módulos TypeScript). Os agentes de IA podem então "importar" essas APIs e chamá-las programaticamente, assim como os programadores. O efeito é imediato: uma tarefa que exigia 150.000 tokens foi instantaneamente reduzida para 2.000 tokens, economizando 98,7%! 3. "Descoberta Progressiva" de Ferramentas: Em vez de carregar todas as ferramentas de uma só vez, o agente de IA aprende a "usar sob demanda", pesquisando no sistema de arquivos ou chamando a função `search_tools` para carregar as definições de ferramentas relevantes para a tarefa atual somente quando necessário. Isso resolve perfeitamente os problemas de "deterioração de contexto" e sobrecarga de tokens. 4. "Processamento Local de Dados": Antes de enviar os resultados para o Modelo de Linguagem Amplo (LLM), processe os dados no ambiente de execução do código (por exemplo, filtrando, transformando e resumindo). Por exemplo, o agente de IA não precisa visualizar uma tabela com 10.000 linhas; o ambiente de código primeiro filtrará as 5 linhas mais importantes antes de enviá-las ao agente. 5. Fluxo de Controle Aprimorado: Em vez de um agente de IA "comandar" a ferramenta passo a passo (por exemplo, "faça A, depois faça B"), é melhor gerenciar o processo diretamente usando loops nativos, condicionais e tratamento de erros no código. Isso reduz a latência e economiza tokens. 6. Proteção da Privacidade: Dados sensíveis podem ser transmitidos ao longo do fluxo de trabalho sem nunca entrarem na "visão" (contexto) do modelo maior. Somente os valores explicitamente designados para serem "retornados" ou "registrados" serão vistos pelo modelo, e também existe a opção de anonimizar automaticamente informações de identificação pessoal (PII). 7. Persistência de Estado: Agentes de IA podem salvar resultados intermediários em arquivos e "retomar downloads interrompidos". Isso permite que eles lidem com "tarefas grandes" de longa duração e acompanhem o progresso. 8. Pacotes de habilidades reutilizáveis: os agentes de IA podem salvar seu código eficaz como "funções reutilizáveis" (juntamente com arquivos SKILL .MD). Com o tempo, eles podem acumular uma poderosa e avançada "biblioteca de habilidades". Embora esse método seja mais complexo e ainda não seja perfeito, ele certamente pode melhorar a eficiência e a precisão dos agentes de IA que você criar.