A explicação da LangChain sobre como os agentes podem usar sistemas de arquivos para engenharia de contexto me deu vontade de rir. Não é essa a ideia central por trás da abordagem de engenharia de contexto de Manus? Libere as informações do prompt. Coloque-o no estado externo. Leia o que precisa ler, descarte o que precisa descartar e não sobrecarregue seu estoque com modelos. O princípio fundamental é transformar o contexto em um recurso controlável; simplesmente acumular recursos incontroláveis não é diferente de rezar. Mas existem algumas diferenças; o LangChain vai ainda mais longe. Isso faz com que o agente trate o sistema de arquivos como se fosse seu próprio córtex cerebral. A estrutura de diretórios é a hierarquia abstrata, e grep/glob é o mecanismo de recuperação. (Isso lhe soa familiar? Dois grandes fabricantes de modelos também fazem isso.) Os resultados da pesquisa são primeiro gravados no sistema de arquivos e, em seguida, recuperados conforme necessário. Anote todas as instruções, descrições de ferramentas, roteiros e processos de pensamento em um arquivo. O agente pode executar operações CRUD por conta própria. Essa sensação me é muito familiar. Na era pré-Internet, quando a arquitetura atingiu o nível de sistema, todos eventualmente chegaram à mesma conclusão. Sejam os threads de contexto do Manus, o bloco de notas ou o gerenciamento do ciclo de vida, Ainda é a abordagem do LangChain de priorizar o sistema de arquivos, usar agentes modulares e contexto preguiçoso. Em última análise, todas elas apontam para uma única frase: Contexto ≠ Janela de Token. Contexto = Estado externalizado + Mecanismo de agendamento + Estrutura sustentável. Não importa o tamanho do modelo, no final das contas, tudo se resume à engenharia, pelo menos por enquanto.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.