L'explication de LangChain sur la façon dont les agents peuvent utiliser les systèmes de fichiers pour l'ingénierie du contexte m'a donné envie de rire. N'est-ce pas là l'idée centrale de l'approche d'ingénierie contextuelle de Manus ? Libérez les informations de l'invite. Mettez-le en mode externe. Lisez ce que vous devez lire, jetez ce que vous devez jeter et ne surchargez pas votre entrepôt de modèles. Le principe fondamental est de transformer le contexte en une ressource contrôlable ; accumuler des ressources incontrôlables revient à prier. Mais il existe des différences ; LangChain va encore plus loin. Cela permet à l'agent de traiter le système de fichiers comme son propre cortex cérébral. La structure des répertoires constitue la hiérarchie abstraite, et grep/glob représente le mécanisme de récupération. (Cela vous semble familier ? Deux grands fabricants de maquettes font également cela.) Les résultats de la recherche sont d'abord enregistrés dans le système de fichiers, puis récupérés en fonction des besoins. Consignez toutes les invites, les descriptions d'outils, les feuilles de route et les processus de réflexion dans un fichier. L'agent peut effectuer des opérations CRUD de manière autonome. Ce sentiment m'est très familier. À l'époque pré-Internet, lorsque l'architecture a atteint le niveau système, tout le monde finissait par arriver à la même conclusion. Qu'il s'agisse des fils de discussion contextuels, du bloc-notes ou de la gestion du cycle de vie de Manus, Il s'agit toujours de l'architecture de LangChain axée sur le système de fichiers, les agents modulaires et le contexte paresseux. Au final, tout cela converge vers une seule phrase : Contexte ≠ Fenêtre de jetons. Contexte = État externalisé + Mécanisme de planification + Structure maintenable. Quelle que soit la taille du modèle, tout se résume au final à l'ingénierie, du moins pour l'instant.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.