Lavage de cerveau de votre agent intelligent : comment nous préservons la mémoire L'équipe de @CamelAIOrg se concentre sur l'ingénierie du contexte, qui améliore les performances et l'efficacité des agents en optimisant leur gestion de la mémoire. L'auteur @Hesamation souligne que les agents n'« oublient » pas réellement, mais souffrent plutôt d'une gestion inefficace du contexte. Les développeurs peuvent influencer considérablement le niveau d'« intelligence » d'un agent en contrôlant son contexte. Cet article présente trois techniques du framework CAMEL pour optimiser l'utilisation de la mémoire : la synthèse du contexte, la gestion de la mémoire des flux de travail et la mise en cache des résultats des outils. Ces méthodes visent à résoudre le problème de la surcharge de contexte fréquemment rencontré par les agents lors du traitement des tâches, améliorant ainsi l'efficacité et réduisant les coûts. Pourquoi la gestion de la mémoire est-elle nécessaire ? Les problèmes courants rencontrés dans le flux de travail d'un agent incluent le déraillement des tâches, les tâches répétitives et la surcharge des résultats des outils. Ces problèmes peuvent entraîner un remplissage rapide de la fenêtre de contexte, consommant ainsi une grande quantité de jetons et de temps. Trois technologies clés 1. Synthèse du contexte : Préservation du contenu essentiel. Problèmes et usages : Les agents peuvent parfois s’enliser dans des tâches annexes, comme par exemple se préoccuper excessivement du débogage de bases de données lors du développement d’une application de conversion texte-emoji, ce qui entraîne des retards dans la tâche principale et une forte consommation de ressources. • Conditions de déclenchement : lorsque le contexte utilise plus de 80 % de la fenêtre ; lorsque le contexte déraille et doit être réinitialisé ; ou lorsqu’une ancienne session est référencée dans une nouvelle session. • Implémentation CAMEL : Propose trois méthodes : la synthèse automatique basée sur des seuils de jetons, les appels API manuels et la synthèse à l’aide d’une boîte à outils mise à la disposition de l’agent. Le processus de synthèse s’appuie sur des requêtes soigneusement conçues pour extraire les informations clés telles que les demandes principales de l’utilisateur, les tâches restantes et l’avancement actuel. Parallèlement, il conserve un minimum de messages utilisateur afin de réduire la dépendance à la synthèse LLM et d’éviter d’éventuelles inexactitudes. Avantages : Aide l'agent à se recentrer rapidement et réduit les distractions dues aux détails non pertinents. 2. Mémoire du flux de travail : Apprentissage à partir de l’expérience passée. Problèmes et utilisations : Les agents répètent souvent les mêmes actions dans des tâches répétitives, comme la compilation d’une liste de livres gratuits sur l’apprentissage automatique, où l’accès à archive.org doit être résolu à chaque fois, mais l’expérience ne peut pas être conservée. • Conception de base : La mémoire du flux de travail est un résumé structuré des tâches passées, comprenant le titre de la tâche (bref et général), la description de la tâche (résumé des objectifs de l'utilisateur, sans détails d'implémentation), les étapes de la solution (actions générales numérotées), la liste des outils (description d'utilisation), la stratégie de récupération des pannes (facultative), les notes d'observation (facultatives) et les étiquettes (3 à 10, pour la classification et la correspondance). • Mécanisme de chargement : les développeurs peuvent spécifier une session ou charger des fichiers en fonction des rôles des agents ; les agents sélectionnent les N plus pertinents dans la liste du flux de travail (évitez d’utiliser RAG pour plus de simplicité). • Applications de recherche : L’article mentionne que la méthode améliore significativement les performances dans les tâches de navigation sur réseau et cite des articles pertinents. Avantages : Permet aux agents intelligents de réutiliser leur expérience et améliore l'efficacité des tâches répétitives. 3. Mise en cache de la sortie des outils : un avertissement • Problèmes et utilisations : La sortie des outils (telle que les résultats de recherche Web ou le contenu des fichiers) est souvent verbeuse (par exemple, un résultat de recherche de 4250 caractères), et la conserver dans le contexte pendant une longue période peut entraîner une croissance explosive des jetons. • Implémentation CAMEL : Surveille les sorties dépassant 2 000 caractères, enregistre les sorties plus anciennes dans un fichier externe (par exemple, Markdown) et ne conserve dans le contexte que l’identifiant de référence et l’aperçu (160 premiers caractères). Fournit des commandes pour récupérer la sortie complète. Défis et risques : Bien que cette méthode permette d’économiser des jetons, elle peut entraîner une perte d’informations (l’agent se fie aux aperçus et ignore les détails) et une charge cognitive accrue (nécessitant le suivi des identifiants et la décision de récupérer ou non les données). L’article la considère comme une tentative de concilier efficacité et précision, et elle a été abandonnée dans CAMEL, ce qui nécessite une optimisation supplémentaire. Avantages et mises en garde : Convient pour une production élevée, mais la prudence est de mise afin d’éviter toute dégradation des performances.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
