Tradubaoyu.io/blog/code-exec…://t.co/YXBXYDv0e4
Ce résuméx.com/omarsar0/statu… : https://t.co/rQqEhdiORG Anthropic a publié un autre guide exceptionnel. Le sujet de cette fois-ci est : Comment construire des agents d'IA plus efficaces, capables d'utiliser les outils plus intelligemment et de réaliser des économies significatives de jetons. Si vous êtes développeur en IA, vous ne pouvez absolument pas passer à côté de cet article ! Il aborde principalement trois défis majeurs auxquels sont confrontés les agents d'IA lorsqu'ils invoquent des outils : le coût des jetons, la latence et l'efficacité des combinaisons d'outils. Comment cela fonctionne-t-il ? En termes simples, il combine « exécution de code » et « code généré par le modèle » (MCP). Au lieu de laisser l’agent d’IA « appeler directement les outils », il « déguise » ces outils en API de code, permettant ainsi à l’agent d’IA de les utiliser en écrivant du code, comme un programmeur. Voici les principaux points à retenir de ce guide : 1. Le « trou noir » de l'efficacité des jetons : Imaginez qu'un agent d'IA intègre immédiatement toutes les définitions d'outils possibles dans son « cerveau » (fenêtre de contexte) et renvoie ensuite les résultats intermédiaires à chaque étape de la tâche. Cela entraînerait une augmentation exponentielle du nombre de jetons ; une tâche complexe nécessitant plusieurs outils pourrait parfois dépasser 150 000 jetons. 2. La stratégie « Code comme API » : Cette nouvelle approche évite d’appeler directement les outils. Au lieu de cela, ces kits d’outils de « code écrit par modèle » (MCP) sont intégrés à des API (telles que des modules TypeScript). Les agents d’IA peuvent ensuite importer ces API et les appeler par programmation, comme le font les programmeurs. L’effet est immédiat : une tâche nécessitant 150 000 jetons a été instantanément réduite à 2 000 jetons, soit une économie de 98,7 % ! 3. « Découverte progressive » des outils : au lieu de charger tous les outils simultanément, l’agent d’IA apprend à les utiliser à la demande, en parcourant le système de fichiers ou en appelant la fonction `search_tools` pour charger les définitions d’outils pertinentes à la tâche en cours uniquement lorsque cela est nécessaire. Ceci résout parfaitement les problèmes de « détérioration du contexte » et de surcharge de jetons. 4. « Traitement local des données » : Avant de transmettre les résultats au modèle de langage étendu (LLM), les données sont traitées dans l’environnement d’exécution du code (par exemple, filtrage, transformation et synthèse). Par exemple, l’agent d’IA n’a pas besoin de consulter un tableau de 10 000 lignes ; l’environnement d’exécution du code filtrera d’abord les 5 lignes les plus pertinentes avant de les lui transmettre. 5. Amélioration du flux de contrôle : au lieu de laisser un agent d’IA « commander » l’outil étape par étape (par exemple, « faire A, puis faire B »), il est préférable de gérer le processus directement à l’aide de boucles, de conditions et de mécanismes de gestion des erreurs natifs dans le code. Cela réduit la latence et permet d’économiser des jetons. 6. Protection de la vie privée : Les données sensibles peuvent être transmises tout au long du flux de travail sans jamais être intégrées au modèle global. Seules les valeurs explicitement désignées pour être « retournées » ou « enregistrées » seront visibles par le modèle. Une option permet également d’anonymiser automatiquement les informations personnelles identifiables (IPI). 7. Persistance de l'état : les agents d'IA peuvent enregistrer les résultats intermédiaires dans des fichiers et « reprendre les téléchargements interrompus ». Cela leur permet de gérer des « tâches importantes » de longue durée et de suivre leur progression. 8. « Packs de compétences » réutilisables : les agents d’IA peuvent enregistrer leur code fonctionnel sous forme de « fonctions réutilisables » (avec les fichiers SKILL .MD). Au fil du temps, ils peuvent ainsi constituer une « bibliothèque de compétences » puissante et avancée. Bien que cette méthode soit plus complexe et pas encore parfaite, elle peut certainement améliorer l'efficacité et la précision des agents d'IA que vous créez.