Sans surprise, mon projet de lire le code source de Kimi CLI a été retardé 😂 Après avoir cessé de travailler, j'avais moins de temps libre. Je ne disposais que de quelques minutes d'affilée le soir, une fois ma famille couchée. Le reste du temps était fragmenté en quelques minutes à la fois, ce qui rendait difficile une concentration soutenue sur mes études. Hier soir, j'ai passé un peu de temps à combiner le projet open-source Kimi CLI, quelques articles de blog de Claude Code et DeepWiki pour en acquérir une compréhension de base. Je la publie ici en premier, et si vous remarquez des lacunes, n'hésitez pas à me les signaler. J'ajouterai d'autres informations une fois que j'aurai approfondi mes connaissances. De l'utilisation initiale des « onglets » du curseur à l'utilisation actuelle d'« agents asynchrones personnalisés » comme les agents de codage d'IA de Claude Code, voici quelques observations simples : 1. Évolué de « Chat » à « Boucle » Auparavant, ChatGPT/Copilot fonctionnait selon le principe « vous posez une question, il répond à une question » ; désormais, Claude Code et Kimi CLI sont tous deux des machines à états basées sur REPL (boucle de lecture-évaluation-impression). • Cycle autonome : Ils n'attendent plus passivement, mais suivent un cycle principal de « Pendant que (non résolu) {Penser -> Agir -> Observer} ». • Autocorrection : La technologie de pointe ici repose sur le « cycle de développement piloté par les tests ». Une fois le code généré, l’agent exécute activement les commandes `npm test` ou `pytest`. En cas d’erreur, il consulte le journal d’erreurs, modifie le code et le relance jusqu’à ce que le test réussisse. 2. L'introduction de la pensée « Système 2 » : Avec l'émergence de modèles dotés de « capacité de réflexion », une étape explicite de « réflexion lente » a été ajoutée à l'architecture de l'agent de codage. • Réfléchissez avant de coder : avant d’exécuter toute action edit_file, l’architecture oblige le modèle à générer un bloc . L’agent ne réagit plus instantanément au code par intuition, mais déduit d’abord les dépendances dans l’espace implicite. • Arbre de planification : Une liste de tâches structurée est générée avant le début d’une tâche complexe. Cette liste est dynamique ; l’agent y insère dynamiquement de nouvelles étapes en fonction de l’état d’exécution (par exemple, en découvrant des dépendances manquantes). 3. Normalisation des interfaces d'outils (MCP) Il s'agit d'une tendance très claire dans le secteur : la standardisation de l'utilisation des outils. • Importance : Auparavant, pour permettre à l’IA de lire les ordres de travail Linear ou les bases de données PostgreSQL, chaque agent devait développer son propre plugin. Désormais, dès lors que la base de données ou le logiciel SaaS prend en charge MCP, Claude Code et Kimi CLI peuvent être utilisés directement comme solutions prêtes à l’emploi. • Tendance de pointe : les capacités d'un agent ne dépendent plus du nombre d'outils intégrés, mais du nombre de serveurs MCP présents dans l'écosystème. 4. Tâches longues « sans tête » et asynchrones : Il s'agit actuellement de la direction de recherche la plus novatrice, consistant à faire fonctionner l'agent comme un processus en arrière-plan. · L'humain dans la boucle plutôt que l'humain intégré à la boucle : Les plugins IDE traditionnels vous obligent à les fixer du regard pendant que vous écrivez du code. Les architectures Claude Code et Kimi CLI prennent désormais en charge la délégation de tâches. Vous pouvez ainsi exécuter une commande vague et aller vous chercher un café. L'agent parcourra des centaines de fichiers, effectuera des modifications, exécutera des tests ou lancera même automatiquement un commit Git pendant 20 minutes. • Sensibilisation aux coûts : Étant donné que ces tâches asynchrones consomment beaucoup de jetons, les architectures ont commencé à intégrer une « estimation des coûts » et à demander une approbation budgétaire avant d’effectuer une refactorisation à grande échelle.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.
