Qui se souvient de l'époque où Karpathy étudiait ImageNet manuellement ? L'inspection manuelle des entrées des modèles conserve une valeur ajoutée considérable, plus que jamais aujourd'hui avec LLMS/Agents. Elle permet de développer son intuition et, par conséquent, d'améliorer l'ingénierie des agents. De nos jours, les entrées des agents sont d'immenses ensembles disparates d'invites système, de définitions d'outils, d'entrées/sorties d'outils, de raisonnements, de messages utilisateur et de sorties d'agent. @HamelHusain, tu as l'impression qu'il te dit d'analyser tes données. Si tu lisais vraiment tout ça, comprendrais-tu vraiment ce qui se passe ? Mais tu peux aider le modèle à t'aider en mettant en place des systèmes qui préparent bien les données d'entrée (ingénierie du contexte). Les meilleures intuitions sur les modes de défaillance proviennent souvent de la lecture directe des traces. Aujourd'hui, les agents peuvent vous aider à analyser l'immense quantité de données générées lors des exécutions. Mais restez connectés : les humains excellent dans l'évaluation des domaines qu'ils maîtrisent, tandis que les agents excellent dans la reconnaissance de formes au sein d'océans de données — une combinaison gagnante. Je veux savoir à quel point les personnes qui développent des agents ressentent le travail manuel qu'elles effectuent, et dans quelle mesure elles pensent que cela leur est utile.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.