RT @yan5xu : C’est très similaire à mon expérience de développement. 1. LLM reste essentiellement une API. Hormis l'ajout d'une couche d'abstraction pour unifier les interfaces de différents fournisseurs (OpenRouter), aucune autre abstraction n'est nécessaire. 2. Je ne suis pas tout à fait d'accord avec la mise en cache ; la mise en cache implicite est simple et fonctionne très bien. 3. Les outils de réflexion sont une technique avancée utilisée par tous les agents…
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.