Le fait que cela se produise encore est précisément la raison pour laquelle je pense que le modèle « agent » des LLM est erroné. Un agent ne se comporterait pas ainsi. Un agent poursuivrait sa tâche sans relâche jusqu'à ce qu'elle soit parfaitement exécutée. Vous savez ce qui permettrait de faire cela ? Une fonction de saisie semi-automatique sophistiquée.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.