> Je suis assez curieux de savoir à quoi aurait ressemblé le score si le modèle avait produit des résultats pour chaque échantillon sans dépasser la limite maximale de jetons de sortie. Il leur faut absolument réduire la verbosité du raisonnement et/ou étendre le contexte à plus de 256 Ko. En théorie, les structures de données et les algorithmes permettent de réaliser cela à moindre coût.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.