L'architecture Transformer est fondamentalement un processeur parallèle de contexte, mais le raisonnement est un processus séquentiel et itératif. Pour résoudre des problèmes complexes, un modèle a besoin d'une « zone de travail » non seulement dans son espace de sortie, mais aussi dans son état interne. Il s'agit d'une méthode différentiable pour boucler, se brancher et revenir en arrière jusqu'à ce que le modèle trouve une solution fonctionnelle.
Chargement du thread
Récupération des tweets originaux depuis X pour offrir une lecture épurée.
Cela ne prend généralement que quelques secondes.