C'est confirmé ! Le nouveau modèle de planche à voile, le SWE-1.5, ressemble davantage au GLM-4.5 ! Auparavant, des rumeurs circulaient en ligne selon lesquelles des entreprises de la Silicon Valley auraient commencé à modifier en profondeur, en interne, des modèles à poids ouvert développés localement. Les rumeurs les plus persistantes affirmaient que le modèle Composer-1 de Cursor avait été modifié à l'aide de DeepSeek (pour le post-entraînement ou le réglage fin), et que le modèle SWE-1.5 de Windsurf avait été modifié à l'aide de GLM-4.6. Le modèle précédent est quasiment confirmé, mais celui-ci reste à vérifier. Alors, mettons-nous au défi : quel modèle ressemble le plus à celui-ci lors du regroupement basé sur ses caractéristiques de sortie ? J'ai modifié Slop-Forensics et analysé les empreintes linguistiques de SWE-1.5 et d'autres modèles nationaux à grande échelle. Les résultats ont été inattendus : Il appartient au même groupe que GLM-4.5, et non à GLM-4.6 comme on le pensait auparavant ! Étant donné qu'un modèle doit être entraîné pendant un certain temps, même en utilisant d'autres modèles de base, pour obtenir de bons résultats, il est en effet plus probable qu'il s'agisse de GLM-4.5 (publié le 28 juillet) plutôt que de GLM-4.6 (publié le 1er octobre). C'est dommage qu'il n'ait pas été entraîné avec GLM-4.6, haha. Je pense qu'un entraînement avec GLM-4.6 comme modèle de base serait encore plus performant, non ? Est-ce que SWE-1.5 correspond à GLM-4.5 et SWE-1.6 à GLM-4.6 ? De plus, Cerebras (le fournisseur de services de cloud computing pour Windsurf, le modèle SWE-1.5) a décidé d'utiliser GLM-4.6 comme modèle recommandé par défaut. Compte tenu des performances de GLM-4.6 lors des tests (SWE-Bench : 68 %, LiveCodeBenchV6 : 82,8 %), j'estime que le prochain modèle utilisera très probablement GLM-4.6. Les maquettes à grande échelle de fabrication locale sont géniales ! Au fait, permettez-moi de vous expliquer les principes qui sous-tendent le projet Slop-Forensics : • Analyser la fréquence d'utilisation du vocabulaire et les schémas de répétition des expressions pour chaque modèle. • Convertir ces « habitudes langagières » en vecteurs de caractéristiques. • Construire un arbre phylogénétique à l'aide d'algorithmes de clustering ; la proximité indique des schémas langagiers similaires. Tout comme pour l'identification par empreintes digitales, même si différents modèles produisent le même contenu, leurs préférences lexicales sous-jacentes et leurs méthodes de combinaison de phrases révéleront la similarité des données d'entraînement ou de l'architecture. SWE-1.5 et GLM-4.5 sont étroitement regroupés dans l'arbre, ce qui indique qu'ils sont : La sélection des mots les plus fréquents et la répartition de la complexité lexicale au sein des combinaisons de phrases binaires/ternaires sont très cohérentes d'une dimension à l'autre. Cette similarité est difficile à imiter : elle est inhérente à la structure profonde du modèle. Ma version modifiée : https://t.co/s5h62S9apS #SmartSpectrum #GLM #Cursor #windsurf #cerebras #DomesticLargeModel #IAProgramming
Comment l'ai-je vérifié ?
Principe de vérification
en conclusion









