確認しました!Windsurfの新モデルSWE-1.5はGLM-4.5に似ています! 以前、シリコンバレーの企業が国内で開発されたオープンウェイトモデルを社内で大規模に改造し始めたという噂がネット上で広まっていました。最も有力な噂は、Cursor社のComposer-1がDeepSeek(学習後または微調整用)を使用して改造されたこと、そしてWindsurf社のSWE-1.5がGLM-4.6を使用して改造されたというものでした。 前のものはほぼ確認済みですが、こちらはまだ検証されていません。そこで、皆さんにチャレンジしてみましょう。出力特徴に基づいてクラスタリングした場合、このモデルがどちらのモデルに似ているかを見てみましょう。 Slop-Forensicsを改良し、SWE-1.5やその他の大規模国内モデルの言語指紋を分析しました。結果は予想外のものでした。 これは、以前噂されていた GLM-4.6 ではなく、GLM-4.5 と同じクラスターに属します。 他のベースモデルを使用する場合でも、良好な結果を得るにはモデルを一定期間トレーニングする必要があることを考慮すると、GLM-4.6 (10 月 1 日リリース) ではなく GLM-4.5 (7 月 28 日リリース) になる可能性が高くなります。 GLM-4.6で学習させていないのは残念ですね(笑)。GLM-4.6をベースモデルとして学習させた方がもっと強力になると思うのですが、どうでしょうか?SWE-1.5はGLM-4.5に対応していて、SWE-1.6はGLM-4.6に対応しているのでしょうか? さらに、Windsurf(SWE-1.5モデル)のクラウドコンピューティングサービスプロバイダーであるCerebrasは、GLM-4.6をデフォルトの推奨モデルとして使用することを決定しました。テストにおけるGLM-4.6のパフォーマンス(SWE-Bench 68%、LiveCodeBenchV6 82.8%)を考慮すると、次期モデルではGLM-4.6が採用される可能性が非常に高いと予想されます。 国産大型プラモデルはすごいですね! ちなみに、Slop-Forensics プロジェクトの背後にある原則を説明しましょう。 • 各モデルの語彙使用頻度とフレーズ繰り返しパターンを分析します。 • これらの「言語習慣」を特徴ベクトルに変換します。 • クラスタリングアルゴリズムを用いて系統樹を構築します。近接性は類似した言語パターンと等しくなります。 指紋認証と同様に、異なるモデルが同じコンテンツを出力したとしても、その基礎となる語彙の好みやフレーズの組み合わせ方法によって、トレーニング データやアーキテクチャの類似性が明らかになります。 SWE-1.5 と GLM-4.5 はツリー内で密集しており、次のことを示しています。 高頻度語の選択と、二項・三項フレーズの組み合わせにおける語彙的複雑性の分布は、これらの次元全体にわたって非常に一貫しています。この類似性は、モデルの深層構造に根ざしているため、偽造することは困難です。 私の改変版: https://t.co/s5h62S9apS #SmartSpectrum #GLM #カーソル #ウィンドサーフィン #cerebras #国内大型モデル #AIプログラミング
どうやって確認したんですか?
検証原則
結論は









