石錘! Windsurf 的新模型SWE-1.5 更像GLM-4.5! 之前網傳矽谷的公司已經在內部開始大面積用國產開放權重大模型來魔改了, 傳的尤其猛的是Cursor 的Composer-1 是用DeepSeek 魔改(後訓練或微調)的, 而Windsurf 的SWE-1.5 是用GLM-4.6 魔改的. 而上一個基本上已經石鎚了, 這個還沒有被驗證, 於是給大家整個活, 看看這個模型從輸出特徵進行聚類, 更像哪個模型. 我魔改了Slop-Forensics 分析了SWE-1.5 和其它國產大模型的語言指紋, 結果出乎意料: 它與GLM-4.5 聚集在同一分支,而非先前網傳的GLM-4.6! 考慮到一個模型想要效果好, 即使用其他的基座模型也要後訓練一段時間, 所以的確更可能是GLM-4.5 (7月28號發布), 而不是GLM-4.6 (10月1號發布). 可惜了它沒用GLM-4.6 後訓練哈哈哈, 我覺得以目前GLM-4.6 作為基座模型後訓練會比現在更猛, 或者是不是這樣? SWE-1.5 對應GLM-4.5, SWE-1.6 對應GLM-4.6? 另外, Cerebras (即Windsurf 這個SWE-1.5 模型的雲端運算服務商), 決定將GLM-4.6 作為預設推薦模型, 考慮到GLM-4.6 在測試上的表現(SWE-Bench 68%, LiveCodeBenchV6 82.8%), 我估計下一個模型用概率就特別大了. 國產大模型牛皮! 順便來講一下Slop-Forensics 這個專案的原理: • 統計每個模型的詞彙使用頻率和短語重複模式• 將這些"語言習慣"轉化為特徵向量• 用聚類演算法構建系統發育樹,距離近=語言模式相似 就像指紋鑑定,不同模型即使輸出相同內容,其底層的詞彙偏好、短語組合方式會暴露出訓練資料或架構的相似性. SWE-1.5 和GLM-4.5 在樹上緊密聚類,說明它們在: 高頻詞選擇二元/三元短語組合詞彙複雜度分佈這些維度上高度一致。這種相似性很難偽造-它根植於模型的深層結構. 我魔改的版本:https://t.co/s5h62S9apS #智譜#GLM #Cursor #windsurf #cerebras #國產大模型#AI編程
我是怎麼驗證的
驗證原理
結論









