확인되었습니다! Windsurf의 새로운 모델인 SWE-1.5가 GLM-4.5와 더 비슷해 보입니다! 이전에는 실리콘 밸리 기업들이 국내에서 개발된 개방형 가중치 모델을 내부적으로 광범위하게 수정하기 시작했다는 소문이 온라인에서 돌았습니다. 가장 두드러진 소문은 Cursor의 Composer-1이 DeepSeek(후속 학습 또는 미세 조정)를 사용하여 수정되었고, Windsurf의 SWE-1.5가 GLM-4.6을 사용하여 수정되었다는 것입니다. 이전 모델은 기본적으로 확인되었지만, 이번 모델은 아직 검증되지 않았습니다. 자, 모두에게 과제를 내보겠습니다. 출력 특성을 기준으로 클러스터링할 때 이 모델이 어떤 모델과 더 유사한지 확인해 보세요. Slop-Forensics를 수정하여 SWE-1.5 및 기타 대규모 국내 모델의 언어 지문을 분석했습니다. 그 결과는 예상치 못한 것이었습니다. 이는 이전에 소문난 GLM-4.6이 아니라 GLM-4.5와 같은 클러스터에 속합니다! 다른 기본 모델을 사용하더라도 좋은 결과를 얻으려면 모델을 일정 기간 동안 훈련해야 한다는 점을 고려하면 실제로는 GLM-4.6(10월 1일 출시)보다는 GLM-4.5(7월 28일 출시)일 가능성이 더 높습니다. GLM-4.6으로 학습하지 않은 게 아쉽네요. 하하. GLM-4.6을 기본 모델로 학습하면 훨씬 더 강력해질 것 같은데, 맞는 말인가요? SWE-1.5는 GLM-4.5에 대응하고, SWE-1.6은 GLM-4.6에 대응하나요? 또한, Windsurf의 클라우드 컴퓨팅 서비스 제공업체인 Cerebras(SWE-1.5 모델)는 GLM-4.6을 기본 권장 모델로 사용하기로 결정했습니다. 테스트에서 GLM-4.6의 성능(SWE-Bench 68%, LiveCodeBenchV6 82.8%)을 고려할 때, 다음 모델에서는 GLM-4.6을 사용할 가능성이 매우 높다고 예상합니다. 국산 대형 모델 키트는 정말 대단해요! 그런데 Slop-Forensics 프로젝트의 원리를 설명해 드리겠습니다. • 각 모델의 어휘 빈도와 구문 반복 패턴을 분석합니다. • 이러한 "언어 습관"을 특징 벡터로 변환합니다. • 클러스터링 알고리즘을 사용하여 계통수를 구축합니다. 근접성은 유사한 언어 패턴을 의미합니다. 지문 식별과 마찬가지로 서로 다른 모델이 동일한 콘텐츠를 출력하더라도 기본적인 어휘 선호도와 구문 조합 방법을 통해 훈련 데이터나 아키텍처의 유사성이 드러납니다. SWE-1.5와 GLM-4.5는 트리에서 밀접하게 클러스터링되어 있으며, 이는 다음을 나타냅니다. 빅램과 트라이그램의 조합을 포함한 고빈도 단어 선택은 어휘 복잡도 분포 측면에서 이러한 차원 전반에 걸쳐 높은 수준의 일관성을 보여줍니다. 이러한 유사성은 모델의 구조에 깊이 뿌리내리고 있기 때문에 위조하기 어렵습니다. 제가 수정한 버전: https://t.co/s5h62S9apS #스마트스펙트럼 #GLM #커서 #윈드서핑 #세레브라스 #국내대형모델 #AI프로그래밍
어떻게 확인했나요?
검증 원칙
결론적으로









