¡Confirmado! El nuevo modelo de Windsurf, el SWE-1.5, se parece más al GLM-4.5. Anteriormente, circulaban rumores en internet de que empresas de Silicon Valley habían comenzado a modificar internamente, de forma extensa, modelos de pesos abiertos desarrollados localmente. Los rumores más destacados apuntaban a que el modelo Composer-1 de Cursor se había modificado con DeepSeek (para el post-entrenamiento o el ajuste fino), y que el modelo SWE-1.5 de Windsurf se había modificado con GLM-4.6. La anterior está prácticamente confirmada, pero esta aún no se ha verificado. Así que, propongo un reto: veamos a qué modelo se parece más este al realizar un análisis de conglomerados basado en sus características de salida. Modifiqué Slop-Forensics y analicé las huellas lingüísticas de SWE-1.5 y otros modelos nacionales a gran escala. Los resultados fueron inesperados: Pertenece al mismo grupo que GLM-4.5, no a GLM-4.6 como se rumoreaba anteriormente. Considerando que un modelo necesita ser entrenado durante un período de tiempo incluso cuando se utilizan otros modelos base para lograr buenos resultados, es más probable que se trate de GLM-4.5 (lanzado el 28 de julio) que de GLM-4.6 (lanzado el 1 de octubre). Qué lástima que no se haya entrenado con GLM-4.6, jaja. Creo que entrenarlo con GLM-4.6 como modelo base sería aún más potente, ¿o me equivoco? ¿SWE-1.5 se corresponde con GLM-4.5 y SWE-1.6 con GLM-4.6? Además, Cerebras (el proveedor de servicios de computación en la nube para Windsurf, modelo SWE-1.5) ha decidido utilizar GLM-4.6 como modelo recomendado por defecto. Considerando el rendimiento de GLM-4.6 en las pruebas (SWE-Bench 68 %, LiveCodeBenchV6 82,8 %), estimo que es muy probable que el próximo modelo utilice GLM-4.6. ¡Los kits de modelos a gran escala de fabricación nacional son geniales! Por cierto, permítanme explicarles los principios que sustentan el proyecto Slop-Forensics: • Analizar la frecuencia de uso del vocabulario y los patrones de repetición de frases para cada modelo. • Convertir estos «hábitos lingüísticos» en vectores de características. • Construir un árbol filogenético mediante algoritmos de agrupamiento; la proximidad equivale a patrones lingüísticos similares. Al igual que ocurre con la identificación de huellas dactilares, incluso si diferentes modelos generan el mismo contenido, sus preferencias de vocabulario subyacentes y sus métodos de combinación de frases revelarán la similitud de los datos de entrenamiento o la arquitectura. SWE-1.5 y GLM-4.5 están estrechamente agrupados en el árbol, lo que indica que son: La selección de palabras de alta frecuencia y la distribución de la complejidad léxica en combinaciones de frases binarias/ternarias son altamente consistentes en todas estas dimensiones. Esta similitud es difícil de simular, ya que está arraigada en la estructura profunda del modelo. Mi versión modificada: https://t.co/s5h62S9apS #SmartSpectrum #GLM #Cursor #windsurf #cerebras #DomesticLargeModel #ProgramaciónIA
¿Cómo lo verifiqué?
Principio de verificación
en conclusión









