¿Las empresas indias también están empezando a utilizar modelos a gran escala de fabricación nacional? ¡Acabo de ver otro modelo de poda! MiniMax-M2-THRIFT. El modelo se redujo de 250B a 192B, lo que resultó en una disminución del rendimiento de aproximadamente un 5%. No creo que el rendimiento del modelo en sí importe, pero desde que Llama colapsó, ha habido dos modelos de poda basados en modelos nacionales este mes (Kimi-Linear-REAP y MiniMax-M2-THRIFT). Si bien este modelo modificado no es particularmente innovador, cabe destacar que su creador es VibeStudio, empresa especializada en el entorno Vibe, que se ejecuta en la nube. Imagina un VSCode con agente de IA o ClaudeCode funcionando en un navegador web. La mayor ventaja es la accesibilidad de Vibe Everywhere. ¿Por qué menciono esta empresa? Porque descubrí que es una empresa india con sede en Chennai. Utilizan el servicio Cerebras para la inferencia y Kimi-K2 para el modelo. La ventaja de ser asequible y estar disponible de inmediato se hace cada vez más evidente. Actualmente, aparte de las empresas que deben tomar partido (Microsoft, NVIDIA, etc.) y que aún utilizan versiones muy modificadas de Lllama3, el resto, ya sean startups o proveedores de servicios de computación, utilizan modelos ponderados abiertos desarrollados localmente. El ecosistema de modelos ponderados abiertos está siendo dominado cada vez más por modelos nacionales a gran escala. Impresionante. Dirección del modelo:
Datos del modelo
Comparación de datos con capturas de pantalla del sitio web de su empresa








