Les entreprises indiennes commencent-elles elles aussi à utiliser des modèles à grande échelle fabriqués localement ? Je viens de voir un autre modèle de taille ! MiniMax-M2-THRIFT. Le modèle a été allégé de 250 octets à 192 octets, ce qui a entraîné une baisse de performance d'environ 5 %. Je ne pense pas que la performance du modèle en elle-même soit importante, mais depuis la disparition de Llama, deux modèles allégés basés sur des modèles nationaux ont été mis en place ce mois-ci (Kimi-Linear-REAP et MiniMax-M2-THRIFT). Bien que ce modèle modifié ne soit pas révolutionnaire, il est intéressant de noter qu'il a été créé par VibeStudio, une entreprise spécialisée dans l'environnement Vibe, qui fonctionne dans le cloud. Imaginez un VSCode associé à un agent d'IA ou à ClaudeCode fonctionnant dans un navigateur web. Son principal atout est Vibe Everywhere. Pourquoi mentionner cette entreprise ? Parce que j'ai découvert qu'il s'agit d'une société indienne basée à Chennai. Elle utilise le service Cerebras pour l'inférence et Kimi-K2 pour la modélisation. L'avantage d'être abordable et facilement accessible devient évident. Actuellement, mis à part les entreprises contraintes de choisir (Microsoft, NVIDIA, etc.) qui utilisent encore des versions fortement modifiées de Lllama3, les autres, qu'il s'agisse de startups ou de fournisseurs de services de calcul haute performance, utilisent des modèles pondérés ouverts développés localement. L'écosystème des modèles pondérés ouverts est de plus en plus dominé par des modèles nationaux à grande échelle. Impressionnant. Adresse du modèle :
Données du modèle
Données comparatives avec des captures d'écran du site web de leur entreprise








