Kimi-Linear (Version allégée) ! Cerebras semble avoir trouvé la clé de la génération de trafic et s'est lancée dans la modification frénétique de modèles nationaux à grande échelle. (Cerebras est un fournisseur d'infrastructure qui propose une accélération matérielle pour l'exécution de grands modèles ; il peut traiter jusqu'à 2 000 jetons/s pour les grands modèles.) Ils viennent de publier Kimi-Linear-REAP-35B-A3B-Instruct, qui est une version modifiée de Kimi-Linear-48B-A3B-Instruct d'il y a quelques jours. Le nombre de paramètres a été réduit de 48 octets à 35 octets, mais les performances se sont réellement améliorées ? (Après des modifications importantes, des ajustements mineurs sont généralement effectués pour garantir l’effet.) LiveCodeBench, AIME25 et HumanEval ont tous montré des améliorations. Je teste actuellement en local les performances de rappel du modèle 48B-A3B. Je testerai les deux modèles et publierai les résultats ultérieurement afin de déterminer si ce modèle convient à un usage local. Adresse du modèle :
Paramètres du modèle
Données de performance







