キミリニア(剪定版)! セレブラスはトラフィック生成の鍵を見つけたようで、大規模な国内モデルの改造に必死に取り組み始めた。 (Cerebras は、大規模モデルを実行するためのハードウェア アクセラレーションを提供するインフラストラクチャ ベンダーであり、大規模モデルに対して最大 2000 トークン/秒を出力できます。) 彼らは、数日前にリリースされた Kimi-Linear-48B-A3B-Instruct の修正バージョンである Kimi-Linear-REAP-35B-A3B-Instruct をリリースしました。 パラメータが 48B から 35B に削減されましたが、実際にパフォーマンスが向上しましたか? (大規模な変更の後には、効果を確実にするために通常、小さな調整が行われます。) LiveCodeBench、AIME25、HumanEval はすべて改善が見られました。 現在、48B-A3Bのリコール性能を現地でテストしています。このモデルが現地での使用に適しているかどうかを確認するため、両方のモデルをテストし、結果を後日公開する予定です。 モデルアドレス:
モデルパラメータ
パフォーマンスデータ







