Mistral AI は、小規模 (3B、8B、14B) から 675B MoE 大規模バージョンに至るまで、Mistral 3 シリーズのオープンソース モデルをリリースしました。 Mistral Large 3 - Mistral史上最もパワフルなモデル。アーキテクチャ:合計675Bのパラメータ(41Bのアクティベーションパラメータ)を備えたMoEアーキテクチャを採用。推論効率も考慮しながら極めて高いパフォーマンスを実現する高度な設計です。 • 機能: 多言語対話、画像理解 (マルチモーダル)、一般的な指示準拠において、現在のオープンソースの重みでトップレベルに達しています。 • ハイライト: 巨大モデルですが、NVIDIA などのパートナーとの連携により、より容易に導入できるよう最適化されています (シングルノード動作をサポート)。 Ministral 3 シリーズ - 高いコスト パフォーマンス、エッジ デプロイメント · ポジショニング:「高いコスト パフォーマンス」と「エッジ デプロイメント」(ラップトップやロボットなど) に重点を置いています。 • 仕様: 3B、8B、14B の 3 つのパラメータ スケールが含まれています。 • 特徴:小型ながらもマルチモーダル(画像閲覧)機能を備えており、専用の推論バージョンもリリースされています。例えば、14Bの推論バージョンは、AIME '25の数学競技レベルのテストで85%の精度を達成しており、小型モデルとしては驚異的な数値です。 技術ハイライトとトレンド:マルチモーダル性と多言語性を完全に採用 Mistral 3のすべてのモデルは、画像理解をネイティブにサポートしており、プレーンテキストに限定されることはなくなりました。さらに、公式ドキュメントでは、グローバルビジネスにとって極めて重要な、英語以外の言語環境(特に多言語環境)における優れたパフォーマンスが特に強調されています。 • 分散型推論能力: ディープラーニング機能は通常、非常に大規模なモデル(OpenAI o1 の思考チェーンなど)にのみ搭載されていますが、Mistral ではこの機能を Ministral 3 などの小規模なモデルに拡張しました。つまり、多くの特殊なシナリオでは、高価で大規模なクラウドベースのモデルに頼る必要がなくなります。 • エコシステムの徹底的な最適化: Mistralは単に「キルアンドフォーゲット」するのではなく、NVIDIA、Red Hat、vLLMといったインフラ大手と提携し、緊密な統合を実現しました。例えば、特別に最適化されたチェックポイントをリリースすることで、大規模なモデルをより少ないハードウェアリソースでより高速に実行できるようになりました。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
