新しいビデオが公開されました – GGUF > MLX? マルチイメージ テストでは、Qwen3-VL に最も安定したローカル接続を選択する方法を示します | llama.cpp 新しい Web UI は本当に素晴らしいです! 今回は「不正確なモデル」の責任を負い返します! Qwen3-VL が悪いのではなく、ツールチェーンとバージョンに問題があったのです。 この号で得られるもの: - llama.cpp で新しい Web UI をすぐに使い始める方法 (インストール、起動、および全機能の概要) - Qwen3-VL 32B/A3BとGemini 2.5 FlashおよびClaude Sonnet 4のマルチシナリオ比較 - GGUF と MLX の実際の違い: OCR/境界ボックス/長い画像/反射/複雑なレイアウトなど。 - 生産性を向上させる新しい機能には、JSON モード、画像としての PDF、HTML/JS インライン サポート、URL パラメーター入力 (llama.cpp の新しい Web UI) などがあります。 私の観察: - ローカルでは、GGUF (GGML/Unsloth/Qwen) が推奨されます。llama.cpp の新しい Web UI は、優れたユーザー エクスペリエンスを提供します。 - 32B はほとんどのシナリオでより安定しており、正確です。A3B Instruct は高速ですがシナリオの違いがあり、4B 思考モデルはスイート スポット モデルです。 - MLX 量子化には精度/境界ボックスの問題があり、コミュニティが修正に取り組んでいます。 フルビデオ: 🧵
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
