新影片上線-GGUF > MLX?多圖實測告訴你Qwen3‑VL 在本地怎麼選比較穩| llama.cpp 新Web UI 真的香 這期把「模型不準」的鍋子還回去! 不是Qwen3‑VL 拉胯,而是工具鏈與版本踩坑。 本期你將收穫: - 如何快速上手llama.cpp 新Web UI(安裝、啟動、功能全覽) - Qwen3‑VL 32B/A3B 與Gemini 2.5 Flash、Claude Sonnet 4 的多情境實測對比 - GGUF vs MLX 的真實差異:OCR/邊界框/長圖/反光/複雜版式等 - JSON 模式、PDF 當影像、HTML/JS 內嵌、URL 參數輸入等「提高生產力」的新功能(llama.cpp 新Web UI) 我的觀察: - 本機優先選擇GGUF(GGML/Unsloth/Qwen),llama.cpp 新Web UI 體驗非常好 - 32B 在多數場景下更穩更準,A3B Instruct 速度快但有場景差異,4B thinking 模型是甜點模型 - MLX 量化存在精度/邊界框問題,社區正在修復 完整影片:🧵
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
