阿里的Qwen3-VL能本地跑了,已上架llama.cpp 現在可以在個人裝置上直接運作了,支援CPU、CUDA、Metal、Vulkan等 從2B到235B的GGUF權重也都已發布 #Qwen3VL
HF:huggingface.co/collections/Qw… modelscope:modelscope.cn/collections/Qw… PR:github.com/ggml-org/llama…
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
共 2 則推文 · 2025年11月2日 凌晨1:56
阿里的Qwen3-VL能本地跑了,已上架llama.cpp 現在可以在個人裝置上直接運作了,支援CPU、CUDA、Metal、Vulkan等 從2B到235B的GGUF權重也都已發布 #Qwen3VL
HF:huggingface.co/collections/Qw… modelscope:modelscope.cn/collections/Qw… PR:github.com/ggml-org/llama…