阿里的Qwen3-VL能本地跑了,已上架llama.cpp 現在可以在個人裝置上直接運作了,支援CPU、CUDA、Metal、Vulkan等 從2B到235B的GGUF權重也都已發布 #Qwen3VL
HF:huggingface.co/collections/Qw… modelscope:modelscope.cn/collections/Qw… PR:github.com/ggml-org/llama…
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 2 条推文 · 2025年11月2日 01:56
阿里的Qwen3-VL能本地跑了,已上架llama.cpp 現在可以在個人裝置上直接運作了,支援CPU、CUDA、Metal、Vulkan等 從2B到235B的GGUF權重也都已發布 #Qwen3VL
HF:huggingface.co/collections/Qw… modelscope:modelscope.cn/collections/Qw… PR:github.com/ggml-org/llama…