Alibaba の Qwen3-VL はローカルで実行できるようになりました。llama.cpp ですでに利用可能です。 CPU、CUDA、Metal、Vulkan などをサポートし、個人のデバイスで直接実行できるようになりました。 2Bから235BまでのGGUFウェイトもリリースされました。 #Qwen3VL
HF:huggingface.co/collections/Qw…k モデルスコープ: hmodelscope.cn/collections/Qw…広報: github.com/ggml-org/llama…
