Alibaba의 Qwen3-VL은 이제 로컬에서 실행할 수 있습니다. 이미 llama.cpp에서 사용할 수 있습니다. 이제 CPU, CUDA, Metal, Vulkan 등을 지원하여 개인 기기에서 직접 실행할 수 있습니다. 2B에서 235B까지의 GGUF 가중치도 공개되었습니다. #큐웬3VL
HF:huggingface.co/collections/Qw…k 모델스코프: htmodelscope.cn/collections/Qw…홍보: github.com/ggml-org/llama…
