Qwen3-VL de Alibaba ahora puede ejecutarse localmente; ya está disponible en llama.cpp. Ahora puede ejecutarse directamente en dispositivos personales, siendo compatible con CPU, CUDA, Metal, Vulkan, etc. También se han publicado los pesos GGUF desde 2B hasta 235B. #Qwen3VL
HF:huggingface.co/collections/Qw… modelscope:modelscope.cn/collections/Qw… PR:github.com/ggml-org/llama…
