Qwen3-VL d'Alibaba peut désormais être exécuté localement ; il est déjà disponible dans llama.cpp. Il peut désormais s'exécuter directement sur les appareils personnels, prenant en charge le processeur, CUDA, Metal, Vulkan, etc. Les poids GGUF de 2B à 235B ont également été publiés. #Qwen3VL
HF huggingface.co/collections/Qw…hk Modelscomodelscope.cn/collections/Qw…qXYEgithub.com/ggml-org/llama…: https://t.co/ZtiDBcsXPa
