RT @yagilb: Os desenvolvedores e a comunidade do llama.cpp se uniram de uma forma realmente impressionante para implementar os modelos Qwen3-VL. Confira os PRs, é incrível!
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.