Nesta versão, trabalhamos com ggml e lmstudio para garantir um bom desempenho. Ainda esperamos que a API seja a fonte da verdade para desempenho e que a quantização afete as capacidades de contexto longo, mas tenho testado em casa e o GGUF funciona muito bem :)
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.