O arquivo llama.cpp agora oferece suporte ao MiniMax-M2, graças a pwilkin, que anteriormente dava suporte ao qwen3-vl. No entanto, como o MiniMax-M2 usa raciocínio intercalado — ou seja, ele pensa por um tempo, gera um parágrafo, pensa novamente e gera outro parágrafo — o arquivo llama.cpp não oferece suporte a isso atualmente. Portanto, os usuários precisam analisar manualmente essa saída posteriormente para obter o parágrafo desejado.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
