O DeepSeek adota a chamada de ferramentas intercalada, que já foi adotada por Claude, MiniMax, Kimi e também pelo GPT-5. Isso significa que o modelo "pensa" antes de chamar as ferramentas. Se as chamadas anteriores às ferramentas não resultaram na saída correta, ele pode fazer uma introspecção e mudar de estratégia. Isso irá padronizar o processo para provedores de hospedagem e evitar as situações caóticas que estamos presenciando com as APIs. Isso também ajudará os provedores de hospedagem a implementar um sistema de cache uniforme. O desempenho da ferramenta Alsom é muito bom para um modelo que você pode simplesmente baixar do Hugging Face.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
