Imagine um LLM que simplesmente gera texto a partir da saída de um sistema de raciocínio racional. Não, muito sensato para este mundo.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.