Embora, francamente, eu suspeite que talvez devêssemos treinar os sistemas de raciocínio para sempre pensarem em chinês. É mais denso e mais adequado para a inserção de pistas em linguagem natural, como no caso do LLM (Learning Learning Machine). Não há necessidade de se preocupar com gramática, basta gerar tokens contextualmente relevantes.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.