Duas maneiras de abordar a mesma ligação causal ausente entre os tokens intermediários do LRM e as tentativas de solução: Nós: Parem de antropomorfizar os tokens intermediários; eles podem ajudar os modelos de aprendizagem de linha de base a obter melhores resultados de amostragem, mas têm pouca interpretabilidade para o usuário final. Eles: Meu Deus! 😱 Os LLMs estão escondendo suas intenções! 😱
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.