Pessoal, parece que este post chamou muita atenção, então me sinto na obrigação de lembrar a todos que sou apenas um cara qualquer na internet que se irrita e fala besteira. Não acho que a implicação de que a Anthropic estava degradando o modelo tenha sido justa. Peço desculpas por isso. Além disso, acredito que a explicação mais provável seja que, à medida que os modelos melhoram, também permitimos que nossas bases de código e tarefas aumentem em complexidade, o que sobrecarrega o contexto, tornando-os novamente limitados. Existe um equilíbrio autossustentável, semelhante à lei de Wirth, que nunca nos permitirá ficar satisfeitos com nenhum modelo de aprendizado contínuo, até que o contexto extenso e o aprendizado contínuo sejam de fato resolvidos. De qualquer forma, enviei os registros para a Anthropic e gostaria muito de poder executar os mesmos comandos novamente no Vertex AI para verificar se há alguma diferença. Infelizmente, meu pedido de cota foi negado e o suporte do Google não pôde me ajudar, então não posso oferecer nenhuma informação adicional sobre o assunto.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.