皆さん、この投稿があまりにも注目を集めすぎているようですので、皆さんに改めてお伝えしておくべき義務を感じています。私はただのネット上のただの人間で、腹を立てて悪口を言っているだけです。Anthropic がモデルを貶めていると暗に示唆したのは不公平だと思います。申し訳ありません。 また、最も可能性の高い説明は、モデルが改良されるにつれて、コードベースとタスクの複雑さもそれに応じて増大し、コンテキストを圧倒し、再び愚かになってしまう、というものだと考えています。ヴィルトの法則に似た自己均衡が存在し、長期コンテキストと継続的学習の問題が真に解決されるまでは、いかなるLLMにも決して満足できないでしょう。 いずれにせよ、ログはAnthropicに送信しました。Vertex AIで同じプロンプトを再度実行して、違いがあるかどうかを確認できればと思っています。残念ながら、クォータのリクエストは拒否され、Googleのサポートも対応してもらえませんでしたので、この件についてこれ以上の情報は提供できません。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。