私が「LLM」に対してこれまで以上に強気になっている理由の 1 つは、この分野では基本的に、DNN フォワード パス マキシマリストや自己監督マキシマリストが *誰も* いなくなったことです。 それは 2020-22 年の LLM と同じ意味ではありません。
ただし、これまでと同様に、システムで機能が達成されると、それをモデルの重みに戻すのは簡単です。
より広い文脈はこちら:
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
3 件のツイート · 2025/11/02 18:48
私が「LLM」に対してこれまで以上に強気になっている理由の 1 つは、この分野では基本的に、DNN フォワード パス マキシマリストや自己監督マキシマリストが *誰も* いなくなったことです。 それは 2020-22 年の LLM と同じ意味ではありません。
ただし、これまでと同様に、システムで機能が達成されると、それをモデルの重みに戻すのは簡単です。
より広い文脈はこちら: