トークン空間が推論LLMの情報ボトルネックになっているとすれば、RLで訓練されたモデルはすべてのトークンを高頻度で使用するように学習すると期待されます。しかし、cotsを読むと、それらはベースモデルやモデルの出力よりも狭いトークン空間を利用しているように見えます。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
1 件のツイート · 2025/11/24 10:25
トークン空間が推論LLMの情報ボトルネックになっているとすれば、RLで訓練されたモデルはすべてのトークンを高頻度で使用するように学習すると期待されます。しかし、cotsを読むと、それらはベースモデルやモデルの出力よりも狭いトークン空間を利用しているように見えます。