「最近arxivに面白いものがない!」 - 好奇心のない心の言葉 私は個人的に、ここ数ヶ月間に掲載された興味深い論文の数に驚かされ、毎日のダイジェストを熱心に追っています。 私が最も楽しんだ論文をいくつか紹介します。 - 無限のコンピューティング能力による事前トレーニング(2025年9月、https://t.co/3Q838oO6ei) - 記憶に新しい:トレーニング順序の最新性は言語モデルの活性化において線形にエンコードされる(2025年9月、https://t.co/V9qCttiFPJ) - 潜在意識学習:言語モデルはデータ内の隠れた信号を介して行動特性を伝達する(2025年7月、https://t.co/eJrGChfq1d) - Transformersにおけるプロンプトチューニングのメモリ制限(2025年9月、https://t.co/AJR17dkVUx) - 大規模言語モデルの行動指紋(2025年9月、https://t.co/ZdHMlIdcYP) - データ不要のトレーニングのための言語セルフプレイ(2025年9月、https://t.co/9kLvY8dNbe) - 収穫逓減の幻想:LLMにおける長期的な実行の測定(2025年9月、https://t.co/X7bwtKE8xe) - モデルアクティベーションの自然言語記述は特権情報を伝達するか?(2025年9月、https://t.co/4qjWhFJVUG) - リーダーボードを超えて: モデル差分による大規模言語モデルのパフォーマンス格差の理解 (2025 年 9 月、https://t.co/2ejyGDCSVF) - 確率的アクティベーション(2025年9月、https://t.co/1xoXmLeIiF) - PonderLM-2: 連続空間における潜在思考を用いた LLM の事前トレーニング (2025 年 9 月、https://t.co/gZW50tvCIK) - 言語モデルに認識させる言葉(2025年10月、https://t.co/IDQEXdeAGv) - 言語モデルは数値を連続的に埋め込まない(2025年10月、https://t.co/g8Cw3yNcoV) - アクティブリーディングで大規模に事実を学ぶ(2025年8月、https://t.co/aw3fE8dKiJ) - OverFill: 効率的な言語モデルデコードのための2段階モデル (2025年8月、https://t.co/Wku5FXbGEz) - 大規模言語モデルの検索能力は事前学習の FLOP に応じて拡張可能 (2025 年 8 月、https://t.co/TWgqTCHjuZ) - 推論集約型回帰分析(2025年8月、https://t.co/2G8Lxn323A) - 重みを監視する: 微調整された LLM の教師なし監視と制御 (2025 年 8 月、https://t.co/im0qdNorNQ) - 埋め込みベースの検索の理論的限界について(2025年8月、https://t.co/7haVnfNpTp)
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
