強化學習完全是另一個世界。前 9 名的 LLM 總共佔用 2.4T 個 token,約 10TB。 PufferLib 在一台 6x4090 的 tinybox 伺服器上訓練超過 1000TB 的觀測資料。運算能力的擴展性投入龐大,而數據擴展性方面的工作卻寥寥無幾!
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
共 1 則推文 · 2025年11月25日 晚上7:10
強化學習完全是另一個世界。前 9 名的 LLM 總共佔用 2.4T 個 token,約 10TB。 PufferLib 在一台 6x4090 的 tinybox 伺服器上訓練超過 1000TB 的觀測資料。運算能力的擴展性投入龐大,而數據擴展性方面的工作卻寥寥無幾!