RT @dongxi_nlp: Ranke-4B,我願意稱它為,時光琥珀LLM,訓練資料鎖定在一個時代。 只用1913年之前的資料訓練的模型。模型學會了語言結構,但不知道世界大戰,不知道西班牙大流感,與這樣的大模型聊聊現代性話題,是否會更有趣?
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
共 1 則推文 · 2025年12月20日 晚上9:56
RT @dongxi_nlp: Ranke-4B,我願意稱它為,時光琥珀LLM,訓練資料鎖定在一個時代。 只用1913年之前的資料訓練的模型。模型學會了語言結構,但不知道世界大戰,不知道西班牙大流感,與這樣的大模型聊聊現代性話題,是否會更有趣?