RT @dongxi_nlp: Ranke-4B,我願意稱它為,時光琥珀LLM,訓練資料鎖定在一個時代。 只用1913年之前的資料訓練的模型。模型學會了語言結構,但不知道世界大戰,不知道西班牙大流感,與這樣的大模型聊聊現代性話題,是否會更有趣?
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 1 条推文 · 2025年12月20日 21:56
RT @dongxi_nlp: Ranke-4B,我願意稱它為,時光琥珀LLM,訓練資料鎖定在一個時代。 只用1913年之前的資料訓練的模型。模型學會了語言結構,但不知道世界大戰,不知道西班牙大流感,與這樣的大模型聊聊現代性話題,是否會更有趣?