實際上,我認為我訓練出了第一個歷史語言學習模型(LLM):我們的OCR校正模型Ocronos在1950年之前進行了完整的預訓練,可以作為基礎模型使用。它主要使用來自《美國紀事報》(Chronicle America)的報紙資料。
這是一個基於歷史背景的世代模型(模型完全不知道川普是誰,並回溯到20世紀初)。我發現這個模型在HF上仍然很受歡迎。 https://t.co/1ye5VEGerd
Ted Underwood等人也訓練了一個GPT-1914模型,它很可能仍然是迄今為止規模最大的歷史模型(近8億像素)。 https://t.co/wSA1WCmz2D


