RT @dongxi_nlp: 제가 타임 앰버 LLM이라고 부르는 Ranke-4B는 학습 데이터가 특정 시대에 고정되어 있습니다. 1913년 이전 데이터만으로 훈련된 모델입니다. 이 모델은 언어 구조는 학습했지만, 세계 대전이나 스페인 독감에 대해서는 아무것도 모릅니다. 이런 대규모 모델을 가지고 근대성에 대해 논의하는 것이 더 흥미롭지 않을까요?
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.