우리는 여전히 이 스케일링 법칙을 찾아야 하지만 현재 내 생각은 다음과 같습니다. 기억은 샘플의 사실 밀도 합성 업샘플링 매개변수 수 모델 아키텍처 학습 효율성 간의 직접적인 관계입니다.
좋은 합성 파이프라인은 2)뿐만 아니라 4)도 해결합니다. 비자로 프록시로 시간을 낭비하는 대신 통제된 실험을 실행하고 정확한 회수를 직접 확인할 수 있기 때문입니다(헬라스웨그는 그냥 죽게 두세요).
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
트윗 2개 · 2025. 11. 16. 오전 8:08
우리는 여전히 이 스케일링 법칙을 찾아야 하지만 현재 내 생각은 다음과 같습니다. 기억은 샘플의 사실 밀도 합성 업샘플링 매개변수 수 모델 아키텍처 학습 효율성 간의 직접적인 관계입니다.
좋은 합성 파이프라인은 2)뿐만 아니라 4)도 해결합니다. 비자로 프록시로 시간을 낭비하는 대신 통제된 실험을 실행하고 정확한 회수를 직접 확인할 수 있기 때문입니다(헬라스웨그는 그냥 죽게 두세요).