매우 강력한 이야기입니다. 기본적으로 확산 모델은 언어가 마르코프 언어이고 L2R 또는 R2L 순서가 엄격하게 우월하기 때문에 의미가 없습니다. DLLM을 학습하는 유일하게 합리적인 방법은 로그 합 손실(log-sum loss)을 사용하는 것 같습니다.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
트윗 1개 · 2025. 11. 25. 오후 3:41
매우 강력한 이야기입니다. 기본적으로 확산 모델은 언어가 마르코프 언어이고 L2R 또는 R2L 순서가 엄격하게 우월하기 때문에 의미가 없습니다. DLLM을 학습하는 유일하게 합리적인 방법은 로그 합 손실(log-sum loss)을 사용하는 것 같습니다.