V3는 R1보다 3주 앞서 "모델의 심층적 사고 능력을 지속적으로 탐구하고 개선해 나갈 것"이라고 발표했습니다. 또한, "무한한 컨텍스트"(최대 128k)를 제공합니다. V3.2는 더 많은 컴퓨팅과 더 효율적인 CoT(Co-T)를 발표합니다. 자, 큰 훈련 약속입니다. 몇 주, 아니면 몇 년?
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
트윗 1개 · 2025. 12. 1. 오후 1:55
V3는 R1보다 3주 앞서 "모델의 심층적 사고 능력을 지속적으로 탐구하고 개선해 나갈 것"이라고 발표했습니다. 또한, "무한한 컨텍스트"(최대 128k)를 제공합니다. V3.2는 더 많은 컴퓨팅과 더 효율적인 CoT(Co-T)를 발표합니다. 자, 큰 훈련 약속입니다. 몇 주, 아니면 몇 년?