"요즘 arxiv에는 흥미로운 게 하나도 없어!" - 호기심 없는 마음의 말 저는 지난 몇 달 동안 게시된 흥미로운 논문의 양에 개인적으로 매우 놀랐으며 매일 요약을 열심히 따라가고 있습니다. 제가 가장 즐겼던 논문은 다음과 같습니다. - 무한 컴퓨팅 하의 사전 학습(2025년 9월, https://t.co/3Q838oO6ei) - 기억에 생생함: 훈련 순서 최근성은 언어 모델 활성화에 선형적으로 인코딩됨(2025년 9월, https://t.co/V9qCttiFPJ) - 잠재의식 학습: 언어 모델은 데이터의 숨겨진 신호를 통해 행동 특성을 전달합니다(2025년 7월, https://t.co/eJrGChfq1d) - 변압기의 신속한 튜닝에 대한 메모리 제한(2025년 9월, https://t.co/AJR17dkVUx) - 대규모 언어 모델의 행동 지문(2025년 9월, https://t.co/ZdHMlIdcYP) - 데이터 없는 학습을 위한 언어 자가 학습(2025년 9월, https://t.co/9kLvY8dNbe) - 수익 감소의 환상: LLM의 장기 실행 측정(2025년 9월, https://t.co/X7bwtKE8xe) - 모델 활성화에 대한 자연어 설명이 특권 정보를 전달하는가? (2025년 9월, https://t.co/4qjWhFJVUG) - 리더보드 너머: 모델 비교를 통한 대규모 언어 모델의 성능 차이 이해(2025년 9월, https://t.co/2ejyGDCSVF) - 확률적 활성화(2025년 9월, https://t.co/1xoXmLeIiF) - PonderLM-2: 연속 공간에서 잠재된 생각을 활용한 LLM 사전 학습(2025년 9월, https://t.co/gZW50tvCIK) - 언어 모델이 인식하게 만드는 단어(2025년 10월, https://t.co/IDQEXdeAGv) - 언어 모델은 숫자를 연속적으로 포함하지 않습니다(2025년 10월, https://t.co/g8Cw3yNcoV) - 능동적 독서를 통한 대규모 학습 사실(2025년 8월, https://t.co/aw3fE8dKiJ) - OverFill: 효율적인 언어 모델 디코딩을 위한 2단계 모델(2025년 8월, https://t.co/Wku5FXbGEz) - 대규모 언어 모델의 검색 기능은 사전 학습 FLOP에 따라 확장됩니다(2025년 8월, https://t.co/TWgqTCHjuZ) - 추론 집약 회귀(2025년 8월, https://t.co/2G8Lxn323A) - 가중치를 확인하세요: 미세 조정된 LLM의 무감독 모니터링 및 제어(2025년 8월, https://t.co/im0qdNorNQ) - 임베딩 기반 검색의 이론적 한계에 관하여 (2025년 8월, https://t.co/7haVnfNpTp)
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
