환각은 실제로 "과잉 순응"입니다. 연구 결과에 따르면 이러한 뉴런은 모델이 진실을 말하는 것보다 (잘못된 전제를 제시하더라도) 당신의 요구를 충족시키는 것을 우선시하도록 만듭니다. 그렇다면 여기에도 일종의 노이즈 개념이 있는 건가요? 모델이 답을 모르고 거부하는 경우를 학습시키면 환각 현상을 완화하는 데 도움이 될 수 있다는 거죠?
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.