추론 측면에서 상당한 개선 없이는 환각 문제를 가까운 시일 내에 해결할 수 없을 것 같다는 생각이 들기 시작했습니다. 이는 적어도 단기적으로는 단순한 학습 문제가 아닙니다. LLM 월드 모델은 가우스 스플랫과 같습니다. 잘 가려진 시야에서 OOD 방향으로 조금 이동하면 블러슬롭이 보입니다. LLM은 내부 신뢰도 감지 기능을 갖추고 있음에도 불구하고, 이 블러슬롭 경계가 "모르겠다"라고 말할 시점이라는 것을 여전히 알지 못합니다. 지식 탐색과 강화 학습을 병행하는 방식으로는 이 문제를 해결할 수 없을 것 같습니다. 지식 공의 넓은 면적과 들쭉날쭉한 표면 때문에 하위 영역 간의 일반화가 어렵고, 두더지 잡기 게임을 하는 것과 같기 때문입니다. 쌍둥이자리는 제 말을 앵무새처럼 따라 하는 게 아니라, 가끔은 제가 *한 턴 후에* 무슨 말을 할지 예측할 수 있다는 점에서 정말 놀랍습니다. (그리고 제가 소네트를 병행해서 사용하면 소네트는 이렇게 할 수 없기 때문에 종종 예측하기도 합니다.) 엄청난 롱테일 지식을 가지고 있죠. 하지만 그보다 더 나아가면 *당신이 믿었을 법한* 아주 그럴듯한 헛소리를 환각으로 만들어 버립니다. 이전과 마찬가지입니다. 환각은 규모만으로 해결할 수 없습니다.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
