AndrejKarpathy @karpathy: 대형 모델을 "자기 인식 개체"로 취급하지 말고 "시뮬레이터"로 취급하세요. 예를 들어, 어떤 주제에 대해 논의하고 싶을 때 "xyz에 대해 어떻게 생각하세요?"라고 묻지 마세요. 왜냐하면 "당신"이라는 것이 전혀 없기 때문입니다! 또 다른 방법은 다음과 같습니다. xyz라는 주제를 탐구하는 데 적합한 사람들은 어떤 사람들일까요? 그들은 뭐라고 말할까요? 대규모 모델은 여러 관점을 시뮬레이션할 수 있지만, 사람들이 익숙한 것과는 달리 xyz에 대해 오랜 시간 "생각"하고 자신의 의견을 형성하는 데 시간을 들이지 않습니다. 질문을 하기 위해 "당신"을 사용해야 한다면, 모델은 미세 조정된 데이터의 통계적 특성을 기반으로 암묵적인 "성격 임베딩 벡터"를 채택하고, 이 성격을 시뮬레이션하여 답변을 제공합니다. 이는 분명 가능하지만, 사람들이 상상하는 것처럼 그 이면에 "신비로운 사고방식"이 있는 것은 아닙니다. 이는 단순히 확률 기반 시뮬레이션일 뿐입니다. 간단히 말해, 큰 모델을 효과적으로 활용하려면 먼저 해당 모델의 역할 목록을 작성해야 합니다. 여러 캐릭터를 동시에 표현할 수 있어 다양한 관점을 동시에 명확하게 보여줄 수 있습니다. "어떻게 생각하세요?"라고 묻지 마세요. 그렇지 않으면 정체를 알 수 없는 캐릭터를 무작위로 선택하여 대사를 읊게 하고, 그 대사의 입장은 전혀 짐작할 수 없게 됩니다. #AI 프롬프트
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.