또 다른 관점에서 보면, 이는 해당 작업에 사용된 모델에 내재된 취향을 보여줍니다. 호불호가 갈리는 부분이죠. 교정 프롬프트를 통해 어느 정도 유연성을 확보할 수는 있지만, 모든 LLM은 학습 데이터의 영향을 고스란히 받게 됩니다.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
트윗 1개 · 2025. 12. 12. 오후 1:27
또 다른 관점에서 보면, 이는 해당 작업에 사용된 모델에 내재된 취향을 보여줍니다. 호불호가 갈리는 부분이죠. 교정 프롬프트를 통해 어느 정도 유연성을 확보할 수는 있지만, 모든 LLM은 학습 데이터의 영향을 고스란히 받게 됩니다.