여러분, 이 글이 너무 많은 관심을 받은 것 같아서 다시 한번 말씀드리지만, 저는 그저 인터넷에서 감정적으로 격앙된 의견을 내놓는 평범한 사람일 뿐입니다. 앤트로픽이 해당 모델을 폄하했다는 암묵적인 의미가 옳지 않았다고 생각합니다. 그 점에 대해 사과드립니다. 또한, 제 생각에 가장 가능성 높은 설명은 모델이 개선됨에 따라 코드베이스와 작업의 복잡성도 그에 맞춰 증가하게 되고, 이로 인해 맥락을 제대로 처리하지 못해 결국 모델이 다시 단순해진다는 것입니다. 워스의 법칙과 유사한 자기 균형 상태가 존재하며, 장기적인 맥락과 지속적인 학습 문제가 진정으로 해결될 때까지는 어떤 LLM(Learning Leadership Model)에도 만족할 수 없을 것입니다. 어쨌든 저는 로그 파일을 Anthropic에 보냈고, Vertex AI에서 동일한 프롬프트를 다시 실행하여 차이점이 있는지 직접 확인해 보고 싶습니다. 하지만 안타깝게도 할당량 요청이 거부되었고 Google 지원팀에서도 도움을 줄 수 없어서 이 문제에 대해 더 이상 정보를 제공해 드릴 수 없습니다.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.