pwilkin 덕분에 llama.cpp는 이제 MiniMax-M2를 지원합니다. pwilkin은 이전에 qwen3-vl을 지원했습니다. 하지만 MiniMax-M2는 인터리빙(interleaving) 방식을 사용하기 때문에, 즉 잠시 생각한 후 단락을 출력하고, 다시 생각한 후 다시 출력하기 때문에 llama.cpp는 현재 이 방식을 지원하지 않습니다. 따라서 사용자는 원하는 단락을 얻으려면 이 출력을 수동으로 파싱해야 합니다.
스레드를 불러오는 중
깔끔한 읽기 화면을 위해 X에서 원본 트윗을 가져오고 있어요.
보통 몇 초면 완료되니 잠시만 기다려 주세요.
