llama.cpp 已經支持MiniMax-M2了,還是pwilkin 的功勞,他之前還支持了qwen3-vl. 不過由於MiniMax-M2 是interleaving thinking 的,即思考一會,輸出一段話,然後再思考再輸出這樣。 llama.cpp 暫時不支持,所以大家需要在下游手動解析這個輸出才能的到想要的段落。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
共 1 則推文 · 2025年11月2日 凌晨12:03
llama.cpp 已經支持MiniMax-M2了,還是pwilkin 的功勞,他之前還支持了qwen3-vl. 不過由於MiniMax-M2 是interleaving thinking 的,即思考一會,輸出一段話,然後再思考再輸出這樣。 llama.cpp 暫時不支持,所以大家需要在下游手動解析這個輸出才能的到想要的段落。