llama.cpp 已經支持MiniMax-M2了,還是pwilkin 的功勞,他之前還支持了qwen3-vl. 不過由於MiniMax-M2 是interleaving thinking 的,即思考一會,輸出一段話,然後再思考再輸出這樣。 llama.cpp 暫時不支持,所以大家需要在下游手動解析這個輸出才能的到想要的段落。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 1 条推文 · 2025年11月2日 00:03
llama.cpp 已經支持MiniMax-M2了,還是pwilkin 的功勞,他之前還支持了qwen3-vl. 不過由於MiniMax-M2 是interleaving thinking 的,即思考一會,輸出一段話,然後再思考再輸出這樣。 llama.cpp 暫時不支持,所以大家需要在下游手動解析這個輸出才能的到想要的段落。