X (Twitter)

正在加载线程详情

正在从 X 获取原始推文,整理成清爽的阅读视图。

通常只需几秒钟,请稍候。

karminski-牙医 (@karminski3): llama.cpp 已经支持 MiniMax-M2了,还是 pwilkin 的功劳,他之前还支持了 qwen3-vl. 不过由于 Mini… | Thread Easy