X (Twitter)

正在載入線程內容

正在從 X 取得原始推文,整理成清爽的閱讀畫面。

通常只需幾秒鐘,請稍候。

karminski-牙医 (@karminski3): llama.cpp 已经支持 MiniMax-M2了,还是 pwilkin 的功劳,他之前还支持了 qwen3-vl. 不过由于 Mini… | Thread Easy