經過幾天的密集使用,總結一下:這是一個不錯的模型,Gemini CLI 也非常出色。這套組合可能是基於終端的代理的最佳選擇。但它並非完美無缺。 優點: 我使用 Gemini 3 Pro 從未遇到任何續航限制,而且多次連續使用 3-5 小時以上。我覺得這錢花得值得。 Gemini CLI + Gemini 3 Pro 幫我解決了一些 Sim2Real 機器人問題,這些問題是 Codex + GPT 5.1 Codex 和 O3 都無法解決的。目前我還沒發現 Gemini 3 Pro 有任何不如我之前最喜歡的 O3 或 GPT 5.1 Codex 的地方。 Gemini CLI 的使用者介面/使用者體驗絕對是最好的。在我看來,終端 CLI 的使用者介面很難做好,要么過於簡陋,要么堆砌太多雜亂的元素/顏色/設定。谷歌在這方面的使用者介面設計一直都很出色。 缺點: 這個模型居然會直接放棄,你需要重新開始轉換。真是太不可思議了哈哈。就算你試著說服它放棄,它也不會。範例圖片已附上。如果這裡沒有直接顯示,那就在最後。 它竟然讓我運行一個不穩定的 IRL 策略,然後抓住那個不想繼續工作的機器人。 模型陷入了文字循環,這種情況已經發生好幾次了。我已經很久沒看過LLM出現這種情況了,所以有點震驚。 我最初的印像其實是這個模型有點差強人意。但當我了解了它的特性後,很快就掌握了使用方法,並且能夠透過提示來取得成功。我更喜歡文字循環和拒絕,而不是像 o3/gpt 5.1-codex 那樣,模型不斷地循環執行“修復 bug > 引入新 bug > 修復新 bug,引入原始 bug > 無限重複”這種令人痛苦的行為。 我看到很多關於限製或功能變化的評論。我之前可以不間斷地運行 Gemini 3 Pro,從未遇到任何限制。也許以後會出現這種情況,我也不確定。我個人感覺 OpenAI 的 O3 經常被量化,模型本身的行為與 Peak 以及我之前使用過的模型有所不同,你永遠無法預知當天會遇到什麼情況,或者它會不會在運行過程中發生變化。我目前在使用 Gemini 3 Pro 時也沒有遇到過這種情況,但我使用時間還不夠長,無法判斷這是否會成為一個問題,尤其是在越來越多的開發者可能使用 Gemini 模型的情況下。 這個模型看起來會成為我的主力模型,我可能會取消 OpenAI Pro 的訂閱,轉而使用它。但是,它經常出現循環和直接停止運行的問題需要解決。 OAI 模型也經常顯示「時間已到」之類的提示,但你可以告訴它們時間還沒到。 Gemini 就沒那麼容易被說服了。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。



