Após alguns dias de uso intenso, em resumo: é um bom modelo e o Gemini CLI é excelente. A combinação pode ser a melhor para agentes baseados em terminal. Mas não é perfeita. Prós: Nunca atingi nenhum limite com o Gemini 3 Pro e o utilizei em várias sessões de 3 a 5 horas ou mais. Com certeza, valeu o investimento. O Gemini CLI + Gemini 3 Pro me ajudou a resolver alguns problemas de robótica do Sim2Real que o Codex + GPT 5.1 Codex e o O3 simplesmente não conseguiam solucionar. Atualmente, não consigo identificar nenhuma área em que o Gemini 3 Pro seja inferior ao meu antigo favorito, o O3, ou ao GPT 5.1 Codex. O Gemini CLI é definitivamente a melhor interface de usuário/experiência do usuário. Na minha opinião, interfaces de linha de comando em terminais são difíceis de criar corretamente sem serem muito básicas ou cheias de elementos desnecessários, cores confusas ou configurações complexas. O Google continua a fazer um excelente trabalho de interface de usuário nesse aspecto. Contras: Este modelo simplesmente desiste e você precisa iniciar uma nova conversão. Isso é inacreditável para mim, rsrs. Mesmo se você tentar convencê-lo a não desistir, ele não vai desistir. Imagens de exemplo anexadas. Se não estiverem aqui, estarão no final. Literalmente, me disse para executar uma política instável na vida real e simplesmente capturar o robô porque ele não queria continuar trabalhando. O modelo fica preso em loops de texto, já vi isso várias vezes. Faz muito tempo que não vejo um LLM fazer isso, então é um pouco chocante. Minha impressão inicial foi que o modelo era meio fraco. Mas, conforme fui aprendendo as peculiaridades, rapidamente obtive sucesso e consegui usar prompts para chegar ao resultado desejado. Prefiro muito mais os loops de texto e as recusas à experiência bem mais dolorosa do modelo ficar repetindo indefinidamente o mesmo ciclo de correção de bug > novo bug > correção do novo bug, reintrodução do bug original > repetição, como acontece com o o3/gpt 5.1-codex. Vi muitos comentários sobre limitações ou mudanças de capacidade. Consegui executar o Gemini 3 Pro ininterruptamente e nunca encontrei nenhum limite. Talvez isso aconteça em algum momento, não sei. Pessoalmente, acho que o O3 da OpenAI frequentemente usa quantização e o próprio modelo se comporta de maneira diferente do Peak e do que estou acostumado, e você nunca sabe o que vai encontrar naquele dia ou se o comportamento vai mudar no meio da sessão. Ainda não experimentei esse sintoma com o Gemini 3 Pro, mas não o usei por tempo suficiente para dizer se isso será um problema ou não, especialmente porque mais desenvolvedores podem usar os modelos Gemini. Este modelo parece que vai ser o meu principal e provavelmente vou cancelar o meu OpenAI Pro para usar este, mas os loops e a recusa total em continuar a trabalhar são um problema que precisa ser resolvido. Os modelos do OAI também costumam dizer coisas como "tempo esgotado", mas você pode simplesmente dizer a eles que não. O Gemini não é tão fácil de convencer.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.



