Acho que fui muito desdenhoso com o novo LLM de codificação Composer-1 do Cursor. Claro, ele é estritamente pior que o GPT-5 High Effort e o GPT-5-Codex, e nesse sentido, quando estou arquitetando e implementando projetos de código importantes, não vejo muita utilidade para ele nos meus fluxos de trabalho. Por outro lado, é extremamente rápido (fico imaginando como conseguiram isso; será que estão usando hardware da Groq ou da Cerebras? Será porque o modelo é tão pequeno e eficiente? Não sei ao certo), e isso por si só abre um leque de novos fluxos de trabalho e técnicas de trabalho para quando o código não é tão crítico para a missão, ou quando você está começando um novo projeto e não precisa se preocupar em quebrar o código existente. Além disso, é muito, muito mais barato em comparação com qualquer versão do GPT-5. A combinação de ser muito mais rápido e muito mais barato cria uma diferença qualitativa em como você pode usar o modelo, algo que eu não havia percebido completamente antes. Quando o custo da iteração é tão baixo, tanto em termos de tempo quanto de dinheiro, você pode iterar muito mais vezes. Isso diminui o valor da "acerto na primeira tentativa"; ou seja, a capacidade de um modelo como o GPT-5 Pro de acertar até mesmo uma tarefa de programação complexa logo na primeira vez, sem erros (embora mesmo esse modelo frequentemente falhe nesse teste bastante rigoroso). Mas se você conseguir fechar o ciclo de depuração e rapidamente realimentar os erros/avisos no modelo, e cada rodada de iteração levar de 20 segundos a um minuto (em vez de pelo menos 5 a 10 vezes esse tempo usando o GPT-5 com grande esforço), então você poderá resolver rapidamente todos os erros cometidos na primeira vez (ou mesmo na segunda, terceira ou quarta vez) e ainda terminar com um código funcional mais cedo do que conseguiria com o GPT-5. Se você estiver desenvolvendo algo no navegador, agora pode realmente fechar o ciclo completamente usando a nova Aba do Navegador do Cursor, que é de longe a melhor implementação desse tipo de recurso que já vi em qualquer ferramenta de programação (é muito superior ao Playwright MCP da Codex ou ao Claude Code!). Tenho usado esse recurso com grande sucesso hoje: "Use a aba do navegador para explorar sistematicamente este aplicativo e usar a interface de forma natural; enquanto isso, fique atento a QUAISQUER avisos ou erros no console do desenvolvedor. Ao encontrar um, comece a diagnosticar e corrigir os bugs e problemas de forma interativa e iterativa e, em seguida, atualize o aplicativo e verifique se o erro ou aviso foi totalmente resolvido. Ao corrigir problemas, concentre-se em determinar a verdadeira causa raiz do bug e não em aplicar soluções paliativas falsas!" Onde essa abordagem realmente falha, no entanto, é nas fases de concepção e planejamento, quando você está definindo o que produzir e a melhor maneira de implementá-lo em alto nível. Nessas fases, a falta de reflexão profunda e exploração pode te levar por um caminho ruim do qual é difícil se recuperar. Isso fica muito mais evidente quando a tarefa em que você está trabalhando se distancia bastante do "conjunto de dados" das tarefas de programação comuns. Se você estiver criando mais um site CRUD simples, provavelmente não notará muito. Mas se estiver tentando inovar em uma simulação de vida artificial ou algo inusitado do tipo, notará bastante. Mas existe uma abordagem híbrida interessante que funciona muito bem: combinar o modelo mais inteligente para planejamento com esses modelos rápidos e baratos para gerar iterações. Então, use o GPT-5 Pro no aplicativo do navegador para elaborar seu plano e uma implementação inicial. Em seguida, cole isso no Cursor e comece a iterar, corrigir e aprimorar. Ele é muito melhor em modificar uma base sólida existente do que em criar essa base do zero. Onde tudo isso realmente brilha é quando você está brincando e explorando algo divertido, em um novo projeto sem prazos ou expectativas. Nesse contexto, a velocidade faz toda a diferença. Isso me lembra daquela antiga pesquisa feita pela IBM no início dos anos 80, que analisava a latência em sistemas de computador e descobriu que, quando a latência cai abaixo de um certo nível mágico, como 50 ms, ocorre uma grande mudança de comportamento porque o cérebro humano percebe que está lidando com um "sistema em funcionamento". E, inversamente, quando a latência ultrapassa um nível surpreendentemente modesto, como 500 ms, o engajamento diminui consideravelmente, tornando-se mentalmente desgastante e frustrante. Quando a latência atinge picos de alguns segundos ou mais, as pessoas tendem a se desconectar mentalmente e manter o foco se torna uma luta. Ver o modelo de codificação responder em segundos e fazer uma série de 10 edições em menos de 15 segundos é uma experiência completamente diferente de esperar 5 minutos para que o GPT-5, em seu modo de alto esforço, processe algo metodicamente. Enfim, é incrivelmente divertido brincar com isso. É mais divertido e envolvente para mim do que qualquer videogame jamais poderia ser.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.