A OpenAI lança o GPT-5.2-Codex: melhorias significativas na programação do agente, particularmente em três áreas: tarefas complexas de longo prazo, segurança cibernética e compreensão da interação visual. Posicionamento Central: O Modelo de Programação de Agentes Inteligentes Mais Poderoso Em 18 de dezembro de 2025, a OpenAI lançou oficialmente o GPT-5.2-Codex, um sistema definido como um Modelo de Codificação Agético. Ele não apenas responde a perguntas relacionadas a código, mas também age como um engenheiro autônomo, executando tarefas, escrevendo código, depurando erros e mantendo o foco em tarefas por períodos prolongados em um ambiente de terminal do mundo real. Aprimoramento de três capacidades essenciais 1. Lidar com tarefas complexas e de longo prazo: • Tecnologia de compressão de contexto: O modelo agora consegue lidar com contextos extremamente longos por meio da tecnologia de "compressão nativa". Ao contrário dos modelos anteriores, ele não "esquece" as configurações anteriores nem perde o progresso durante refatorações ou migrações de código em larga escala. • Estabilidade: O sistema pode continuar a iterar até que a tarefa seja concluída, mesmo que o plano mude ou a tentativa falhe. 2. Cibersegurança defensiva: O GPT-5.2-Codex possui os recursos de cibersegurança mais robustos até o momento. • Estudo de caso real: Mesmo com o auxílio do modelo da geração anterior (GPT-5.1-Codex-Max), pesquisadores de segurança já haviam descoberto vulnerabilidades críticas no framework React. O GPT-5.2-Codex aprimora ainda mais esse processo, auxiliando especialistas em segurança na descoberta de vulnerabilidades e na defesa de sistemas. • Barreiras de segurança: Devido aos riscos ambíguos inerentes às suas poderosas capacidades, a OpenAI ainda não a classificou como de nível de risco "alto", mas adicionou medidas de segurança extras durante a implementação. 3. Recursos visuais e interativos: O modelo consegue interpretar capturas de tela, diagramas de arquitetura técnica e interfaces de usuário com mais precisão. • Do projeto ao código: Ele consegue ler diretamente esboços de design e convertê-los rapidamente em código protótipo funcional. Benchmarks de desempenho (deixe os dados falarem por si) O modelo alcançou desempenho de última geração (SOTA) em ambos os testes de referência oficiais que medem as capacidades de agentes programáveis de IA: • SWE-Bench Pro: A precisão atinge 56,4% (uma melhoria significativa em comparação com o GPT-5.1). Terminal-Bench 2.0: Precisão atinge 64,0%. Além disso, suas capacidades operacionais nativas no ambiente Windows foram bastante otimizadas.
Carregando detalhes do thread
Buscando os tweets originais no X para montar uma leitura limpa.
Isso normalmente leva apenas alguns segundos.
