A OpenAI também desenvolveu um agente de segurança: o Aardvark, baseado no GPT-5, que se concentra na descoberta autônoma de vulnerabilidades e na criação de correções. Atualmente, esta ferramenta identificou com sucesso 92% das vulnerabilidades durante os testes. O Aardvark usa inferência LLM e chamadas de ferramentas para agir como um engenheiro de segurança humano, lendo código, analisando lógica, escrevendo e executando testes e usando ferramentas para descobrir vulnerabilidades. Primeiramente, analise todo o repositório de código para criar um inventário do modelo de ameaças, a fim de compreender os objetivos de segurança do projeto e projetar a arquitetura. Quando um novo código é submetido, ele é verificado item por item em relação a toda a base de código e à lista de modelos de ameaças para identificar vulnerabilidades. Caso existam, a causa da vulnerabilidade é explicada e comentários são adicionados ao código relevante para revisão humana. Assim que uma possível vulnerabilidade for descoberta, ela será testada em um ambiente isolado (sandbox) para reduzir a taxa de falsos positivos. Assim que a vulnerabilidade for confirmada, um modelo de geração de código do OpenAI Codex será integrado para gerar automaticamente uma correção, que será anexada ao relatório de vulnerabilidade. Esta ferramenta encontra-se atualmente em fase de testes internos. #Segurança de IA #Ferramentas de Segurança de Código #Aardvark
Bloopenai.com/index/introduc…4fX Insopenai.com/form/aardvark-…r do teste: https://t.co/20WIxCGF4Y
