OpenAI también ha desarrollado un agente de seguridad: Aardvark, basado en GPT-5, que se centra en descubrir vulnerabilidades de forma autónoma y escribir parches. Actualmente, esta herramienta ha identificado con éxito el 92% de las vulnerabilidades durante las pruebas. Aardvark utiliza la inferencia LLM y llamadas a herramientas para actuar como un ingeniero de seguridad humano, leyendo código, analizando la lógica, escribiendo y ejecutando pruebas, y utilizando herramientas para descubrir vulnerabilidades. En primer lugar, analice todo el repositorio de código para crear un inventario de modelos de amenazas, con el fin de comprender los objetivos de seguridad del proyecto y diseñar la arquitectura. Cuando se envía código nuevo, se revisa elemento por elemento comparándolo con toda la base de código y la lista del modelo de amenazas para detectar posibles vulnerabilidades. De ser así, se explica la causa de la vulnerabilidad y se añaden comentarios al código pertinente para su revisión por un humano. Una vez descubierta una vulnerabilidad potencial, se probará en un entorno sandbox aislado para reducir la tasa de falsos positivos. Una vez confirmada la vulnerabilidad, se integrará un modelo de generación de código de OpenAI Codex para generar automáticamente un parche, que se adjuntará al informe de vulnerabilidad. Esta herramienta se encuentra actualmente en fase de pruebas internas. #Seguridad de IA #Herramientas de seguridad de código #Oso hormiguero
Bloopenai.com/index/introduc…4fX Insopenai.com/form/aardvark-… en la prueba: https://t.co/20WIxCGF4Y
