OpenAI a également développé un agent de sécurité : Aardvark, basé sur GPT-5, qui se concentre sur la découverte autonome des vulnérabilités et la rédaction de correctifs. À ce jour, cet outil a permis d'identifier avec succès 92 % des vulnérabilités lors des tests. Aardvark utilise l'inférence LLM et les appels d'outils pour agir comme un ingénieur en sécurité humain, en lisant le code, en analysant la logique, en écrivant et en exécutant des tests, et en utilisant des outils pour découvrir les vulnérabilités. Tout d'abord, analysez l'intégralité du dépôt de code afin de créer un inventaire des menaces, dans le but de comprendre les objectifs de sécurité du projet et de concevoir l'architecture. Lorsqu'un nouveau code est soumis, il est vérifié élément par élément par rapport à l'ensemble du code source et au modèle de menaces afin de détecter d'éventuelles vulnérabilités. Le cas échéant, la cause de la vulnérabilité est expliquée et des commentaires sont ajoutés au code concerné pour relecture humaine. Une fois qu'une vulnérabilité potentielle est découverte, elle sera testée dans un environnement sandbox isolé afin de réduire le taux de faux positifs. Une fois la vulnérabilité confirmée, un modèle de génération de code OpenAI Codex sera intégré pour générer automatiquement un correctif, qui sera joint au rapport de vulnérabilité. Cet outil est actuellement en phase de tests internes. #SécuritéIA #OutilsDeSécuritéDuCode #Aardvark
Bloopenai.com/index/introduc…E4fX Inopenai.com/form/aardvark-…ciper au test : https://t.co/20WIxCGF4Y
