OpenAI は、GPT-5 をベースにしたセキュリティ エージェント Aardvark も開発しました。Aardvark は、脆弱性を自律的に発見し、パッチを作成することに重点を置いています。 現在、このツールはテスト中に 92% の脆弱性を特定することに成功しています。 Aardvark は LLM 推論とツール呼び出しを使用して、人間のセキュリティ エンジニアのように動作し、コードを読み取り、ロジックを分析し、テストを記述して実行し、ツールを使用して脆弱性を検出します。 まず、プロジェクトのセキュリティ目標を理解し、アーキテクチャを設計するために、コード リポジトリ全体を分析して脅威モデル インベントリを作成します。 新しいコードが提出されると、コードベース全体と脅威モデルリストを項目ごとに照合し、脆弱性がないか確認します。脆弱性がある場合は、脆弱性の原因を説明し、関連するコードにコメントを追加して人間によるレビューを行います。 潜在的な脆弱性が発見されると、誤検出率を減らすために隔離されたサンドボックス環境でテストされます。 脆弱性が確認されると、OpenAI Codex コード生成モデルが統合され、パッチが自動的に生成され、脆弱性レポートに添付されます。 このツールは現在内部テスト中です。 #AI セキュリティ #コード セキュリティ ツール #Aardvark
ブログopenai.com/index/introduc…fX テストへのopenai.com/form/aardvark-…0WIxCGF4Y
