OpenAI 推出 Aardvark:智能安全研究员
摘要
OpenAI 宣布推出 Aardvark,这是一个基于 GPT-5 的 AI 智能体安全研究工具,能够自动识别、验证和修补代码库中的软件漏洞。该工具与 GitHub 和开发工作流集成,帮助安全团队大规模发现和修复漏洞。
OpenAI 推出 Aardvark,一个 AI 驱动的安全研究员,能够自主发现、验证和帮助大规模修复软件漏洞。该系统目前处于私密测试阶段—欢迎注册参与早期测试。
查看缓存全文
缓存时间:
2026/04/20 14:49
# 介绍 Aardvark:OpenAI 的代理安全研究员
来源:https://openai.com/index/introducing-aardvark/
***2026 年 3 月 6 日更新:****Aardvark 现已成为 Codex Security,并以研究预览版的形式推出。*
*Aardvark 现已直接内置在 Codex 中作为 Codex Security,并向 ChatGPT Enterprise、Business 和 Edu 客户通过 Codex 网页版推出,下个月免费使用。请查看我们的博客**[此处](https://openai.com/index/codex-security-now-in-research-preview/)。*
今天,我们宣布推出 Aardvark,这是一款由 GPT-5 驱动的代理安全研究员。
软件安全是技术领域最关键、也是最具挑战性的前沿之一。每年都有数万个新漏洞在企业和开源代码库中被发现。防守方面临着在对手之前发现和修补漏洞的艰巨任务。在 OpenAI,我们正在努力改变这种局势,让防守方占据优势。
Aardvark 代表了 AI 和安全研究的一次突破:一个自主代理,可以帮助开发者和安全团队大规模地发现和修复安全漏洞。Aardvark 现已以私测版形式提供,用于在实际应用中验证和完善其功能。
Aardvark 持续分析源代码仓库以识别漏洞、评估可利用性、排定严重程度优先级,并提出针对性的补丁。
Aardvark 通过监控代码库的提交和变更来工作,识别漏洞、它们可能被利用的方式,并提出修复方案。Aardvark 不依赖模糊测试或软件成分分析等传统程序分析技术。相反,它使用由 LLM 驱动的推理和工具使用来理解代码行为并识别漏洞。Aardvark 像人类安全研究员一样寻找错误:通过阅读代码、分析代码、编写和运行测试、使用工具等。
Aardvark 依靠多阶段流程来识别、解释和修复漏洞:
- **分析**:首先分析完整的代码库,生成反映其对项目安全目标和设计的理解的威胁模型。
- **提交扫描**:通过将提交级别的变更与整个代码库和威胁模型进行比对来扫描漏洞。首次连接仓库时,Aardvark 将扫描其历史记录以识别现有问题。Aardvark 逐步解释发现的漏洞,为代码添加注释供人工审查。
- **验证**:一旦 Aardvark 识别出潜在漏洞,它将尝试在隔离的沙箱环境中触发它以确认其可利用性。Aardvark 描述采取的步骤以帮助确保准确、高质量且低误报率的见解返回给用户。
- **修补**:Aardvark 与 OpenAI Codex 集成以帮助修复发现的漏洞。它为每项发现附加一个由 Codex 生成并由 Aardvark 扫描的补丁,供人工审查和高效的一键修补。
Aardvark 与工程师并肩工作,集成 GitHub、Codex 和现有工作流程,提供清晰、可行的见解,而不会减慢开发速度。虽然 Aardvark 是为安全而构建的,但在测试中我们发现它还可以发现逻辑缺陷、不完整的修复和隐私问题等错误。
Aardvark 已运行了几个月,在 OpenAI 的内部代码库和外部 alpha 合作伙伴的代码库中持续运行。在 OpenAI 内部,它已发现了有意义的漏洞并有助于 OpenAI 的防御态势。合作伙伴指出了其分析的深度,Aardvark 发现了仅在复杂条件下才会出现的问题。
在"黄金"代码库的基准测试中,Aardvark 识别了已知和综合引入的漏洞中的 92%,展示了高召回率和实际效果。
Aardvark 也已应用于开源项目,已发现并负责任地披露了众多漏洞——其中十个已获得通用漏洞和暴露 (CVE) 标识符。
作为数十年开放研究和负责任披露的受益者,我们致力于回馈——贡献工具和发现,使数字生态系统对每个人都更加安全。我们计划向选定的非商业开源仓库提供免费扫描,以促进开源软件生态系统和供应链的安全。
我们最近[更新](https://openai.com/index/scaling-coordinated-vulnerability-disclosure/)了我们的[出站协调漏洞披露政策](https://openai.com/policies/outbound-coordinated-disclosure-policy/),采取开发者友好的立场,专注于协作和可扩展的影响,而不是可能对开发者造成压力的严格披露时间表。我们预期像 Aardvark 这样的工具将导致发现越来越多的错误,并希望可持续地协作以实现长期韧性。
软件现已成为每个行业的骨干——这意味着软件漏洞是对业务、基础设施和社会的系统性风险。仅在 2024 年就报告了超过 40,000 个 CVE。我们的测试表明约 1.2% 的提交会引入错误——这些小的变更可能会产生巨大的后果。
Aardvark 代表了一种新的防守优先模式:一个代理安全研究员,通过在代码演进时提供持续保护来与团队协作。通过尽早捕获漏洞、验证现实世界的可利用性并提供清晰的修复方案,Aardvark 可以在不减慢创新的情况下加强安全。我们相信扩大安全专业知识的获取。我们从私测版开始,并将随着学习的进展而扩大可用性。
我们邀请选定的合作伙伴加入 Aardvark 私测版。参与者将获得早期访问权限,并与我们的团队直接合作以改进检测准确性、验证工作流程和报告体验。
我们希望验证在各种环境中的性能。如果您的组织或开源项目有兴趣加入,您可以[在此申请](https://www.openai.com/form/aardvark-beta-signup)。
相似文章
OpenAI Blog
# 出站协调披露政策 来源:[https://openai.com/policies/outbound-coordinated-disclosure-policy/](https://openai.com/policies/outbound-coordinated-disclosure-policy/) OpenAI OpenAI致力于通过负责任地披露第三方软件中发现的漏洞来增强全球软件安全。本政策规定了OpenAI向软件供应商和开源维护者报告和披露我们在第三方软件中发现的漏洞的方式。在这些报告中,我们
OpenAI Blog
OpenAI 推出 Codex Security,这是一款现处于研究预览阶段的自主应用程序安全工具。它能高置信度识别复杂漏洞并提供可操作的修复方案,同时与传统的安全工具相比,显著减少误报和噪音。
OpenAI Blog
OpenAI 概述了在通往 AGI 过程中的全面安全措施,包括由 AI 驱动的网络防御、与 SpecterOps 的持续对抗性红队测试,以及为 Operator 等新兴 AI 代理设计的安全框架。该公司强调主动威胁检测、业界合作,以及安全措施与基础设施和模型的深度集成。
OpenAI Blog
Outtake 是一个由 GPT-4o 和 OpenAI o3 驱动的 AI 网络安全平台,通过部署持续运行的 AI 代理,每分钟扫描数百万个表面来检测和调查威胁,将威胁消除时间从 60 天缩短到几小时,速度提升 100 倍。
Reddit r/ArtificialInteligence
Anthropic 已面向企业客户推出 Claude Security 的公开测试版,这是一款 AI 驱动工具,通过理解业务逻辑和数据流来扫描代码库,识别漏洞并提出修补方案。