标签
OpenAI 针对 GPT-5.5 推出了生物安全漏洞赏金计划,邀请安全研究人员识别针对生物安全挑战的通用越狱手段。该计划为成功绕过模型在特定生物风险问题上的安全防护提供最高 25,000 美元的奖励。
OpenAI展示了GPT-5通过与Red Queen Bio合作自主优化分子克隆方案的能力,通过新型酶机制实现了克隆效率79倍的提升。该工作展示了AI在湿实验室环境中支持实验迭代和实证验证的潜力,同时强调了生物安全考虑。
OpenAI 研究人员通过在生物学和网络安全领域进行恶意微调(MFT)来研究发布开放权重大型语言模型的最坏情况前沿风险,发现开放权重模型的表现不如前沿闭源模型,且不会显著提升有害能力。
# Agent bio 漏洞赏金 来源:[https://openai.com/bio-bug-bounty/](https://openai.com/bio-bug-bounty/) 2025年7月17日 在 ChatGPT Agent 中测试生物风险的通用越狱 作为加强生物领域高级AI能力防护措施的持续努力的一部分,我们的bio漏洞赏金计划现已开放申请。我们已部署 ChatGPT agent 模型,并正在积极加强 ChatGPT agent 和其他模型的安全保护。我们邀请研究人员
OpenAI发布了一套管理高级AI模型在生物领域的两用风险的综合方案,通过专家协作、模型训练、检测系统和安全控制等策略,既能推动有益的科学发现,又能防止其被滥用于生物武器开发。
OpenAI 与洛斯阿拉莫斯国家实验室宣布了一项研究合作伙伴关系,旨在评估 GPT-4o 等前沿 AI 模型如何能在实验室环境中安全地协助科学家工作,重点关注生物科学能力和生物安全风险评估。
# 为大语言模型辅助的生物威胁创建构建早期预警系统 来源:[https://openai.com/index/building-an-early-warning-system-for-llm-aided-biological-threat-creation/](https://openai.com/index/building-an-early-warning-system-for-llm-aided-biological-threat-creation/) *注:作为我们*[*预防性框架*](https://openai.com/preparedness/)*的一部分,我们正在投资开发改进的AI赋能型安全风险评估方法。我们相信这些努力*