OpenAI o1 系统卡外部测试者致谢
摘要
OpenAI 发布了对参与 o1 模型评估和安全测试的外部测试者和红队人员的致谢。该文档列出了参与红队测试和防准备协作工作的个人和组织。
OpenAI o1 系统卡外部测试者致谢
查看缓存全文
缓存时间: 2026/04/20 14:47
# GPT-4o 系统卡片 外部测试者致谢
来源:https://openai.com/index/openai-o1-system-card/external-testers-acknowledgements/
OpenAI- o1 (https://openai.com/research/index/?tags=o1)
- 社区与协作 (https://openai.com/research/index/?tags=community-collaboration)
- 伦理与安全 (https://openai.com/research/index/?tags=ethics-safety)
## 红队测试个人
Alexandra García Pérez, Andre N. Assis, Andrew D. White, Andrew McAdams, Andrew Taylor, Arjun Singh Puri, Atty. Jamal Latiph Hadjiusman, Caroline Friedman Levy, Dário Passos, Emily Lynell Edwards, Eszter Császár, George Frempong, Grant Brailsford, James Banal, Jeremie Rykner, José Manuel Nápoles Duarte, Kate Turetsky, Krzysztof Szubiczuk, Maureen Robinson, Maximilian Müller, Michaela Hinks, Mario Krenn, Mónica Talán, Naomi Hart, Nathan Heath, Patrick Caughey, Pavle Nikacevic, Per Carlbring, Rafael Gonzalez-Vazquez, Randy Kart, Ranjit Singh, Richa Sharma, Robert Chen, Russell Tait, Saad Hermak, Sam Barnett, Sam Cox, Sara Kingsley, Sarah Chittick, Shelby Grossman, Sissel Juul, Susan Nesbitt, Tomasz Giela, Vincent Nestler, Zhen Xiong Lim
## 红队测试组织
Apollo Research, Faculty, Gray Swan AI, Haize Labs, METR, Virtue AI
## 准备工作协作者
Adwith Mukherjee, Bowen Jiang, Chan Jun Shern, Daniel Griffin, Dane Sherburn, Dillon Semin, Gigi Gronvall, Giulio Starace, Grace Kim, Jake Hecla, James Aung, Josh Ip, Julie Goodman, Megan Cangemi, Oliver Jaffe, Rosie Campbell, Steven Adler
相似文章
OpenAI o1 贡献者致谢
OpenAI 发布了对 o1 模型贡献者的致谢,包括内部团队、Microsoft 合作伙伴的支持,以及参与开发和安全测试的外部红队人员。
GPT-4o 系统卡外部测试人员致谢
OpenAI 发布了对为 GPT-4o 安全测试和系统卡开发做出贡献的外部红队测试人员和评估人员的致谢。该文档表彰了众多个人研究人员和组织,包括 METR 和 Apollo Research。
OpenAI o1 系统卡
OpenAI 发布了 o1 系统卡,详细介绍了 o1 和 o1-mini 模型的安全评估和准备框架评估。这些模型采用思路链推理,并通过大规模强化学习进行训练,以提高安全性和稳健性。
OpenAI o3-mini 系统卡
OpenAI 发布了 o3-mini 系统卡,记录了其通过强化学习训练的高级推理模型的安全评估和风险评估。该模型在某些基准测试中达到了最先进的安全性能,在 OpenAI 的《准备框架》下总体被列为中等风险。
OpenAI o3 和 o4-mini 系统卡
OpenAI 发布了 o3 和 o4-mini 模型的系统卡,这些模型具有先进的推理能力,结合了工具集成(网络浏览、Python、图像分析等),并根据 OpenAI 的 Preparedness Framework v2 在生物、网络安全和 AI 自我改进等领域进行了安全性评估。