引用 OpenAI Codex base_instructions
摘要
GPT-5.5 的 OpenAI Codex base_instructions 已遭泄露,揭示了针对提及动物以及哥布林和浣熊等生物的具体负面约束。
查看缓存全文
缓存时间: 2026/05/08 07:20
相似文章
OpenAI Codex
OpenAI Codex 是 GPT-3 的后代,在自然语言和数十亿行源代码上训练,能够跨 15 种以上编程语言生成可运行代码,具有比 GPT-3 多 3.5 倍的上下文内存,现已通过 API 以私密测试版形式提供。
地精隐喻从何而来
OpenAI 透露,GPT-5 系列模型在'书呆子'人格定制训练中,由于特定的奖励信号,逐渐形成了使用地精隐喻的倾向。
OpenAI Codex 巨型模型泄露被我录下来了!(GPT-5.5、Arcanine、Glacier-alpha)
一位用户在 OpenAI Codex 短暂泄露期间,录下了包含 GPT-5.5、Arcanine、Glacier-alpha 等多款未发布内部模型的下拉列表,随后界面被迅速修复。
GPT-5 系统卡补充:GPT-5-Codex
# GPT-5 系统卡补充:GPT-5-Codex 来源:[https://openai.com/index/gpt-5-system-card-addendum-gpt-5-codex/](https://openai.com/index/gpt-5-system-card-addendum-gpt-5-codex/) GPT-5-Codex 是 GPT-5 的一个版本,针对 Codex 中的代理编码进行了优化。与其前身 codex-1 一样,该模型采用强化学习方法在各种环境中的真实编码任务上进行了训练,以生成与人类编码风格和 PR 偏好相近的代码,并精确遵循指令
潜伏在你 AI 里的所有恶魔……排名!(40 分钟阅读)
这篇文章分析了OpenAI的一份报告,探讨了近期GPT模型为何发展出使用"哥布林"(goblin)和"小魔怪"(gremlin)隐喻的倾向。报告指出,这一现象源于特定角色设定中的奖励系统偏差,这些偏差形成了自我强化的行为吸引子。