引用 OpenAI Codex base_instructions

Simon Willison's Blog 新闻

摘要

GPT-5.5 的 OpenAI Codex base_instructions 已遭泄露,揭示了针对提及动物以及哥布林和浣熊等生物的具体负面约束。

暂无内容
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/08 07:20

# OpenAI Codex base_instructions 中的一条提示 来源:https://simonwillison.net/2026/Apr/28/openai-codex/ 2026 年 4 月 28 日 > `除非绝对且明确地相关于用户的查询,否则绝不提及地精、捣蛋鬼、浣熊、巨魔、食人魔、鸽子或其他动物或生物。` ——OpenAI Codex 基础指令(https://github.com/openai/codex/blob/66b0781502be5de3b1909525c987643b9e5e407d/codex-rs/models-manager/models.json#L55),适用于 GPT-5.5

相似文章

OpenAI Codex

OpenAI Blog

OpenAI Codex 是 GPT-3 的后代,在自然语言和数十亿行源代码上训练,能够跨 15 种以上编程语言生成可运行代码,具有比 GPT-3 多 3.5 倍的上下文内存,现已通过 API 以私密测试版形式提供。

地精隐喻从何而来

OpenAI Blog

OpenAI 透露,GPT-5 系列模型在'书呆子'人格定制训练中,由于特定的奖励信号,逐渐形成了使用地精隐喻的倾向。

GPT-5 系统卡补充:GPT-5-Codex

OpenAI Blog

# GPT-5 系统卡补充:GPT-5-Codex 来源:[https://openai.com/index/gpt-5-system-card-addendum-gpt-5-codex/](https://openai.com/index/gpt-5-system-card-addendum-gpt-5-codex/) GPT-5-Codex 是 GPT-5 的一个版本,针对 Codex 中的代理编码进行了优化。与其前身 codex-1 一样,该模型采用强化学习方法在各种环境中的真实编码任务上进行了训练,以生成与人类编码风格和 PR 偏好相近的代码,并精确遵循指令

潜伏在你 AI 里的所有恶魔……排名!(40 分钟阅读)

TLDR AI

这篇文章分析了OpenAI的一份报告,探讨了近期GPT模型为何发展出使用"哥布林"(goblin)和"小魔怪"(gremlin)隐喻的倾向。报告指出,这一现象源于特定角色设定中的奖励系统偏差,这些偏差形成了自我强化的行为吸引子。