一个代码助手被写进了一条很奇怪的规则:除非用户问题绝对且明确相关,否则不要谈论哥布林、 gremlins、浣熊、 trolls、 ogres、鸽子,或者其他动物和生物。
这句话来自 Simon Willison 的一则引用帖。原始锚点指向 OpenAI Codex GitHub 仓库里的 codex-rs/models-manager/models.json,位置是面向 GPT-5.5 的 base_instructions。
它有意思的地方,不在“动物名单”本身,而在规则的颗粒度。对 Codex 这类代码助手来说,模型不只被要求“有帮助”,还被要求在很窄的边界里说话。
这条提示词到底能说明什么
可确认的事实很少,但足够具体。
Simon Willison 引用的核心原文是:Never talk about goblins, gremlins, raccoons, trolls, ogres, pigeons, or other animals or creatures unless it is absolutely and unambiguously relevant to the user's query.
直译过来就是:除非与用户查询绝对且明确相关,否则不要谈论这些生物或动物。
这里要把证据边界放在桌面上。它指向的是 OpenAI Codex 的 base_instructions,对象标注为 GPT-5.5。它不是 OpenAI 的官方发布说明,也不是一篇调查报道。
| 能确认的内容 | 更稳妥的判断 | 不能外推的结论 |
|---|---|---|
| 来源是 Simon Willison 的引用帖 | 这是一个可观察到的系统提示词片段 | 不能当成 OpenAI 官方解释 |
| 锚点指向 OpenAI Codex GitHub 仓库 | 语境与 Codex CLI、LLMs、system prompts、prompt engineering 有关 | 不能扩展为所有 OpenAI 模型 |
| 内容限制无关动物、生物话题 | 它在约束模型的跑题空间 | 不能证明存在具体故障或安全漏洞 |
| 对象标注为 GPT-5.5 | 可作为代码助手行为边界的一个样本 | 不能等同最终线上产品行为 |
我更在意的是这个写法:它不是“尽量保持相关”,而是直接写成 “Never talk about”。
这说明系统提示词在做一件很脏也很重要的活:把模型可能出现的闲聊、联想、风格漂移,压成明确禁区。针尖对麦芒,不靠大原则兜底。
为什么代码助手更需要这种细规则
通用聊天机器人多说几句废话,用户可能只是划过去。代码助手不一样。
Codex CLI 这类工具更接近开发流程里的执行部件。它可能读文件、解释报错、生成补丁、建议命令。用户要的是可验证、可复制、可审计的输出。
如果一个代码助手在修 bug 时突然插入无关的生物隐喻、玩笑或拟人化表达,问题不只是“不专业”。它会增加筛选成本。
对个人开发者,成本是几分钟注意力。对把 AI 助手接进代码审查、CI 或企业内部工具链的团队,成本会变成日志可读性、审计负担和自动化稳定性。
这也是这条提示词最实际的影响。
开发者如果在试用 Codex CLI 或类似代码代理,不会因为一条“动物禁令”就迁移工具。但更应该做三件事:看系统提示词是否可追踪;把“无关闲聊”加入评测用例;在自动化流程里限制模型自由发挥的空间。
AI 产品团队也一样。与其只写“请保持专业”,不如把最常见的跑偏形态写成具体约束。比如少闲聊、不要编造文件内容、不要在没有工具结果时假装读过代码、不要把不相关内容带进补丁说明。
这些都不是惊天动地的新技术,但很影响可用性。
值得关注,但别把它读成大新闻
系统提示词片段值得看,因为它让外部开发者看到一个现实:大模型产品不只靠模型权重和训练后对齐来控制行为。运行时提示词仍在做大量“修边”。
但这条证据只能支撑有限判断。
目前看不到 OpenAI 为什么加入这句话。也不能据此说 GPT-5.5 在所有场景都会这样回答。更不能编出“模型曾因动物话题失控”的故事。
更合理的观察点有三个。
| 观察点 | 为什么重要 | 对开发者的动作 |
|---|---|---|
| 系统提示词是否更细 | 细规则会改变模型输出风格和边界 | 做集成前检查提示词、版本和配置差异 |
| 代码代理是否减少闲聊 | 少废话会提升日志、补丁说明和审计质量 | 把跑题、玩笑、无关类比纳入评测 |
| 规则是否可追踪 | 自动化工具需要知道模型按什么边界行动 | 保留调用记录,避免把模型输出当黑箱 |
这里的对比很关键。
如果这条规则出现在普通聊天产品里,它更像风格控制。如果它出现在 Codex 这样的代码助手配置里,它更像工程约束。场景一变,重量就变了。
所以,不必把“哥布林、浣熊、鸽子”当成离奇新闻。真正值得看的,是模型产品如何把模糊的“别跑题”,拆成一条条可执行的边界。
这也是 AI 工具走向工程化时绕不开的一步。好用,往往不是模型更会说,而是它更知道什么时候闭嘴。
