为什么“语气”有效(原因并非你想的那样)
摘要
一篇 2026 年的博客文章重新审视了提示语气和上下文深度如何改变大模型回答,发现带有玩家风格的丰富提示比光秃秃的问题更能获得有数据支撑的深入答案。
暂无内容
查看缓存全文
缓存时间: 2026/04/21 14:44
# 为什么语气有效(原因并非你想的那样)
现在是 2026 年 3 月,是时候重新审视我两年前讨论过的话题:提示语气会直接影响模型给出的内容。过去两年变化巨大,我觉得有必要更新一下观察。
现代大模型已经非常擅长“语码转换”,而且它们知道自己正在这么做。于是,那些看起来过于“梗”的提问,往往能得到既正确又自带“半破墙”彩蛋的回答。模型现在可以把语调切换当成答案的一部分,而不再只是全程用那套黑话回应——这本身很有趣,却也更难拿来当反面教材。
我还得强调:一名熟练的提示工程师,最好对所在领域有起码了解,才能更快发现模型翻车。
---
此外,更丰富的上下文会鼓励模型“挖得更深”(也就是想得更久),从而给出更贴切的答案。下面用两个“游戏里玩哪个角色最强”的例子做演示。
第一个提示简单粗暴:“Overwatch 玩谁最厉害?”模型 10 秒就给出万金油答案。
ChatGPT 对基础提示“Overwatch 玩谁最厉害?”的回应——模型思考 10 秒后,按当前胜率推荐 Junker Queen(坦)、Reaper(输出)、Zenyatta(辅助)。
示例:基础提示对话截图。
当提问换成老玩家语气,答案立刻细腻得多,还附带数据支撑。
ChatGPT 对详细提示“在高 ELO 当前 meta 里,Overwatch 哪个角色最可行?”的回应——模型思考 27 秒,交叉验证实时数据与高段位榜单,最终推荐 Domina,胜率 51.2%,选取率 25.8%。
示例:详细提示对话截图。
如今,面对那些“看似常见却需要深度回答”的问题,把能给的上下文一次性塞进去,往往比事后追问更高效。再把细节与语气结合,经常能把回答质量抬升一个档次。
当然也别走极端。上下文如果过于小众,训练语料里样本太少,模型要么直接认错,要么就开始一本正经地胡编乱造。
祝你提示愉快。
相似文章
@dylan_works_: 写了一些我最近一直在研究的有趣发现:当 LLM agent 反复将自身经历改写成文本形式的“经验……
这篇研究博客文章表明,反复将 LLM agent 的经历改写成文本形式的“教训”往往会降低性能,而非提升性能。作者发现,在 ARC-AGI 和 ALFWorld 等基准测试中,情景记忆保留的效果优于抽象巩固。
@itsolelehmann: Garry Tan 的自定义指令非常到位。它能让任何 LLM 摆脱半成品的垃圾回答,生成真正有用的答案……
Garry Tan 分享了自定义指令(SOUL md),使 LLM 能提供更有用、更少半成品的回答。这是一个提升 AI 交互的实用技巧。
@Zephyr_hg:AI 现在第一次尝试就能给我完全想要的结果。测试了数千个提示词,发现每个有效的提示词中都存在相同的 5 个组件…
作者分享了一个由五个组件组成的提示词工程框架(Role, Task, Context, Format, Tone),声称适用于各大主流 AI 模型。
Prober.ai:通过 LLM 约束角色为论证写作发展提供基于询问的反馈
本文介绍了 Prober.ai,这是一个基于 Web 的写作环境,它利用 LLM 约束的角色为论证写作提供基于询问的反馈,旨在防止认知外包。该系统作为黑客马拉松原型开发而成,通过将修改建议置于学生反思之后,以保留批判性思维能力。
@akshay_pachaar: https://x.com/akshay_pachaar/status/2045910818450182526
一份实用指南,介绍 Claude Opus 4.7 与 4.6 的区别,涵盖新的 xhigh 努力等级、以自适应思考取代固定 token 预算,以及 1M 上下文窗口,并就如何调整提示策略和任务分配方式提供建议,以避免 token 成本虚高。