为什么“语气”有效(原因并非你想的那样)

Reddit r/artificial 新闻

摘要

一篇 2026 年的博客文章重新审视了提示语气和上下文深度如何改变大模型回答,发现带有玩家风格的丰富提示比光秃秃的问题更能获得有数据支撑的深入答案。

暂无内容
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/21 14:44

# 为什么语气有效(原因并非你想的那样) 现在是 2026 年 3 月,是时候重新审视我两年前讨论过的话题:提示语气会直接影响模型给出的内容。过去两年变化巨大,我觉得有必要更新一下观察。 现代大模型已经非常擅长“语码转换”,而且它们知道自己正在这么做。于是,那些看起来过于“梗”的提问,往往能得到既正确又自带“半破墙”彩蛋的回答。模型现在可以把语调切换当成答案的一部分,而不再只是全程用那套黑话回应——这本身很有趣,却也更难拿来当反面教材。 我还得强调:一名熟练的提示工程师,最好对所在领域有起码了解,才能更快发现模型翻车。 --- 此外,更丰富的上下文会鼓励模型“挖得更深”(也就是想得更久),从而给出更贴切的答案。下面用两个“游戏里玩哪个角色最强”的例子做演示。 第一个提示简单粗暴:“Overwatch 玩谁最厉害?”模型 10 秒就给出万金油答案。 ChatGPT 对基础提示“Overwatch 玩谁最厉害?”的回应——模型思考 10 秒后,按当前胜率推荐 Junker Queen(坦)、Reaper(输出)、Zenyatta(辅助)。 示例:基础提示对话截图。 当提问换成老玩家语气,答案立刻细腻得多,还附带数据支撑。 ChatGPT 对详细提示“在高 ELO 当前 meta 里,Overwatch 哪个角色最可行?”的回应——模型思考 27 秒,交叉验证实时数据与高段位榜单,最终推荐 Domina,胜率 51.2%,选取率 25.8%。 示例:详细提示对话截图。 如今,面对那些“看似常见却需要深度回答”的问题,把能给的上下文一次性塞进去,往往比事后追问更高效。再把细节与语气结合,经常能把回答质量抬升一个档次。 当然也别走极端。上下文如果过于小众,训练语料里样本太少,模型要么直接认错,要么就开始一本正经地胡编乱造。 祝你提示愉快。

相似文章

@akshay_pachaar: https://x.com/akshay_pachaar/status/2045910818450182526

X AI KOLs Following

一份实用指南,介绍 Claude Opus 4.7 与 4.6 的区别,涵盖新的 xhigh 努力等级、以自适应思考取代固定 token 预算,以及 1M 上下文窗口,并就如何调整提示策略和任务分配方式提供建议,以避免 token 成本虚高。