@mattpocockuk:用好 LLM 的重要一课:如果你想产出一份文档(PRD、文章、长邮件),把它拆成……
摘要
Matt Pocock 建议将 LLM 文档创作拆成两步:先进行松散对齐,再正式动笔。
用好 LLM 的重要一课:如果你想产出一份文档(PRD、文章、长邮件),把它拆成两个阶段:
1. 松散“拷问”阶段,先对齐你想做什么(/grill-me)
2. 正式撰写文档(/create-doc)
如果直接一步到位,往往效果不佳。
查看缓存全文
缓存时间: 2026/04/21 11:56
用好 LLM 的重要经验:
如果你想产出一份文档(PRD、文章、长邮件),把它拆成两个阶段:
- 先进行一次“松散拷问”环节,把想做的内容对齐(/grill-me)
- 再正式生成文档(/create-doc)
相似文章
LLMs 在委托任务中破坏您的文档
DELEGATE-52 是一个新的基准测试,揭示了包括 GPT-5.4 和 Claude 4.6 Opus 等前沿模型在内的当前 LLMs,在跨越 52 个专业领域的长期委托工作流中平均损坏 25% 的文档内容。该研究表明 LLMs 会引入稀疏但严重的错误,这些错误在交互中不断复合,引发了人们对其在委托工作范式中可靠性的担忧。
@ArizePhoenix: 机器学习中最古老的教训之一,对于使用 LLM 应用仍然非常有用:不要用相同的数据进行评估……
本文讨论了使用 Arize Phoenix 开发 LLM 应用的最佳实践,特别强调了使用训练集/验证集/测试集拆分来进行诚实评估和追踪回归的重要性。
引用布莱恩·坎特里尔
布莱恩·坎特里尔批评LLM缺乏人类懒惰带来的优化约束,认为LLM会不必要地使系统复杂化而非改进,并强调人类时间限制推动了高效抽象的发展。
@dylan_works_: 写了一些我最近一直在研究的有趣发现:当 LLM agent 反复将自身经历改写成文本形式的“经验……
这篇研究博客文章表明,反复将 LLM agent 的经历改写成文本形式的“教训”往往会降低性能,而非提升性能。作者发现,在 ARC-AGI 和 ALFWorld 等基准测试中,情景记忆保留的效果优于抽象巩固。
让本地 LLM 浏览书籍,写出更精彩的故事
本地 MCP 服务器让 LLM 离线浏览 Project Gutenberg 图书,提升创意写作质量。