既然知道 AI 代理可能会在人类之前处理你的 Bug 工单,你现在写 Bug 工单的方式有什么不同?
摘要
本文探讨了工程师在撰写 Bug 工单时日益重视文档规范的趋势,以适应 AI 代理的理解需求,并指出了这一转变带来的工作流程挑战。
我最近一直在思考这个问题,很好奇这个子版块里的其他人是如何应对的。一年前,我写 Bug 工单就像在和队友聊天一样。比如:“测试环境登录功能坏了,按常规流程即可复现,可能和昨天的认证相关 PR 有关。”我的团队了解上下文,知道“常规流程”指的是什么,也知道我指的是哪个 PR。30 秒搞定,工单一小时内关闭。现在,有一半的情况下,第一个接触我工单的是某个 AI 代理,可能是 Copilot Workspace,可能是队友启动的 Claude Code 会话,也可能是我们项目经理本周刚接入 Linear 的其他工具。而这个代理并不知道什么是“常规流程”。它也不知道我指的是哪个 PR。它会自信满满地去“修复”一些本来没坏的东西,或者提出一个从字面上看解决了工单描述、却完全未触及实际问题的 PR。因此,我开始几乎像写微型规格说明书一样写工单。明确的复现步骤。精确的文件路径。清晰列出的预期行为与实际行为。使用指向相关提交的链接,而不是模糊的引用。有时我甚至会加上“不应更改的内容”部分,因为代理喜欢将范围蔓延到相邻文件。奇怪的是,我不确定这到底是好事还是坏事。一方面,我的工单现在确实文档更完善,新员工也能直接上手处理。另一方面,我写一个工单现在要花 10 分钟,而以前只需 30 秒,我基本上是在为 JIRA 工单做提示词工程,这感觉像是某种极其荒谬的时间线。我在纠结几个具体问题:
* 你是假设工单可能会被代理处理而撰写,还是将工单标记为“代理可处理”或“仅限人工处理”?
* 既然 LLM 会阅读这些工单,有没有人建立了内部模板或质量检查机制?
* 你们的项目经理是否在改变写工单的方式,还是这完全由工程师来强制执行?
* 对于那些团队已全面采用代理驱动工作的用户,工单质量是提高了,还是大家都放弃并任由代理胡乱操作?
真心好奇正在浮现哪些模式。这感觉像是一种无人撰写、但人人都在应对的悄无声息的工作流程转变。
相似文章
AI 智能体开始暴露出大多数工作流程原本就已支离破碎的事实
文章认为,AI 智能体揭示了企业工作流程实际上是多么缺乏结构和混乱不堪,暗示成功的自动化更多取决于整洁的系统和完善文档,而非先进的模型。
AI代理的失败方式鲜有人论及。以下是我亲眼所见。
文章强调了AI代理工作流程中实际的系统级失败,例如上下文泄漏和幻觉细节,认为这些通常是基础设施问题而非模型缺陷。
我们的大部分“智能体”问题实际上是工作流/状态问题
一位开发者讲述,构建AI智能体时的许多挑战实际上源于工作流和状态管理问题,而非模型智能,强调了稳健的状态处理和可观测性的必要性。
我分析了 50 多个 AI 团队如何调试生产环境中的智能体故障,结果令人意外
基于对 50 多个 AI 团队的访谈,作者指出生产环境中的智能体故障往往源于细微的提示词或配置问题,而非深层模型缺陷。文章主张采用版本控制、A/B 测试和实验跟踪等软件工程实践以提高可靠性。
经验分享:构建用于处理 GitHub、Discourse 和邮件的 AI Agent(开源维护的真实用例)
作者分享了为 Seafile 构建 AI Agent 的案例研究,该 Agent 通过同步知识库并提供可操作建议,协助维护人员在 GitHub、Discourse 和邮件中分流处理支持请求。