我不再需要你的 PR

Lobsters Hottest 新闻

摘要

一位开源维护者解释为何现在更偏爱由 LLM 生成的代码,而非社区 PR:AI 辅助能降低风险与摩擦,将贡献价值转向反馈、缺陷报告与设计讨论。

<p><a href="https://lobste.rs/s/p8idoc/i_don_t_want_your_prs_anymore">评论</a></p>
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/21 20:18

# 我不再需要你的 PR 来源:https://dpc.pw/posts/i-dont-want-your-prs-anymore 我很感激你喜欢我维护的软件,并愿意伸出援手。但我们需要重新思考这种协作方式,因为我觉得我们越来越在彼此浪费时间。 ### 为什么我不想合并你的 PR 由于我根本不了解你,我必须默认你可能会在改动里夹带恶意,这使得审查和合并的风险高于我自己动手实现。 除此之外,代码还有很多主观和个人化的层面:格式、风格、结构、依赖、思路,你有一套偏好,我也有一套。 然后我们还要就 review、CI、冲突解决等来回同步。 再加上贡献者与维护者之间常见的多轮往返,只会把事情越拖越久。 早在 LLM 出现之前,写代码就不是我的主要瓶颈,但写代码确实要花时间,因此一份扎实、能跑、易审的 PR 通常值得冒那点风险、忍受那点不便。 如今 LLM 已经能很好地实现功能,这种权衡几乎不再成立。 虽然我还是得审 LLM 生成的代码,但起码不用担心它暗藏恶意;我已经把自己的编码偏好和风格指南固化给了 LLM;我可以按自己的节奏快速迭代,无需跟身处不同时区的人类同步。 因此,干脆我自己(在 LLM 协助下)改代码,对大家都更轻松。 ### 软件开发的本性正在转移 越来越明显的是,“源代码”里的“源”字正失去意义,它更像是一份“代码”——开发者脑海里的想法与计算机可执行指令之间的中间形式。向来如此,只是现在代码可以自动生成,这层关系才变得更显眼。 外界对“编码智能体”的反应两极:有人彻底封杀,有人宣布编码已死、“vibecoding”才是未来。就当下而言,我处在中间:我先做设计,再让智能体写大部分代码,最后我来审阅、打磨。 我能让海量代码瞬间生成,但真正的瓶颈是: - 理解——读懂既有代码以便推理; - 设计——构思正确的改动与架构; - 审查——确保代码确实符合我的意图。 你的 PR 对这三点几乎毫无帮助。所以咱们跳过这一步——别再抱着“合入主干”的目标去写代码了。 ### 那你能怎么帮 当“写代码”这部分价值下降,其他帮助维护者的方式就相对更值钱了。 #### 给反馈 我忙于实现功能,往往没空深度使用,也缺乏调研改进方向的时间。用户告诉我哪里好用、哪里卡手,价值巨大。 #### 讨论思路 我并非全知,与不同背景的人交流,能帮我想清楚该做什么、怎么做。 #### 报告并排查 bug 一份好的 bug 报告等于修 bug 完成了四分之三。 如果你发现问题,请描述清楚,最好再进一步定位复现路径和出错位置,然后一起探讨解决方案。 #### 用原型说明改动 给我一份参考 PR 和/或你用来生成它的 prompt。 没错,我刚说“别给 PR”,先解释下:有 LLM 后,我更愿意让自家 LLM 按我的风格改,然后自己审。 但——用代码“示意”仍然有用,扫一眼实现方案能帮我快速理解。 如果你把真正的“源”(prompt)也贴出来,我还能继续打磨复用,省时间。 #### 审代码、挑毛病 我卡在 review 环节,多一双眼睛总是好事。 #### 自己分叉,回头汇报 别怕分叉,想怎么改就怎么改。 要设计兼容多种场景、寻求共识、权衡折中,这些都非常耗时。 LLM 让软件可定制化变得前所未有的简单。你可以自己搞定需求,再按自己的节奏跟上游合并(或不合并)。 直接分叉,为你的场景加功能,按你的方式来,无需请示,也无需抱歉。 作为维护者,我也省心。最终,也许你的分支走出另一条路,我们还能互相学到东西。

相似文章

AI代理的委托代理问题

Lobsters Hottest

文章分析了AI代理如何颠覆传统的代码审查流程,造成了“委托代理问题”,即审查者无法有效评估工作量或质量,导致开源项目中低质量的“slop PRs”增多。

Zig 项目坚持严格反 AI 贡献政策的理由

Simon Willison's Blog

本文探讨了 Zig 项目对 AI 生成内容的严格禁令,引用了 Loris Cro 提出的“贡献者扑克”理念,该理念强调培养人类贡献者优先于处理代码数量。文章还阐述了这一政策如何影响使用 Zig AI 辅助分支的 Bun 运行时。

AI 垃圾内容正在扼杀在线社区

Hacker News Top

文章认为,在 GitHub 和博客等平台上泛滥的低质量 AI 生成内容(即“AI 垃圾内容”)正在降低在线技术社区的价值。

AI 还有一个安全问题

Lobsters Hottest

文章认为,AI 生成的代码和闭源软件本质上安全性更低,像 Anthropic 的 Mythos 这样的大模型会加剧漏洞,唯有开源项目才值得信赖。