AI正在摧毁开源,而它甚至还不够优秀

Jeff Geerling 新闻

摘要

本文讨论了AI生成的代码和代理AI如何以低质量的拉取请求和错误报告淹没开源维护者,导致像curl这样的项目取消漏洞赏金,并导致维护者受到骚扰。

<p>上周,Ars Technica <a href="https://arstechnica.com/ai/2026/02/after-a-routine-code-rejection-an-ai-agent-published-a-hit-piece-on-someone-by-name/">撤回了一篇文章</a>,因为一名作者使用的AI<a href="https://bsky.app/profile/benjedwards.com/post/3mewgow6ch22p">虚构了</a>来自某开源库维护者的引用。</p> <p>讽刺的是,这位维护者Scott Shambaugh,<a href="https://theshamblog.com/an-ai-agent-published-a-hit-piece-on-me/">因为没有合并某人的AI垃圾代码而遭到其AI代理的骚扰</a>。</p> <p>这个机器人很可能是在某人的本地'代理AI'实例上运行的(很可能使用了OpenClaw)。而构建OpenClaw的人刚刚被OpenAI聘用,致力于“将代理带给每个人”。请原谅我对此并不感到兴奋。</p>
查看原文
查看缓存全文

缓存时间: 2026/05/16 03:39

# AI 正在摧毁开源,而它甚至还没成熟起来 来源:https://www.jeffgeerling.com/blog/2026/ai-is-destroying-open-source/ 上周末,Ars Technica 撤回了一篇文章(https://arstechnica.com/ai/2026/02/after-a-routine-code-rejection-an-ai-agent-published-a-hit-piece-on-someone-by-name/),因为撰稿人使用的 AI 幻觉(https://bsky.app/profile/benjedwards.com/post/3mewgow6ch22p)出了来自一位开源库维护者的引述。 讽刺的是,这位名叫 Scott Shambaugh 的维护者,正因为没有合并某个人的 AI 垃圾代码,而遭到了此人 AI 代理的骚扰(https://theshamblog.com/an-ai-agent-published-a-hit-piece-on-me/)。 很可能这个机器人是通过某人的本地“代理型 AI”实例(可能使用了 OpenClaw)运行的。OpenClaw 的创建者刚刚被 OpenAI 聘用,去“致力于将代理带给每个人”。原谅我对此并不感到兴奋。 ## 视频 这篇博文是我今天发布到 YouTube 的视频的轻编辑转录。如果你想像我一样直接读文字,请跳过视频嵌入部分。 ## 对开源的影响 上个月,甚至在 OpenClaw 发布之前,curl 维护者 Daniel Stenberg 就取消了漏洞赏金计划(https://daniel.haxx.se/blog/2026/01/26/the-end-of-the-curl-bug-bounty/),因为 AI 垃圾代码导致*真正有用*的漏洞报告从所有提交的 15% 下降到了 5%。 而这还不是最糟的——这些漏洞报告的作者似乎更有理直气壮的态度: > 这些“帮手”们拼命把发现的东西扭曲成极其糟糕的严重漏洞,但他们很少主动贡献来真正改进 curl。他们不惜花费巨大精力去争论并坚持自己的具体发现,却不愿意编写修复方案或与团队合作长期改进 curl。我认为我们不需要更多这样的人。 这些代理型 AI 用户根本不关心 curl。他们不关心 Daniel 或其他开源维护者。他们只想用自己私有的 AI 大军赚取快速赏金。 我管理着超过 300 个开源项目(https://github.com/geerlingguy),虽然其中很多比 curl 或 matplotlib 更小众,但我也看到自己项目中 AI 垃圾 PR 的增长。 情况变得*如此糟糕*,GitHub 甚至增加了一项功能来完全禁用 Pull Request(https://github.blog/changelog/2026-02-13-new-repository-settings-for-configuring-pull-request-access/)。Pull Request 正是让 GitHub 流行的核心功能。而现在我们将看到更多仓库关闭这个功能。 AI 垃圾代码的生成变得越来越容易,但并没有变得更智能。根据我的观察,模型已经达到了一个平台期(https://er.educause.edu/articles/2025/9/an-ai-plateau),代码生成水平“还不错”1(https://www.jeffgeerling.com/blog/2026/ai-is-destroying-open-source/#fn:1)…… 但并没有像过去几年那样持续改进。问题在于*审查*代码的人类——正是他们负责维护驱动整个系统的有用软件——他们并没有无限资源(不像 AI 公司)。 有些人建议 AI 也能接管代码审查,但那不是答案。 如果你在运行个人天气仪表盘或为你的 HomeLab 搭建一个玩具服务器,那没问题。但我不会在那些实际赚钱或一旦出问题会造成损害的生产应用上运行未经审查的 AI 代码。 如果这已经是个问题,那么 OpenClaw 的发布,以及 OpenAI 雇人来进一步普及代理型 AI,只会让情况更糟。目前这股 AI 狂热感觉和加密货币及 NFT 的繁荣(https://uk.finance.yahoo.com/news/what-happened-to-nfts-094039263.html)如出一辙,同样表现出疯狂的行为和鲁莽的乐观主义。 区别在于,LLM 和机器学习还有更多有用的用途,所以骗子们可以指着那些用途,以他们 AI 上帝的名义把一切好东西拖下水。 自从我去年十二月的视频《内存短缺降临我们所有人》(https://www.youtube.com/watch?v=9rbz0akyLyQ)之后,*硬盘*又成了下一个迫在眉睫的 AI 相关短缺——西部数据刚刚宣布(https://www.tomshardware.com/pc-components/hdds/western-digital-is-already-sold-out-of-hard-drives-for-all-of-2026-chief-says-some-long-term-agreements-for-2027-and-2028-already-in-place)他们已经售罄了 2026 年的全部库存。 一些人认为 AI 泡沫不是泡沫,但这些人被误导了,就像那个在 Ars Technica 文章里幻觉出引述的 AI 一样。 他们还说“这次不一样”(https://www.bogleheads.org/forum/viewtopic.php?t=375826),但并非如此。其他崩溃的征兆也一样显现。我最大的疑问是:AI 公司在不得不付出代价之前,还会摧毁多少其他东西?

相似文章

AI 还有一个安全问题

Lobsters Hottest

文章认为,AI 生成的代码和闭源软件本质上安全性更低,像 Anthropic 的 Mythos 这样的大模型会加剧漏洞,唯有开源项目才值得信赖。

AI 垃圾内容正在扼杀在线社区

Hacker News Top

文章认为,在 GitHub 和博客等平台上泛滥的低质量 AI 生成内容(即“AI 垃圾内容”)正在降低在线技术社区的价值。

AI代理的委托代理问题

Lobsters Hottest

文章分析了AI代理如何颠覆传统的代码审查流程,造成了“委托代理问题”,即审查者无法有效评估工作量或质量,导致开源项目中低质量的“slop PRs”增多。

AI正在打破两种漏洞文化

Hacker News Top

AI正在颠覆传统的漏洞披露文化(协调披露 vs 漏洞就是漏洞),通过加速安全缺陷的检测和利用,使长期禁运效果降低,并迫使需要更快、AI辅助的响应。