为了内容而内容

Armin Ronacher 新闻

摘要

作者探讨了LLM如何影响编码和日常语言中的用词,发现LLM偏好的词汇在编程会话和Google Trends中出现的频率均有所增加,这引发了人们对人类开始采用LLM写作风格的担忧。

<p>语言在不断发展,尤其是在某些社区中。并非所有人都随时准备好了。例如,我无法忍受我的社区现在总是“cooking”或“cooked”,里面的人都是“locked in”或“cracked”。我不喜欢这样,因为这些词的使用主要标志着群体成员身份,而非个性。</p> <p>但语言的一些变化现在可能来自……机器?也许不是。我不知道。像许多人一样,我注意到一些词比以前更频繁地出现,而明显的假设是LLM在作祟。我所做的是,取了我本地编程会话中90天的数据,寻找那些中等频率的词,其使用频率相对于<a href="https://github.com/tecnickcom/wordfreq">wordfreq</a>假定的频率有所膨胀。然后我查找了这些词中更常见的,并在Google Trends(过滤到美国)上进行了搜索。请注意,像“capability”这样的词更可能出现在编程会话中,因为问题的性质使然,所以实际增加比预期的要明显得多。</p> <p>您可以点进去看看;这就是随时间变化的情况。请注意,这些都是我的编程会话中来自agent输出的词,相对于历史标准有所膨胀:</p> <div data-llm-word-trends>正在加载词频趋势图……</div> <script src="/static/llm-word-trends.js"></script> <p><noscript>交互式词频趋势图需要JavaScript。</noscript></p> <p>肯定有什么情况发生了。Google Trends理论上反映了人们搜索的词。理论上,也许agent在做一些谷歌搜索,但也可能是人类在搜索LLM生成的内容;我不知道。这个数据集可能完全是编造的,但对我检查并选择的所有词来说,我在Google Trends上也看到了增长。</p> <p>那么,我最初是如何选择要检查的词的?首先,我查找了频率最高的词。正如你所料,它们是像“add”、“commit”、“patch”之类的东西。然后,我让一个LLM生成一个它认为与工程相关的词列表,并将它们完全排除在列表之外。然后,我还移除了最常见的词。最后,我得到了上面的列表,加上一些内部项目名称。例如,<a href="https://earendil-works.github.io/absurd/tools/habitat/">habitat</a>和<a href="https://earendil-works.github.io/absurd/">absurd</a>,以及其他一些内部代码名称,被过度代表,我不得不移除它们。如你所见,这并不完全科学。但在与wordfreq相比差异较大的最终词列表中,它们<em>全部</em>也在Google Trends上出现了峰值。</p> <p>除了LLM生成之外,可能还有其他解释,但我至少发现,我的编程会话峰值也与Google Trends上的峰值同时出现,这很有趣。</p> <h2>LLM垃圾的兴起</h2> <p>用词是一回事;LLM形成句子的方式是另一回事。识别LLM生成的文本并不难,但我越来越担心自己开始像LLM一样写作,因为我读了太多LLM的文本。我第一次意识到这一点是在今年早些时候的一次演讲中使用了“基底”这个词。我不确定从哪里学来的,但我非常喜欢它来表达我想说的意思,而且我不想用“基础”这个词。然而,从那以后,我到处都能看到这个词。这本身可能是<a href="https://en.wikipedia.org/wiki/Frequency_illusion">巴德尔-迈因霍夫现象</a>的一个例子,但你也可以从上面的选择中看到,我的编程agent对“基底”的喜爱超出了应有的程度,而Google Trends也显示增长。</p> <p>我们现在都接触过LLM生成的文本,但我感觉最近情况越来越糟。我收到的许多推文回复和我在Hacker News上看到的一些评论读起来就像LLM生成的,而且这包括那些我知道是真人的人。这真的让我很困扰,因为一方面,我真的想责备那些人说话和写作像LLM;另一方面,也许我们所有人都越来越像LLM那样写作和说话?</p> <p>我最近听了一段演讲录音(我故意不链接),其中演讲者使用了在LLM生成文本中过度出现的相同句子结构。是的,演讲者可能用了LLM来帮助他生成演讲,但与此同时,演讲听起来很自然。所以要么是排练得非常充分,要么就是自然的。</p> <h2>参与和收割</h2> <p>至少在Twitter、LinkedIn和其他地方,人们非常渴望写内容并被阅读。沉默不再是一种选择,结果,人们试图通过参与任何流行或热门的内容来获得影响力并建立个人形象。就像每个人都突然有无数开源项目一样,每个人对所有事情都有自己的看法。</p> <p>我的收件箱里全是公司发来的AI生成的垃圾,我现在经常看到AI生成的博客文章(或者至少看起来是AI生成的)在Hacker News和其他地方被认真讨论。</p> <p>真正的人类话语之前就因为社交媒体算法而成为一个问题,但现在变得极其有毒。随着越来越多的人发现他们可以利用LLM来优化他们的关注度,他们正在与算法展开一场军备竞赛,而真正的人类信号正在迅速丧失。现在有整个公司就是为了<a href="https://polsia.com/">自动发送LLM生成的垃圾</a>而存在的,人们显然为此付钱。</p> <h2>速度应该致命</h2> <p>如果我们考虑最高质量的内容应该胜出的想法,那么速度因素就不重要了。如果一个人工生成的评论比机器生成的评论晚15分钟,但通过更好而胜出,那么这种LLM垃圾就会少出现。但我认为LLM生成的噪音实际上表现很好。我们在开源中看到了很多这样的情况。有人建立了一个有趣的项目,把它放在GitHub上,几小时内就有了该代码库的“混音版”和“重新实现”。不仅如此,许多这样的分支还附带了马虎的营销网站、付费域名,以及社交媒体上关于为什么这是正确道路的整个故事。</p> <p>我之前抱怨过,开源正在迅速恶化,因为人们现在看到了在有用的开源项目之上构建产品的机会,但其基本机制与为什么我们看到如此多LLM垃圾的原因相同。有人在午餐时形成了(希望是)一个观点,然后3分钟后就有了机器生成的帖子。构建它并不需要那么多时间。对于推文,我认为情况更糟,因为我怀疑有些人运行脚本来基本上自动化参与。</p> <p>当然,我们都应该讨厌这一切。这些低质量的帖子、推文和开源项目不应该有任何立足之地。但它们确实有!无论它们迎合了什么,无论是算法还是人类参与,它们都没有因为投入的努力太少而受到足够的惩罚。</p> <h2>摩擦与速率限制</h2> <p>这种速度和易用性的提高可能变成问题是一个长期被理解的问题。身份证在英国非常不受欢迎,因为英国人对中央数据库的滥用持怀疑态度,就像纳粹德国发生的那样。同样,美国也有枪支拥有者保(Firearm Owners Pr)</p>
查看原文
查看缓存全文

缓存时间: 2026/05/16 03:28

# 为内容而内容 来源:https://lucumr.pocoo.org/2026/5/4/content-for-contents-sake/ 写于2026年5月4日 语言在不断演变,尤其是在某些社群中。并非所有人都随时准备好接受这种变化。例如,我就无法忍受我的社群现在动辄“cooking”或“cooked”,人们动不动就“locked in”或“cracked”。我不喜欢这样,因为这些词汇的使用主要是在表明群体归属感,而非体现个人独特性。 但语言的一些变化,现在可能来自……机器?也许不是。我不知道。我和许多人一样,注意到某些词汇的出现频率比以前更高了,自然而然地怀疑是LLM在作祟。我做了这样一件事:将本地编码会话中90天的数据拿来,寻找那些中等频率的词汇——这些词的使用频率相比[whatwordfreq](https://github.com/tecnickcom/wordfreq)所假设的应有频率来说,被放大了。然后,我从这些词中找出更常见的那些,在Google Trends上搜索(筛选至美国地区)。请注意,像“capability”这类词,仅仅因为编码问题的性质就更可能出现,所以实际增长其实比预期的更显著。 你可以点击查看,这是随时间变化的趋势。请注意,这些都是我编码会话中来自agent输出、且相对于历史标准被放大了的词汇: 正在加载词汇趋势图…… 确实发生了某些变化。理论上,Google Trends反映的是人们搜索的词。理论上,也许agent在做一部分搜索,但也可能只是人类在搜索由LLM生成的内容;我不确定。这个数据集可能完全是虚构的,但在我检查并筛选的所有词汇中,Google Trends上也都出现了增长。 那么,我最初是如何选择要检查的词汇的呢?首先,我找出了频率最高的词。不出所料,是“add”、“commit”、“patch”之类的。然后,我让一个LLM生成了一份它认为与工程相关的词汇列表,并将其完全排除。接着,我又移除了那些最基础的高频词。最后,我得到了上面的列表,外加一些内部项目名称。例如,[habitat](https://earendil-works.github.io/absurd/tools/habitat/)和[absurd](https://earendil-works.github.io/absurd/),以及一些其他内部代码名称,它们都被过度呈现了,因此我不得不剔除。如你所见,这并不完全科学。但在这份与wordfreq相比偏差很大的词汇列表中,它们*全部*在Google Trends上也出现了峰值。 除了LLM生成之外,或许还有其他解释。但至少我觉得有意思的是,我编码会话中的峰值也恰好与Google Trends上的峰值吻合。 ## LLM垃圾(Slop)的兴起 词汇选择是一回事;LLM构成句子的方式则是另一回事。识别LLM生成的文本并不难,但我越来越担心自己开始像LLM一样写作,因为我读到的LLM文本实在太多了。第一次意识到这一点,是我在今年早些时候的一次演讲中使用了“substrate”这个词。我不确定从哪里学来的,但我真的很喜欢用它来表达我的意思,而且不想用“foundation”这个词。然而,从那时起,我到处都能看到这个词。这本身可能是一种[巴德尔-迈因霍夫现象](https://en.wikipedia.org/wiki/Frequency_illusion)(即频率错觉),但你也从我上面的筛选结果中看到,我的编码agent对“substrate”的喜爱超出了应有程度,并且Google Trends也显示其增长。 我们现在都接触到了LLM生成的文本,但我感觉最近情况更糟了。我收到的许多推文回复以及我在Hacker News上看到的一些评论,读起来都像是LLM生成的——而且这包括那些我确认是真人的人。这真的让我脑子很乱,因为一方面,我真想指责那些说话写作像LLM的人;但另一方面,也许我们所有人确实在越来越多地真的像LLM一样写作和说话? 我最近听了一个演讲录音(我故意不链接),演讲者使用了在LLM生成文本中过度呈现的相同句式。是的,演讲者可能用了LLM来帮助生成演讲稿,但与此同时,这个演讲听起来很自然。所以要么是准备得极其充分,要么就是它本来就是自然的。 ## 参与与收割 至少在Twitter、LinkedIn和其他平台上,人们有强烈的欲望去撰写内容并被阅读。沉默不再是一种选择,于是人们试图通过参与任何流行或热门的话题来获取关注度和建立个人形象。就像突然之间每个人都拥有海量的开源项目一样,每个人对任何事情也都有了自己的见解。 我的收件箱里充斥着公司发给我的AI生成的废话,现在我经常看到AI生成的博客文章(或者至少看起来像是AI生成的)在Hacker News和其他地方被认真讨论。 在此之前,由于社交媒体算法,真正的人类讨论就已经是个问题了;而现在已经变得毒性十足。随着越来越多人发现可以用LLM来优化自己的粉丝数,他们正与算法展开一场军备竞赛,而真正的人类信号正在迅速落败。现在有一些公司专门存在,就是为了[自动化发送LLM生成的垃圾内容](https://polsia.com/),而且显然有人为此付费。 ## 速度应当成为劣势 如果我们考虑“最高质量的内容胜出”这一理念,那么速度因素就不重要了。如果一条人类生成的评论在机器人生成的评论之后15分钟才出现,但因其质量更高而胜出,那么所有这些LLM生成的噪音就不会那么显眼。但我认为,LLM生成的噪音实际上表现很好。我们在开源领域就经常看到这种情况。有人构建了一个有趣的项目,放到GitHub上,几小时内就会出现该代码库的“混音版”和“重新实现版”。不仅如此,其中许多分支还带有粗制滥造的营销网站、付费域名,以及在社交媒体上完整讲述为什么这条路值得走的故事。 我之前就抱怨过,开源正在迅速恶化,因为人们看到了在有用开源项目之上构建产品的机会,但其底层机制与我们看到这么多LLM垃圾的原因相同。某人在午餐时有了一个成形的观点(但愿如此),然后在3分钟后就有了一个机器人制作完成的帖子。构建它根本不花多少时间。对于推文,我认为情况更糟,因为我怀疑有些人运行着脚本来基本自动化地参与互动。 而且,我们当然应该憎恶这一切。这些低质量的帖子、推文和开源项目本不该有任何立足之地。但它们确实有!无论它们迎合了算法还是人类的参与,它们都没有因为投入的努力太少而受到足够的惩罚。 ## 摩擦与速率限制 速度和易用性的提升可能变成问题,这是一个早已被理解的问题。在英国,身份证非常不受欢迎,因为英国人怀疑中央数据库会被滥用——经历过纳粹德国的事情后。同样,美国有1986年的《枪支拥有者保护法案》,该法案也禁止美国建立枪支拥有者的中央数据库。由于没有这样的数据库而采用的[枪支追踪方法,看起来就像韦斯·安德森电影里的情节](https://www.youtube.com/watch?v=rMQ2b6ZwwCU)。我们早就知道,某些事情不应该太容易,因为可能被滥用。 我们在工程领域知道这一点;在政府过度干预方面也知道。现在,我们可能要在更多情境中学习同样的教训,因为LLM让几乎所有涉及人类文本的事情变得容易得多。这正在迅速冲击现有的基于文本的系统。例如,欧盟投诉系统现在[在AI的压力下不堪重负](https://www.politico.eu/article/eu-system-buckles-under-pressure-of-ai-powered-complaints/)。或者再看看任何与AI相关的项目的问题追踪器。[Pi](https://pi.dev/) 经常会收到AI生成的问题请求,有时甚至[连作者本人](https://github.com/badlogic/pi-mono/issues/4111)[都](https://github.com/badlogic/pi-mono/issues/3862)[不知情](https://github.com/badlogic/pi-mono/issues/3783)。 ## 信任侵蚀与精神操控 我知道,对于“我收到了太多邮件、糟糕的Twitter提及和GitHub问题”来说,这抱怨很多了。但我真的认为,既然我们知道这正在发生,我们就必须改变与那些越来越自动化的人们互动的方式。他们不仅产生了大量我们都要忍受的劣质内容,还以更阴险的方式影响着世界——影响着我们彼此之间的互动。一旦我开始不信任我原本信任的人,因为他们开始使用LLM的措辞,这就会侵蚀整个社会的信任。 你也不能完全因为不良行为就禁止某人,因为有些情况是意外发生的。你给我发Polsia垃圾?那你对我来说就完了。你给我发AI生成的问题请求,五分钟后道歉?嗯,失误在所难免。然而,在很多方面,正在发生并将继续发生的事情令人不安。 我最近和我的朋友 [Ben](https://github.com/benvinegar) 聊过,他说他强迫某人给他打电话来继续对话,因为他不再相信自己在和人类交谈。 我们并非所有人都已经接触到这种极端案例,但我有过几次互动,让我对对方的真实身份产生了怀疑,甚至质疑现实。我对此感到挣扎,而且我自认为对新技术、尤其是AI相当开放。但我的孩子们会如何应对这种事情?我的母亲呢?我强烈怀疑技术能为我们解决这个问题。 ## 改变的提议 我不认为技术能为我们解决这个问题,原因是虽然技术可以隐藏一些垃圾信息并标记一些生成的文本,但它无法修复我们人类。这里受到损害的是全面的社交互动:即当你收到某人写来的文字时,假定对方是一个对这次互动投入了一些心思的人。我宁愿被人忽略或拒绝,也不愿收到一些AI生成的垃圾信息。 改变必须从意识开始,一个不幸的发展是,LLM不仅影响我们阅读的文本,还影响我们写作的文本——即使我们没有使用LLM。考虑到由此产生的模糊性,我们需要更加意识到,当我们使用agent来支持我们与他人互动时,我们是多么容易变成“能量吸血鬼”。请考虑:每次有人阅读你发出的文本时,他们将越来越需要做出判断:这次互动是由你、一个LLM、还是你和LLM共同产生的。当存在模糊性时,任何一方的透明性都会有所帮助。 当有人向我们发送未声明的垃圾内容时,我们需要改变我们与他们互动的方式。如果我们关心他们,我们应该告诉他们。如果我们不关心他们,我们就不应给予他们曝光度,也不应参与其中。 当涉及到创建可以提交文本的平台和界面时,我们需要设置更多的障碍。你生产的内容便宜,不代表别人接收起来也便宜,我们需要找到更多创造性的方法来增加反压力。GitHub或任何想要取代它的平台,在这方面都需要大幅改进,其中一些改进可能与其核心KPI相悖。如果你想要一个长期健康的平台,追求更多的参与度越来越是错误的做法。 任何能对社交互动进行速率限制的事情,我们都应该尝试:更多的面对面会议,更多需要赢得信任的平台,也许还需要更多地接受:有时正确的回应就是没有回应。 至于AI对这篇博客的帮助,我[已经有一段时间使用了AI透明度声明](https://lucumr.pocoo.org/ai-transparency/)。在这篇具体的博文中,我使用Pi作为agent来帮助我生成动态可视化,并使用它编写代码来分析和抓取Google Trends。 此条目标记为 [ai](https://lucumr.pocoo.org/tags/ai/) 复制为 [markdown](https://lucumr.pocoo.org/2026/5/4/content-for-contents-sake.md) / [查看](https://lucumr.pocoo.org/2026/5/4/content-for-contents-sake.md)

相似文章

LLMs 不擅长编写“氛围式”规范

Hillel Wayne — Computer Things

Hillel Wayne 基于对社区项目的分析,讨论了尽管 LLM 在编写 TLA+ 和 Alloy 等形式化规范方面很受欢迎,但它们经常生成浅显、同义反复的属性,无法捕捉微妙的缺陷。

引用布莱恩·坎特里尔

Simon Willison's Blog

布莱恩·坎特里尔批评LLM缺乏人类懒惰带来的优化约束,认为LLM会不必要地使系统复杂化而非改进,并强调人类时间限制推动了高效抽象的发展。