应禁止LLM生成的提交内容
摘要
Lobsters上的一位用户提议应禁止LLM生成的提交内容,认为应封禁发布此类内容的用户,并添加通知提醒提交者。
<p>关于如何处理LLM生成的文章,有很多讨论。我认为目前并没有明确的政策规定是否允许此类文章。</p>
<p>我认为应封禁定期发布此类内容的用户。</p>
<p>在提交页面添加一条通知,提醒人们这里不允许发布LLM生成的文章,也是一个好主意。</p>
<p>这应能减少关于文章是否应被标记或评论的争论。</p>
查看缓存全文
缓存时间: 2026/05/15 21:04
# 应禁止LLM生成的内容提交
来源:https://lobste.rs/s/29pm2f/llm_generated_submissions_should_be
关于如何处理LLM生成的文章,目前讨论很多。但我不认为有明确的政策规定是否应允许这类文章存在。
我认为应禁止那些定期发布LLM生成内容的用户访问本站。
另外,在提交页面添加提醒通知,告知用户LLM生成的文章在这里不被允许,也是个好主意。
这样应该能减少关于是否应举报或评论此类文章的争论。
相似文章
"This is written by an LLM" 这类评论应标记为离题
文章建议,在 Lobsters 上仅仅指责帖子由 LLM 生成的评论应标记为离题,以维护讨论质量。
Content for Content’s Sake
The author investigates how LLMs are influencing word usage in coding and everyday language, finding that words favored by LLMs show increased frequency in both coding sessions and Google Trends, raising concerns about humans adopting LLM writing styles.
别再让大语言模型编辑你的 .bib 文件 [D]
本文批评了依赖大语言模型生成参考文献条目的做法,指出了学术论文中幻觉引用和作者列表错误的问题。
引用布莱恩·坎特里尔
布莱恩·坎特里尔批评LLM缺乏人类懒惰带来的优化约束,认为LLM会不必要地使系统复杂化而非改进,并强调人类时间限制推动了高效抽象的发展。
ArXiv 将禁止上传充斥 AI 垃圾论文的研究人员
ArXiv 这一热门预印本平台将封禁作者一年,如果其提交的论文包含明显未经审查的 LLM 生成内容,例如虚构的参考文献或 LLM 元评论,以减少 AI 垃圾。