关注van Emden鸿沟

Lobsters Hottest 论文

摘要

一篇2026年的博客文章回顾了M.H. van Emden 1982年提出的“计算机辅助思维”愿景,并指出当今的对话式大语言模型未能实现他所设想的那种结构化、基于逻辑、能产生思维摩擦的对话者。

<p><a href="https://lobste.rs/s/cuaerj/mind_van_emden_gap">评论</a></p>
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/21 18:10

# 注意 van Emden 鸿沟 来源:https://blog.fogus.me/llm/van-emden.html 我最近读了一篇 1982 年 M. H. van Emden 写的有趣论文《Mental Ergonomics as Basis for New-Generation Computer Systems》。文中,他把“对话伙伴”视为应对当年软件复杂性问题的手段,也在为思想工作者寻找一种“趁手的思维工具”,并称之为“Computer-Aided Thought”(CAT)。在他看来,理想的对话伙伴是自己推理过程的投射,能够回应、质疑、延伸他的想法,像一位对话者。他还希望这位 CAT 对话者能提供“有益的摩擦”,通过反驳促使他更谨慎地思考。他并不指望对话伙伴拥有真正的知识,而是看重工具带来的反射性:把思维刻意结构化以刺激工具本身。为了激发系统,他把每个想法拆成更小的“子思想”,精确陈述,步步推导,再喂给 CAT,然后观察系统如何回应他的“论证”。系统一旦“顶回来”,他就修订论证的结构与内容,以求更深的理解。他认为这些论证应该用形式化语言书写,强制显式与逻辑支撑。[¹](https://blog.fogus.me/llm/van-emden.html#fn1)相比英语,他更偏爱某种逻辑语言,因为后者更形式化,天然受约束;而英语的流动性与歧义性恰恰绕开了形式化——在他看来,形式化才是智力成长的关键,也是构建 CAT 系统的原动力。 可转眼 2026 年,与所谓智能系统交互的主流方式却是自然语言对话。当年 van Emden 对英语界面的批评尚属推测,[³](https://blog.fogus.me/llm/van-emden.html#fn3)如今我们却能观察人们与 LLM 的真实互动: 1. 英语固有的歧义被保留并放大,系统在不提示的情况下,默默按不透明的方式解读并选择回应路径。 2. 隐藏假设依旧隐藏,模型直接按训练权重的内部作用“脑补”;而在 van Emden 的逻辑编码里,隐藏前提是错误状态,必须显式化。 3. 即便写得漂亮的散文也会让人误以为“我已经想清楚了”。修辞完整 ≠ 逻辑严密,我们常被 LLM 看似连贯的回答糊弄。 4. LLM 仍无法以可验证的方式展示推理过程,市场是否会推动这一方向尚不可知。 5. LLM 天然不会给出有用的错误反馈,[⁵](https://blog.fogus.me/llm/van-emden.html#fn5)所有回答都同样“自信”。要让它满足约束,需要大量提示工程,这与 van Emden 强调的“摩擦”背道而驰。 6. 随着上下文衰减,LLM“查询”对话状态的能力十分脆弱;而 van Emden 希望论证随时可被查询。 7. 我的文字究竟如何被模型“理解”完全黑箱,只有等回答生成后,才能花大力气(如果能的话)反向推导。 如果你读过[我上一篇谈 LLM 的文章](https://blog.fogus.me/meta/LLMe.html),就能猜到:在自己做智力探索时,我更站 van Emden 这一边。然而,我最有收获的讨论还是与其他人用暧昧自然语言完成的。可见熟悉的对话界面确有价值——只是当下的 LLM 还没走到那一步。它们并未帮我们更深地思考,反而倾向于终止深思,给用户布下“镜像陷阱”。改天再谈那陷阱,这里只想说:事情本不必如此。遗憾的是,目前 LLM 厂商似乎并无动力走向“智力增强”(IA),而非“智力替代”。话虽如此,我们仍可尝试把这些工具用于自我提升——我近来常想此事,但工具不会自动变好。借用 van Emden 的话:我们需要更系统的方法与这些“巨兽”交互,以提升而非 merely 重复我们的思考。 :F --- 1. van Emden 在文中还精彩地讨论了编程语言设计,留待下次再说。↩︎ (https://blog.fogus.me/llm/van-emden.html#fnref1) 2. 此处“英语”泛指任何人类自然语言。↩︎ (https://blog.fogus.me/llm/van-emden.html#fnref2) 3. 当时 Terry Winograd 的研究为这一观点提供了有力支撑。↩︎ (https://blog.fogus.me/llm/van-emden.html#fnref3) 4. “prepared” 取义同“prepared piano”。↩︎ (https://blog.fogus.me/llm/van-emden.html#fnref4) 5. 这里不包括可借工具链、schema 等获得反馈的代码场景。↩︎ (https://blog.fogus.me/llm/van-emden.html#fnref5)

相似文章

引用布莱恩·坎特里尔

Simon Willison's Blog

布莱恩·坎特里尔批评LLM缺乏人类懒惰带来的优化约束,认为LLM会不必要地使系统复杂化而非改进,并强调人类时间限制推动了高效抽象的发展。

人工智能与人类评判的批判性思维反论证

arXiv cs.CL

本研究探讨在教育情境下,学生针对AI生成内容撰写反论证以培养批判性思维,并发现前沿大语言模型能够以与人类评估者中等一致性的方式评估此类写作。

LLM神经解剖学第三部分 - LLMs似乎以几何而非语言思考

Reddit r/LocalLLaMA

研究人员分析了LLMs在8种语言和多个模型中的内部表示,发现概念思考发生在transformer中间层的几何空间中,且与输入语言无关,这支持了类似于乔姆斯基理论的普遍深层结构假说,而非萨丕尔-沃尔夫语言相对论。