@rohanpaul_ai:哥伦比亚大学计算机系 Vishal Misra 教授解释为何 LLM 无法提出全新科学构想
摘要
哥伦比亚大学计算机系教授 Vishal Misra 认为,LLM 只能在已习得的贝叶斯流形内插值,无法构建全新概念图谱,因此无法产生真正原创的科学突破。
哥伦比亚大学计算机系 Vishal Misra 教授指出,LLM 之所以无法提出全新科学构想,是因为它们只学到一张结构化的“地图”——已知数据的贝叶斯流形,并在此范围内表现良好,一旦超出便失效。真正的科学发现需要绘制新地图,而这正是 LLM 无法做到的。
查看缓存全文
缓存时间: 2026/04/21 17:13
哥伦比亚大学计算机科学教授 Vishal Misra 解释,为什么 LLM 无法提出新的科学创意:LLM 学习的是一张“结构化地图”——已知数据的贝叶斯流形,并在此范围内表现良好,一旦超出就失灵。真正的发现需要绘制新地图,而这正是 LLM 做不到的。
相似文章
LLM神经解剖学第三部分 - LLMs似乎以几何而非语言思考
研究人员分析了LLMs在8种语言和多个模型中的内部表示,发现概念思考发生在transformer中间层的几何空间中,且与输入语言无关,这支持了类似于乔姆斯基理论的普遍深层结构假说,而非萨丕尔-沃尔夫语言相对论。
关于LLM“数学证明”声明的问题(15分钟阅读)
本文批判了媒体对LLM局限性数学证明的夸大报道,特别指出关于自我提升的条件性结论如何经常被曲解为普遍不可能性。
智能体会探索却无视:大语言模型缺乏环境好奇心
学术研究指出,大语言模型智能体常在环境中发现完整解法却几乎从不利用,暴露出对开放性任务至关重要的“环境好奇心”缺失。
引用布莱恩·坎特里尔
布莱恩·坎特里尔批评LLM缺乏人类懒惰带来的优化约束,认为LLM会不必要地使系统复杂化而非改进,并强调人类时间限制推动了高效抽象的发展。
LLM 排名并非阶梯:来自传递性基准图的实验结果 [D]
作者介绍了 LLM Win,这是一个将大语言模型(LLM)基准测试结果可视化为有向图的工具,用于分析传递关系和排名逆转。实验结果表明,LLM 的排名更像是一个具有较高弱到强可达性的能力图,而非线性阶梯。