@rohanpaul_ai:哥伦比亚大学计算机系 Vishal Misra 教授解释为何 LLM 无法提出全新科学构想

X AI KOLs Following 新闻

摘要

哥伦比亚大学计算机系教授 Vishal Misra 认为,LLM 只能在已习得的贝叶斯流形内插值,无法构建全新概念图谱,因此无法产生真正原创的科学突破。

哥伦比亚大学计算机系 Vishal Misra 教授指出,LLM 之所以无法提出全新科学构想,是因为它们只学到一张结构化的“地图”——已知数据的贝叶斯流形,并在此范围内表现良好,一旦超出便失效。真正的科学发现需要绘制新地图,而这正是 LLM 无法做到的。
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/04/21 17:13

哥伦比亚大学计算机科学教授 Vishal Misra 解释,为什么 LLM 无法提出新的科学创意:LLM 学习的是一张“结构化地图”——已知数据的贝叶斯流形,并在此范围内表现良好,一旦超出就失灵。真正的发现需要绘制新地图,而这正是 LLM 做不到的。

相似文章

LLM神经解剖学第三部分 - LLMs似乎以几何而非语言思考

Reddit r/LocalLLaMA

研究人员分析了LLMs在8种语言和多个模型中的内部表示,发现概念思考发生在transformer中间层的几何空间中,且与输入语言无关,这支持了类似于乔姆斯基理论的普遍深层结构假说,而非萨丕尔-沃尔夫语言相对论。

引用布莱恩·坎特里尔

Simon Willison's Blog

布莱恩·坎特里尔批评LLM缺乏人类懒惰带来的优化约束,认为LLM会不必要地使系统复杂化而非改进,并强调人类时间限制推动了高效抽象的发展。

LLM 排名并非阶梯:来自传递性基准图的实验结果 [D]

Reddit r/MachineLearning

作者介绍了 LLM Win,这是一个将大语言模型(LLM)基准测试结果可视化为有向图的工具,用于分析传递关系和排名逆转。实验结果表明,LLM 的排名更像是一个具有较高弱到强可达性的能力图,而非线性阶梯。