大语言模型化:当人类开始将自己视为语言模型
摘要
本文探讨了“大语言模型化”这一概念,即人类开始透过语言模型的视角来审视自身,并深入分析了这一现象对人类认知及自我感知的影响。
暂无内容
查看缓存全文
缓存时间: 2026/05/10 12:42
# LLMorphism:当人类开始将自己视为语言模型 来源:https://arxiv.org/abs/2605.05419 书目工具 ## 书目与引用工具 书目探索器 切换 代码、数据、媒体 ## 与本文相关的代码、数据和媒体 演示 ## 演示 相关论文 ## 推荐与搜索工具 关于 arXivLabs ## arXivLabs:与社区合作者共同进行的实验性项目 arXivLabs 是一个框架,允许合作者直接在 arXiv 网站上开发并分享新功能。 与 arXivLabs 合作的个人和组织均认同并接纳我们的开放、社区、卓越和用户数据隐私价值观。arXiv 致力于这些价值观,仅与遵守这些价值观的合作伙伴合作。 有能为 arXiv 社区创造价值的项目想法?**了解更多关于 arXivLabs** (https://info.arxiv.org/labs/index.html)。
相似文章
LLM神经解剖学第三部分 - LLMs似乎以几何而非语言思考
研究人员分析了LLMs在8种语言和多个模型中的内部表示,发现概念思考发生在transformer中间层的几何空间中,且与输入语言无关,这支持了类似于乔姆斯基理论的普遍深层结构假说,而非萨丕尔-沃尔夫语言相对论。
HumanLLM:通过人类认知模式对大语言模型拟人化的基准测试与改进
HumanLLM 提出了一个框架,通过将心理模式建模为相互作用的因果力来对大语言模型的拟人化进行基准测试和改进。该方法从学术文献中构建了244个心理模式和11,359个多模式场景。研究表明,真正的人类对齐需要认知建模而非表面行为模拟,HumanLLM-8B 在多模式动态上的表现超越了 Qwen3-32B 等更大的模型。
赋予角色的大型语言模型表现出类似人类的动机推理
本文研究了为大语言模型赋予角色是否会引发类似人类的动机推理,发现赋予角色的大语言模型真实性辨别能力最多下降9%,并且以与其诱导的政治身份一致的方式评估科学证据的可能性最多增加90%,而基于提示的去偏见方法基本无效。
评估 LLM 在受控实验中作为人类代理的可靠性
本论文通过比较 LLM 生成的数据与人类在准确性感知调查中的反应,评估现成 LLM 是否能可靠地模拟受控行为实验中的人类反应。研究发现,虽然 LLM 能捕捉方向性效应和聚合信念更新模式,但它们的效应大小与人类尺度不一致,这有助于澄清合成 LLM 数据何时可以作为行为代理。
学习如何让大语言模型进行推理
OpenAI 发布了一篇文章,通过密码破译示例探索大语言模型的推理技术,展示了语言模型的逐步问题求解和模式识别能力。