@FinanceYF5: 神经网络会说英文,但它们用“形状”思考 1/ 神经网络不是按词思考 它们表面上会说英文,内部却可能是在几何空间里组织信息:曲线、环、曲面、流形。 理解 neural geometry,可能是理解、调试和控制模型的关键。

X AI KOLs Following 论文

摘要

神经网络表面会说英文,但内部在几何空间里组织信息(曲线、环、曲面、流形),理解“神经几何”可能是理解、调试和控制模型的关键。

🧵神经网络会说英文,但它们用“形状”思考 1/🧠 神经网络不是按词思考 它们表面上会说英文,内部却可能是在几何空间里组织信息:曲线、环、曲面、流形。 理解 neural geometry,可能是理解、调试和控制模型的关键。👇 https://t.co/eHb6tQ4vkF
查看原文 导出为 Word 导出为 PDF
查看缓存全文

缓存时间: 2026/05/08 23:39

🧵神经网络会说英文,但它们用“形状”思考

1/🧠 神经网络不是按词思考

它们表面上会说英文,内部却可能是在几何空间里组织信息:曲线、环、曲面、流形。

理解 neural geometry,可能是理解、调试和控制模型的关键。👇 https://t.co/eHb6tQ4vkF

相似文章

LLM神经解剖学第三部分 - LLMs似乎以几何而非语言思考

Reddit r/LocalLLaMA

研究人员分析了LLMs在8种语言和多个模型中的内部表示,发现概念思考发生在transformer中间层的几何空间中,且与输入语言无关,这支持了类似于乔姆斯基理论的普遍深层结构假说,而非萨丕尔-沃尔夫语言相对论。

语言模型可以解释语言模型中的神经元

OpenAI Blog

# 语言模型可以解释语言模型中的神经元 来源:[https://openai.com/index/language-models-can-explain-neurons-in-language-models/](https://openai.com/index/language-models-can-explain-neurons-in-language-models/) 虽然我们的大多数解释得分较低,但我们相信现在可以使用机器学习技术进一步改进我们生成解释的能力。例如,我们发现我们能够通过以下方式提高得分:- *迭代解释*。我们可以通过增加得分来

@rwayne: 昨天 arXiv 上挂了一篇有意思的论文,把认知科学里「意识」的机制直接翻译成了长上下文工程。 论文作者 Mo Yu / Jie Zhou 等 6 位研究员提出,认知科学有个老观点叫 global ignition,人意识到一件事时,分布…

X AI KOLs Timeline

研究者提出将认知科学中的"global ignition"意识机制应用于长上下文工程,提出MiA-Signature方法使用子模选择高层概念覆盖激活空间,应用于RAG和agentic系统后获得一致性能提升。