我发布了 CTNet:一种将计算视为持久状态演化的架构 [D]

Reddit r/MachineLearning 论文

摘要

CTNet 提出了一种新型神经网络架构,把计算过程重新定义为持久状态的演化,而非逐层重写,融合了可重入记忆、多尺度一致性和投影式输出。

我刚刚发表了 CTNet 的演示文稿,想在这里分享并征求严肃反馈。CTNet 提出一种架构:计算不再是对表征的逐层重写,而是受控的持久状态转移。其动态包含可重入记忆、计算机制、准入条件、多尺度一致性、局部图卡和投影输出。核心直觉是:输出并未耗尽整个计算过程,它只是更丰富计算背景的一个投影。目前我正在展示该架构、其形式化描述以及标准玩具模型。本文的目的不是推销一个封闭系统,而是提出一个真正有雄心的架构设想,并与思考架构、计算理论、深度学习、记忆、路由、推理、秩序与系统的人展开对话。LinkedIn 原文在此:[LinkedIn 帖子](https://www.linkedin.com/posts/gin%C3%A9s-esp%C3%ADn-flores-2402331b3_ctnet-aiarchitecture-deeplearning-share-7452862756250177536-2hXG?utm_source=share&utm_medium=member_desktop&rcm=ACoAADGwkJABUssI4KW45tEvYW6z7QaVL_IfxbA)。我尤其希望获得能严肃挑战该想法的反馈: — 架构一致性 — 计算层面的影响 — 与 transformers、SSMs、MoE、记忆机制及循环模型的关系 — 理论或实践上的局限 — 潜在的发展方向 我不需要廉价的掌声,我需要尖锐的批评和真正厉害的人。
查看原文

相似文章

@appliedcompute: https://x.com/appliedcompute/status/2052826576723841292

X AI KOLs Timeline

Applied Compute 推出 ACL-Wiki,这是一个基于其 Context Engine 构建的持续学习记忆系统,能够记录来自 Cursor、Claude Code 和 Codex 的编程智能体交互,从而构建一个不断优化的 Contextbase,在两周内将关键记忆率提升约一倍。该系统通过 MCP 服务器暴露的 Remember-Refine-Retrieve 流水线,为编程智能体提供随使用而持续改进的机构记忆。

Cognifold:通过认知折叠实现始终在线的主动记忆

arXiv cs.AI

介绍了Cognifold,一种受大脑启发的、用于LLM代理的始终在线主动记忆,它通过图拓扑自组织将碎片化的事件流持续组织成自涌现的认知结构,并通过前额叶意图层扩展了互补学习系统理论。

"电脑已走向个人化"(阅读时间约 4 分钟)

TLDR AI

Perplexity 推出了“Personal Computer”AI 平台,该平台摒弃了传统的操作系统模式,转而采用概率式目标达成机制。通过深度网页研究作为核心支撑,它能自主完成多步骤工作流程,彻底解决软件碎片化问题。