连续性层:智能为何需要一种架构来承载它所累积的认知
摘要
立场论文提出“连续性层”以保留模型随时间学到的内容,引入Decomposed Trace Convergence Memory与ATANT基准,在250篇故事语料上实现100%隔离、96%累积召回,且无需语言模型介入。
查看缓存全文
缓存时间: 2026/04/21 15:38
论文页面 - 连续性层:为何智能需要一种架构来承载它所积累的理解
来源:https://huggingface.co/papers/2604.17273
AI 最重要的架构问题不是模型有多大,而是没有任何一层能够把模型已经理解的内容持续地带到下一步。
本文提出:连续性层(Continuity Layer)是整个领域尚未建成的最关键基础设施。作者将“连续性”定义为一项系统属性,并给出 7 条必备特征;随后介绍一种存储原语——分解轨迹收敛记忆(Decomposed Trace Convergence Memory, DTCM),通过在写入时分解、读取时重构来实现该属性;最后勾勒出从外部 SDK 到硬件节点的四层演进路线。
连续性的正式评估框架为 ATANT 基准(arXiv:2604.06710,另文发布)。该基准在 250 篇故事语料上测试:100% 隔离性、96% 累积性,全程无语言模型参与打分。
相似文章
面向大型语言模型归因引导的持续学习
本文提出了一种面向大型语言模型的归因引导持续微调框架,该框架能够估计 Transformer 层中特定任务相关的参数重要性并相应地调节梯度,在保持新任务性能的同时缓解了灾难性遗忘。
TIDE:每一层都知晓上下文中的令牌
本文介绍了 TIDE,一种通过嵌入记忆(Embedding Memory)将令牌身份注入每一层,从而解决大语言模型(LLM)中罕见令牌问题和上下文崩溃问题的方法。作者在理论上和经验上证明了该方法在语言建模和下游任务中的改进。
我为编码智能体的“记忆”构建了一个基准测试,期待他人来挑战它
开发者创建了一个名为 continuity-benchmarks 的新基准测试,用于测试 AI 编码智能体在活跃开发过程中保持与项目规则一致性的能力,解决了现有记忆基准测试的空白——这些测试侧重于语义回忆而非实时架构一致性和多会话行为。
StageMem:面向语言模型的生命周期管理记忆框架
StageMem 提出了一种面向语言模型的生命周期管理记忆框架,该框架将记忆划分为瞬态、工作状态和持久状态三个阶段,并引入明确的置信度与强度指标,将记忆视为一种有状态的处理流程而非静态存储,从而在容量受限的条件下更精准地管理信息的保留与遗忘。
Cognis:面向对话式 AI 智能体的上下文感知记忆系统
Lyzr Cognis 推出统一开源记忆系统,融合 BM25 与 Matryoshka 向量搜索并支持版本感知写入,在 LoCoMo 与 LongMemEval 基准上实现 SOTA。