Cognifold:通过认知折叠实现始终在线的主动记忆
摘要
介绍了Cognifold,一种受大脑启发的、用于LLM代理的始终在线主动记忆,它通过图拓扑自组织将碎片化的事件流持续组织成自涌现的认知结构,并通过前额叶意图层扩展了互补学习系统理论。
查看缓存全文
缓存时间: 2026/05/14 06:16
# 始终在线主动记忆:通过认知折叠实现 来源:https://arxiv.org/html/2605.13438 ###### 摘要 现有智能体记忆仍主要停留在被动检索层面,缺乏将经验自主组织成持久认知结构的能力。为实现真正自主的智能体,我们提出 Cognifold,一种受大脑启发的"始终在线"智能体记忆,专为下一代主动式助手设计。CogniFold 将持续涌入的事件流折叠成自涌现的认知结构,从新进事件和积累知识中自举出逐步高级的认知能力。我们通过将互补学习系统(CLS)理论从两层(海马体、新皮层)扩展为三层,增加了前额叶意图层,为此提供理论支撑。CogniFold 模仿前额叶皮层作为意图控制和决策中心的功能,通过图拓扑自组织实现:认知结构在事件流下主动组装,语义相似时合并,过时时衰减,通过关联回忆重新链接,当概念簇密度超过阈值时浮现意图。我们使用 CogEval-Bench 评估结构形成,证明 CogniFold 能独特地生成符合认知期望和概念涌现的记忆结构。此外,在覆盖五个认知领域的 7 个广覆盖基准测试中,我们验证了 CogniFold 在传统记忆基准上同时表现稳健。††footnotetext:∗同等贡献。🖂 通讯作者:[email protected] ## 1 引言 记忆增强型智能体(Packer 等,2023 (https://arxiv.org/html/2605.13438#bib.bib11); Somerset 等,2023 (https://arxiv.org/html/2605.13438#bib.bib12))已使大语言模型(LLM)突破了有限的上下文约束,实现了长程推理(Shinn 等,2023 (https://arxiv.org/html/2605.13438#bib.bib10))、上下文驱动的个性化(Chhikara 等,2025 (https://arxiv.org/html/2605.13438#bib.bib43))以及经验驱动的持续学习(Majumder 等,2023 (https://arxiv.org/html/2605.13438#bib.bib28))。然而,随着智能体从按需系统演变为始终在线的助手,其输入模式从有界、提示驱动的输入转变为持续到达、碎片化的事件流(Zacks, 2020 (https://arxiv.org/html/2605.13438#bib.bib51); Kurby and Zacks, 2008 (https://arxiv.org/html/2605.13438#bib.bib52))。这催生了对主动行为的日益增长的需求:一个能自组织结构、预判意图并在用户提问前发出目标的助手(Einstein and McDaniel, 2005 (https://arxiv.org/html/2605.13438#bib.bib4))。然而,现有记忆架构有一个共同局限:其拓扑一旦形成便固定不变。无论是利用静态知识图谱(Gutiérrez 等,2024 (https://arxiv.org/html/2605.13438#bib.bib33), 2025 (https://arxiv.org/html/2605.13438#bib.bib34))、文本级重写(Chhikara 等,2025 (https://arxiv.org/html/2605.13438#bib.bib43))、混合解耦(Jiang 等,2026 (https://arxiv.org/html/2605.13438#bib.bib36))还是时间跟踪(Rasmussen 等,2025 (https://arxiv.org/html/2605.13438#bib.bib68)),记忆始终是一种*图即成品*——一个完成的可检索产物,而非在事件流下*代谢*的基质。因此,智能体被迫将主动性作为应用层机制嫁接其上,例如定时触发器、规划循环(Wang 等,2023 (https://arxiv.org/html/2605.13438#bib.bib81); Yang 等,2024 (https://arxiv.org/html/2605.13438#bib.bib80))或周期性反思(Shinn 等,2023 (https://arxiv.org/html/2605.13438#bib.bib10); Xu 等,2025 (https://arxiv.org/html/2605.13438#bib.bib35))。这种分离带来了结构性天花板:目标只能来自应用层明确设计要处理的来源。我们认为,主动性必须是记忆基质的一个属性——目标应从积累其条件的拓扑中涌现。 参见标题图 1:从反应式到主动式智能体记忆。传统智能体等待明确的用户查询(左),或者将延迟的应用层触发器嫁接在被动记忆上(中)。相比之下,CogniFold(右)在其记忆基质内即时处理未经提示的异步事件,同时重新激活相关的休眠概念(例如维也纳酒店和音乐会)。 人类生物记忆在进化上正是适应这种场景:它持续接收感官输入,在后台自主编码、巩固、遗忘和浮现意图。受此启发,我们提出 **CogniFold**,一种主动式、始终在线的智能体记忆,将持续到达的事件折叠成自涌现的认知结构。CogniFold 在严格意义上自举:图的当前状态是下一事件的解释上下文,而该事件又修改未来事件的状态——这是一个自指循环,系统完全通过其积累的结构来组织输入。 CogniFold 建立在两个互补视角之上。从**神经**角度,我们将互补学习系统(CLS)理论(McClelland 等,1995 (https://arxiv.org/html/2605.13438#bib.bib1); Kumaran 等,2016 (https://arxiv.org/html/2605.13438#bib.bib50))从两层(海马体、新皮层)扩展为三层,增加了**前额叶意图层**;意图并非硬编码(Bratman, 1987 (https://arxiv.org/html/2605.13438#bib.bib54)),而是在概念簇密度超过阈值时自主涌现。从**认知**角度,该图是概念自举(Carey, 2000 (https://arxiv.org/html/2605.13438#bib.bib82); Zhao 等,2024 (https://arxiv.org/html/2605.13438#bib.bib83))的基质:从积累结构中递归搭建更高阶认知——一种透明、可审计的测试时学习形式,不同于表层文本重写(例如 A-Mem (Xu 等,2025 (https://arxiv.org/html/2605.13438#bib.bib35)))和不透明梯度更新(例如 Titans (Behrouz 等,2024 (https://arxiv.org/html/2605.13438#bib.bib42)))。 我们进行两层评估。在**结构**层面,我们引入 CogEval-Bench,一个从第一性原理出发的评估框架,直接衡量连续事件流下形成的拓扑是否符合认知期望,证明 CogniFold 能独特地生成基于事件的概念、连贯的概念结构以及主动的意图涌现。在**下游**层面,我们在跨越五个认知领域的七个基准上评估,证实 CogniFold 同时在传统记忆任务上表现有竞争力。我们的贡献总结如下: - **始终在线主动记忆范式**。我们将智能体记忆从被动检索目标重新构想为始终在线的认知基质(图1 (https://arxiv.org/html/2605.13438#S1.F1)),原生支持持续理解和主动预判。 - **三层认知架构**。我们将两层 CLS 框架扩展出前额叶意图层,使意图能从积累的概念中自主涌现。 - **连续拓扑自组织**。我们识别并通过透明的图级操作算法性地解决流式事件的四种内在结构债务,形成一种透明、可审计的测试时学习形式。 - **CogEval-Bench 评估框架**。我们发布一个结构诊断评估框架,将主动涌现与检索准确性分离开。配合七个已建立的下游基准,我们共同验证 CogniFold 在高级认知涌现和传统记忆鲁棒性两方面的有效性。 ## 2 CogniFold:从神经层到概念自举 始终在线的智能体需要一个根本不同的记忆基质。持续到达的事件流要求一种能够增量、在线整合的架构。一个真正自主的助手必须从被动检索转向**主动组装**——在后台持续捕获隐性意图并组织相关认知结构。CogniFold 将这一基质建立在扩展的互补学习系统(CLS)理论上,将记忆形式化为一个动态演化的、类型化的多重图。 ### 2.1 三层基质 参见标题图 2:CogniFold 架构:通过三层认知折叠实现概念自举。扩展互补学习系统(CLS)框架,记忆基质通过三个阶段持续代谢流式事件:积累原始情节痕迹(海马体层),将冗余模式巩固为语义概念(新皮层层),以及结晶化意图(前额叶层)。 人类陈述性记忆由**互补学习系统**(CLS)(McClelland 等,1995 (https://arxiv.org/html/2605.13438#bib.bib1); Kumaran 等,2016 (https://arxiv.org/html/2605.13438#bib.bib50))组织:海马体快速编码稀疏的情节痕迹(Marr, 1971 (https://arxiv.org/html/2605.13438#bib.bib87); O'Reilly and McClelland, 1994 (https://arxiv.org/html/2605.13438#bib.bib88); Squire, 1992 (https://arxiv.org/html/2605.13438#bib.bib89)),而新皮层缓慢提取统计规律成为语义表征(Tulving and others, 1972 (https://arxiv.org/html/2605.13438#bib.bib90); Patterson 等,2007 (https://arxiv.org/html/2605.13438#bib.bib91))。这种划分是动态的:随着时间的推移,长期存储从海马体转移到内侧前额叶皮层(mPFC)(Bontempi 等,1999 (https://arxiv.org/html/2605.13438#bib.bib59); Frankland and Bontempi, 2005 (https://arxiv.org/html/2605.13438#bib.bib92))。关键是,mPFC 并非被动接收者。它通过已有的知识框架(图式)对海马体施加自上而下的控制,主动塑造哪些海马体痕迹得以保留以及如何组织(Tse 等,2007 (https://arxiv.org/html/2605.13438#bib.bib60); de Sousa 等,2026 (https://arxiv.org/html/2605.13438#bib.bib95))。这种双向对话(mPFC 施加图式框架以指导后续编码)构成了目标导向记忆涌现的生物基质(Preston and Eichenbaum, 2013 (https://arxiv.org/html/2605.13438#bib.bib61); Eichenbaum, 2017 (https://arxiv.org/html/2605.13438#bib.bib93); Van Kesteren 等,2012 (https://arxiv.org/html/2605.13438#bib.bib94))。 CogniFold 将上述三层对话操作化为一个类型化的、动态演化的多重图。**事件**节点扮演海马体角色:流中的每个输入被逐字记录并打上时间戳——一个不可变的情节痕迹。**概念**节点扮演新皮层角色:重复出现的模式被抽象为图式,通过溯源边锚定到构成它们的事件。**意图**节点扮演前额叶角色:当概念层面的证据收敛成一个连贯目标时,意图涌现并对后续事件如何被呈现和编码施加自上而下的影响。然而,静态层是不够的。结构只是认知的容器;记忆的生命力在于它的**代谢**。这引出了 CogniFold 核心的架构动态:**概念自举**。 ### 2.2 动态:概念自举 如果神经视角规定了结构层,那么概念自举(Carey, 2000 (https://arxiv.org/html/2605.13438#bib.bib82); Zhao 等,2024 (https://arxiv.org/html/2605.13438#bib.bib83))则规定了智能体如何"凭借自身力量向上发展"。在 CogniFold 中,这种自指动态通过**连续折叠**在三个阶段展开。 **阶段 1:积累。** 海马体层(事件节点)逐字吸收原始事件流。事件最初充当认知*占位符*:在高级概念存在之前提交的原始经验碎片。 **阶段 2:巩固。** 随着事件积累,系统检测其中的统计规律并将其*巩固*到新皮层层:离散的事件节点被折叠成概念节点,锚定于其基础事件。 **阶段 3:结晶化。** 概念随后充当未来输入的主动支撑:新进事件通过它们而非从头开始被解释。当概念簇密度超过阈值时,自举向上迭代——一个意图节点在前额叶层*结晶化*,为图式一致编码提供自上而下的偏置。 循环闭合:结构解释经验,经验重塑结构。 神经结构与认知动态之间的协同使 CogniFold 能够像生物记忆一样**代谢**:持续折叠以消除冗余(压缩)并自举以提升抽象层次,在始终在线的事件流下维持认知敏捷性。 ### 2.3 图形式化 在将 CogniFold 建立在神经生物学映射(§2.1 (https://arxiv.org/html/2605.13438#S2.SS1))和认知动态(§2.2 (https://arxiv.org/html/2605.13438#S2.SS2))基础上之后,我们现在将基质形式化为一个类型化的有向多重图 G = (V, R),包含四种节点类型和九种语义边类型(表1 (https://arxiv.org/html/2605.13438#S2.T1))。 **节点类型。** 事件(情节痕迹)、概念(语义模式)、意图(结晶化目标)和时间(时间锚点)。前三种对应 CLS 层;时间是一种辅助类型,通过 DEADLINE_FOR 边将时间义务连接到意图。 **边本体。** 九种类型化边编码不同的语义关系(表1 (https://arxiv.org/html/2605.13438#S2.T1)),每种映射到特定的认知主题。这种类型化本体约束了 LLM 的更新提议朝向有意义的拓扑,减少了自由形式提取带来的幻觉驱动的膨胀。 表 1:边类型。每种边类型映射到一个特定的认知/生物主题(CLS 类比列)。默认权重见附录 B (https://arxiv.org/html/2605.13438#A2)。 **写/读解耦。** 架构将图扩展与查询执行解耦。写路径(§3.1 (https://arxiv.org/html/2605.13438#S3.SS1), §3.3 (https://arxiv.org/html/2605.13438#S3.SS3))指定在每个新进事件上运行的拓扑演化操作;读路径指定对图快照的多策略检索(参数见附录 B (https://arxiv.org/html/2605.13438#A2))。这确保了形成和检索可以独立诊断。 ## 3 连续认知折叠 参见标题图 3:连续认知代谢。在异步事件流下,记忆基质动态自组织。图自主巩固情节事件(面板 3),合并关联图式(面板 4),并从汇聚的概念密度中结晶化目标导向意图(面板 5)。这种活拓扑原生支持自上而下的认知偏置(面板 7)、自然的时间衰减(面板 8)以及结构驱动的主动干预(面板 9)。 被动记忆架构享有相当的设计宽松度:摄取绑定在用户轮次上,巩固可以离线延迟,检索是唯一承受延迟压力的操作。一个主动、始终在线的智能体则没有这些优势。事件持续且异步地到达,工作记忆保持有限,下一个查询可能涉及尚未形成的结构——全都在用户接触点之间。因此,图必须在永不暂停的流中原位突变;拓扑必须持续偿还任何连续演化图所面临的四种结构债务——积累、压缩、衰减、补全——
相似文章
Cognis:面向对话式 AI 智能体的上下文感知记忆系统
Lyzr Cognis 推出统一开源记忆系统,融合 BM25 与 Matryoshka 向量搜索并支持版本感知写入,在 LoCoMo 与 LongMemEval 基准上实现 SOTA。
受人类启发的LLM智能体记忆架构
微软研究人员提出了一种受生物学启发的LLM智能体记忆架构,该架构结合了睡眠阶段巩固和基于干扰的遗忘机制,以高效管理持久性记忆。
SuperLocalMemory V3.3: 活体大脑——面向零LLM智能体记忆系统的生物启发式遗忘、认知量化与多通道检索
SuperLocalMemory V3.3 引入了一种面向AI智能体的统一记忆与学习系统,具备生物启发式遗忘、多通道检索和P2P网状协调。该系统在LoCoMo基准测试上达到74.8%的成绩,并具有三流学习、生命周期管理和符合欧盟AI法案的特点。
rohitg00/agentmemory
agentmemory 是一个开源的持久化记忆层,专为 AI 编程智能体(Claude Code、Cursor、Gemini CLI、Codex CLI 等)设计。它通过知识图谱、置信度评分和混合搜索技术,借助 MCP、Hooks 或 REST API,为智能体提供跨会话的长期记忆能力。该项目基于 iii 引擎构建,无需外部数据库,提供 51 个 MCP 工具。
@appliedcompute: https://x.com/appliedcompute/status/2052826576723841292
Applied Compute 推出 ACL-Wiki,这是一个基于其 Context Engine 构建的持续学习记忆系统,能够记录来自 Cursor、Claude Code 和 Codex 的编程智能体交互,从而构建一个不断优化的 Contextbase,在两周内将关键记忆率提升约一倍。该系统通过 MCP 服务器暴露的 Remember-Refine-Retrieve 流水线,为编程智能体提供随使用而持续改进的机构记忆。