从存储到经验:大语言模型智能体记忆机制演进综述
摘要
本综述论文提出了一种大语言模型(LLM)智能体记忆机制的演进框架,将其发展划分为三个阶段:存储、反思和经验。文章分析了长程一致性和持续学习等核心驱动力,旨在为下一代智能体的设计提供指导原则。
查看缓存全文
缓存时间: 2026/05/11 02:42
论文页 - 从存储到体验:大语言模型智能体记忆机制演化综述
来源:https://huggingface.co/papers/2605.06716
摘要
大语言模型智能体的记忆机制经历三个阶段——存储、反思与体验——在一致性、动态环境以及持续学习目标的需求驱动下不断演化。
基于大语言模型(LLM)的智能体通过集成外部工具与规划能力,从根本上重塑了人工智能领域。尽管记忆机制(https://huggingface.co/papers?q=memory%20mechanisms)已成为这些系统的架构基石,但当前研究仍然较为分散,在操作系统工程与认知科学之间摇摆不定。这种理论上的割裂阻碍了对技术融合的统一认知,也缺乏连贯的演化视角。为填补这一空白,本综述提出了一种新颖的演化框架(https://huggingface.co/papers?q=evolutionary%20framework),用于解析大语言模型智能体记忆机制(https://huggingface.co/papers?q=memory%20mechanisms),将发展过程形式化为三个阶段:存储(轨迹保留(https://huggingface.co/papers?q=trajectory%20preservation))、反思(轨迹优化(https://huggingface.co/papers?q=trajectory%20refinement))以及体验(轨迹抽象(https://huggingface.co/papers?q=trajectory%20abstraction))。我们首先正式定义这三个阶段,随后分析推动这一演化的三大核心动力:对长程一致性(https://huggingface.co/papers?q=long-range%20consistency)的必要性、动态环境(https://huggingface.co/papers?q=dynamic%20environments)中的挑战,以及持续学习(https://huggingface.co/papers?q=continual%20learning)的终极目标。此外,我们深入探讨了处于前沿“体验”阶段的两种变革性机制:主动探索(https://huggingface.co/papers?q=proactive%20exploration)与跨轨迹抽象(https://huggingface.co/papers?q=cross-trajectory%20abstraction)。通过综合这些截然不同的视角,本研究为下一代大语言模型智能体的开发提供了稳健的设计原则与清晰的路线图。
查看 arXiv 页面(https://arxiv.org/abs/2605.06716)查看 PDF(https://arxiv.org/pdf/2605.06716)GitHub(https://github.com/FeishuLuo/Evolving-LLM-Agent-Memory-Survey)加入收藏(https://huggingface.co/login?next=%2Fpapers%2F2605.06716)
在智能体中获取此论文:
hf papers read 2605\.06716
还没有最新的 CLI?curl \-LsSf https://hf\.co/cli/install\.sh \| bash
引用此论文的模型0
尚无模型链接此论文
请在模型 README.md 中引用 arxiv.org/abs/2605.06716,以便在此页面建立链接。
引用此论文的数据集0
尚无数据集链接此论文
请在数据集 README.md 中引用 arxiv.org/abs/2605.06716,以便在此页面建立链接。
引用此论文的项目空间0
尚无项目空间链接此论文
请在项目空间 README.md 中引用 arxiv.org/abs/2605.06716,以便在此页面建立链接。
包含此论文的合集0
尚无合集包含此论文
将此论文添加至合集(https://huggingface.co/new-collection)以便在此页面建立链接。
相似文章
@GoogleResearch:ReasoningBank,一种新型智能体记忆框架,使LLM智能体能从成功与失败中持续学习……
Google Research 推出 ReasoningBank,一个让 LLM 智能体持续从成败经验中学习的记忆框架,可提升成功率与效率。
@dylan_works_: 写了一些我最近一直在研究的有趣发现:当 LLM agent 反复将自身经历改写成文本形式的“经验……
这篇研究博客文章表明,反复将 LLM agent 的经历改写成文本形式的“教训”往往会降低性能,而非提升性能。作者发现,在 ARC-AGI 和 ALFWorld 等基准测试中,情景记忆保留的效果优于抽象巩固。
经验压缩谱:统一LLM Agent的记忆、技能与规则
本文提出经验压缩谱,这是一个统一框架,将agent记忆、技能发现和基于规则的系统沿单一递增压缩轴集成(情景记忆5-20倍,程序性技能50-500倍,声明性规则1000倍以上)。工作识别出一个关键缺口——‘缺失对角线’——表明现有系统在固定压缩级别运行,缺乏自适应跨级别支持,并阐述了可扩展全谱agent学习系统的设计原则。
MemEvoBench:LLM 代理内存误演化基准测试
MemEvoBench 引入了首个用于评估 LLM 代理内存安全性的基准测试,衡量对抗性内存注入、噪声输出和有偏反馈在问答与工作流任务中导致的行为衰退。该研究表明内存演化是安全失败的重要因素,且静态防御措施不足以应对。
AI 智能体记忆机制详解(28 分钟阅读)
本文全面介绍了 AI 智能体记忆机制的技术原理,区分了工作记忆与长期记忆的实现方式,并探讨了上下文管理、基于嵌入的检索以及数据生命周期治理等关键策略。